RÉGRESSION LINÉAIRE (partie 2/2) - ML#6

Поделиться
HTML-код
  • Опубликовано: 15 сен 2024

Комментарии • 309

  • @Mohamed-uf5jh
    @Mohamed-uf5jh 4 года назад +93

    Bonjour Guillaume, excellente explication riche de détail , j ai visionné cette vidéo au moins 5 fois et je vais pas hésiter de la revoir car c'est la base de tout ce que tu va nous expliquer par la suite ( il faut assimiler la base pour se batire solidement merci encore Beau travail)

    • @MachineLearnia
      @MachineLearnia  4 года назад +18

      Oui c'est tout a fait correct ! Le fait que tu aies compris que cette vidéo constitue la base va te permettre de parfaitement comprendre les modèles plus complexes ! Ce commentaire est tout a fait pertinent, je vote un pouce bleu et j’espère que d'autres le feront !

    • @oualisalaheddine5587
      @oualisalaheddine5587 3 года назад

      Merci Mr. Guillaume, ainsi grand merci à vous Mr. Mohamed surtout pour vôtres messages (.......j'ai visionné cette vidéo au moins 5 fois.....), au départ je n'ai y rien compris (vu que je suis autodidacte) ce qui m’a rendu très angoissé pendant une nuit, maintenant je commence à comprendre avec une deuxième lecture.
      Mon angoisse m'a fait perdre le réflexe de revoir la vidéo, votre message (et surtout .revoir..5 fois...) Mr. Mohamed était très utile pour moi.

  • @nasrberrached8912
    @nasrberrached8912 Год назад +5

    Un des meilleurs cours sur le ML et le DL. Avec un peu de persévérance; la plupart devraient y arriver. Merci

  • @MachineLearnia
    @MachineLearnia  5 лет назад +28

    Salut à tous ! Pour vous rendre directement à une section de cette vidéo:
    0:40 : Introduction
    1:00 : le Modèle matriciel
    4:12 : la Fonction Coût (erreur quadratique moyenne) sous forme de matrice
    6:35 : le Gradient sous forme de matrice
    10:02 : Descente de Gradient (matrice)
    10:46 : Régression Polynomiale
    Bon visionnage ! :)

  • @ouedraogowendeguudialban69
    @ouedraogowendeguudialban69 Год назад +7

    Si mon prof m'avait expliqué l'utilité des matrices de cette façon, j'allais adorer l'algèbre linéaire. Merci Guillaume!

    • @madegbongue1247
      @madegbongue1247 7 месяцев назад

      Commentaire identique à vous, M. Guillaumes j'ai enfin compris pourquoi après toutes les autres équations, on doit utiliser la forme matricielle, pourquoi l'on a F = X.O, comment et pourquoi des ces termes est composé comme il l'est, bref... Merci infiniment.

  • @StefyRAZAFINDRAVAO
    @StefyRAZAFINDRAVAO Месяц назад

    Merci beaucoup pour cette formation riche et facile à assimiler! J'ai trouvé le courage d'aller plus en avant.

  • @noel9335
    @noel9335 4 года назад +4

    Cette formation : c'est que du bonheur.
    Enfin une personne très compétente qui prend plaisir à partager son savoir : et en plus qui le fait bien car très pédagogue.
    Je passe presque les vidéos en boucle tellement c'est passionnant. Enfin l'Informatique basé sur des Mathématiques telle qu'on l'apprend à l'Université. Aujourd'hui trop de gens pensent être informaticien et ces personnes ne basent pas leur travaux sur les mathématiques : ils n'ont rien compris et cela donne cette pléthore d'applications qui ne fonctionnent pas (manque de performance, bugs, etc.).
    Que tous ceux qui se disent spécialistes et qui font des formations (souvent payantes) prennent de la graine.
    Merci encore et encore.

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Merci pour ton message, c'est un plaisir de vous aider et de partager les maths du machine learning avec vous :)

  • @sebastiencrepel5032
    @sebastiencrepel5032 3 года назад +4

    Bonjour. Ces deux vidéos sur la régression linéaire vont droit à l'essentiel. Même lorsqu'on a un peu peur des formules de maths (comme moi !) on est tout surpris de quand même comprendre à chaque étape et on suit toujours le fil sans jamais se perdre. Vous avez un réel talent de pédagogue et en plus la volonté de le faire partager gratuitement au plus grand nombre. Bref, tout ce qu'il faut pour progresser linéairement ! MERCI

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Merci Sébastien, je suis content de voir que le but recherché est atteint :)

  • @nicomaistre
    @nicomaistre 6 месяцев назад

    Merci Guillaume pour la clarté de votre exposé et votre excellente pédagogie. Vos vidéos sont intéressantes et agréables et un bon rafraîchissement de culture scientifique : il y a un réel plaisir intellectuel à vous suivre.

  • @michelbouchard8847
    @michelbouchard8847 3 года назад +1

    Bonjour Guillaume,
    je trouve tes formations vraiment super. Ils sont vraiment bien detaillées.
    Ça faisait longtemps je recherchais de l'information aussi bien détaillée sur les réseau de neurones. Bravo

  • @amyd.2840
    @amyd.2840 5 лет назад +9

    Super cette deuxième partie ! Les infographies que tu as réalisées sur ton blog sont aussi très pratiques pour bien comprendre !

  • @freddygoudou801
    @freddygoudou801 4 года назад +2

    Man je n'ai jamais compris pourquoi je ne comprenais pas cette notion de ML ... En fait je n'avais pas encore rencontré ton explication. Franchement t'es un Special One

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Merci beaucoup. Content de savoir que tu es compris a présent ! :)

  • @matthieundumbi3888
    @matthieundumbi3888 4 года назад +1

    Pouce bleu depuis la Grece. Tu es un formidable enseignant et genereux. Merci pour tout.

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Merci beaucoup. Ce message me va droit au coeur. :)

  • @ulyssevs6848
    @ulyssevs6848 2 года назад

    Excellente illustration du dicton : "Ce qui se conçoit bien, s'énonce clairement" ! Bravo !

  • @hilion8479
    @hilion8479 2 года назад

    J'ai fais de la data science il y a 2 ans à Telecom Paris. J'ai fais autre chose en master (Recherche Opérationnel) et une année de césure ensuite. Autant dire que je commençais à oublier tout ça! Merci pour ce rappel, on apprend quand même beaucoup plus vite qu'avec les cours en anglais d'enseignants chercheurs plus chercheurs qu'enseignant !

  • @madiounimohsen6956
    @madiounimohsen6956 3 года назад +1

    not all heroes wear caps u re really a hero
    Respect
    keep going
    support this man

  • @adamabamba4009
    @adamabamba4009 4 года назад +1

    C'est de pures merveilles tes vidéos. Je suis à peine de m'abonner à ta page et je kiff grave. Merci pour tout.

  • @marie-pierrediquero9222
    @marie-pierrediquero9222 Год назад

    Mais merci Monsieur !!! Merci de m'avoir permis de comprendre les maths derrière le programme, merci, merci, merci !!!

  • @ardenarena6375
    @ardenarena6375 Год назад +1

    Cours très exceplicite. Merci pour ton partage de connaissance 🙂

  • @laurentlarsonneur3948
    @laurentlarsonneur3948 4 года назад +2

    Super !
    Vraiment bravo pour cette série, dont cet épisode me parait clairement le plus important depuis le début.
    Si mes profs avaient eu cette qualité autrefois ... je crois qu'il y aurait pas mal de sujet que j'aurais évité de sécher.
    Par ailleurs je tiens à souligner le coté très humain et très vivant de la forme, très important pour la concentration.
    J'ai hâte de voir la suite ...

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Merci beaucoup. Je suis ravi si la vidéo vous est utile ! :)

  • @AI-xb1zb
    @AI-xb1zb 3 года назад

    vous etes pas seulement un super prof mais vous incarner l ecole moderne bravo

  • @taskmaster9113
    @taskmaster9113 4 года назад

    Une vraie mine d'information. Pour moi qui est en première année du cycle ingénieur et qui veut prendre de l'avance. MERCI.

  • @AA-be4pq
    @AA-be4pq 2 года назад

    Il a tellement de chemise ce mec mdr, c'est incroyable. En tout cas elles sont grave bonnes tes vidéos. Milles merci

  • @moussabamba6216
    @moussabamba6216 5 лет назад +1

    vraiment j'adore votre manière d'expliquer

  • @samirroumaqui3851
    @samirroumaqui3851 2 года назад

    Bravo Mensieur Guillaume très bonne explication

  • @zainasadoun1423
    @zainasadoun1423 2 года назад

    Merci infiniment pour cette vidéo bien détaillé sur la base de tout la suite.

  • @aliounebadarapierreniang793
    @aliounebadarapierreniang793 4 года назад

    C'est vraiment une vidéo génial. Ces transformations matricielles ont failli me faire abandonner le ML quand j'ai débuté avec un autre cours, mais avec cette vidéo, bah c'est comme de l'eau à boire.
    Merci. vous faite vraiment un travail génial. :)

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Je suis tres content d'avoir pu vous aider a y voir pus clair ! :)

  • @rafikdiaf2956
    @rafikdiaf2956 2 года назад

    merci pour ces cours trés facile a comprendre , vous avez su rendre un sujet complexe accessible a tous bon courage pour la suite de vos videos

  • @jeremiebarraud5745
    @jeremiebarraud5745 2 года назад

    Cher Guillaume, Un grand merci pour la qualité de tes vidéos et ton sens pédagogique hors du commun. Le contenu répond parfaitement à mes besoins, à mon niveau et je prend un grand plaisir à les voir et revoir. Mais la plus belle chose que j’ai découverte en te regardant, c’est Otis McDonald!! Et donc merci pour ça aussi…

  • @abdelrahmane657
    @abdelrahmane657 Год назад

    You are magical too. So accessibly well explained. Thank you so much.

  • @younesamghar538
    @younesamghar538 3 года назад +1

    Grand merci pour tout ce que tu fournis comme boulot monstre ! Big up

  • @PotatoNeko
    @PotatoNeko Год назад

    Impressionnant de clarté, un grand merci !

  • @abdelabdel3201
    @abdelabdel3201 4 года назад +1

    Trés grand Merci pour la présentation et la méthode d'expliquer les equations

  • @fromzerotodatamaster7932
    @fromzerotodatamaster7932 Год назад

    Excellent, ça m'a aidé pour mon devoir de Machine Learning

  • @mohamedanasselyamani4323
    @mohamedanasselyamani4323 4 года назад

    Tout simplement : Vous êtes super monsieur. Je vous souhaite bonne continuation

  • @t.b.5493
    @t.b.5493 3 года назад +1

    Attention !!! Ça a peut-être déjà été dit mais (X.O - Y)² ne veut pas dire "chaque élément de (X.O - Y) au carré", ce qui est en l'occurrence le sens voulu. C'est important de le savoir parce qu'une matrice de taille mx1 ne peut pas être multipliée par une matrice de taille mx1 (comme lors de la mise au carré d'une matrice justement)! Disons que c'est un abus de langage de l'écrire comme ça
    Sinon, le contenu est hyper qualitatif, c'est un luxe pour chacun d'avoir accès à ces vidéos ! Merci !!

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Tout a fait ! j'aurais du faire cette précision dans la vidéo !

    • @chamirngandjia1198
      @chamirngandjia1198 5 месяцев назад

      @@MachineLearnia Très bonne vidéo, ainsi que toutes les explications, excellent!!!
      Quant à la notation soulevée par @t.b.5493, on peut juste enlever le symbole de sommation et remplacer tout le paquet par le produit matriciel (XO - Y)^T * (XO - Y) afin d'obtenir la somme des carrés au sens que nous voulons.

  • @khalidsultani6006
    @khalidsultani6006 4 года назад +1

    Thanks a lot , the way that you explain is very awesome , and the language you use is very simple , you deserve all the best.

  • @nicolasdujardin7285
    @nicolasdujardin7285 4 года назад

    Cette chaîne est extraordinaire. Un énorme merci !

  • @assmosh7792
    @assmosh7792 2 года назад

    vos cour m'aide beaucoup je débute en ML merci beaucoup

  • @berraiscomputerengineerig396
    @berraiscomputerengineerig396 3 года назад

    Bonjour Guillaume, merci beaucoup pour ces explications très riches.

  • @chhoumifathi
    @chhoumifathi 4 месяца назад

    merci beaucoup
    travail exceptionnel

  • @thecaptainT15
    @thecaptainT15 2 года назад

    C'est cool parce que quand j'avais appris ça la première fois, le prof avait directement généralisé à une dimension n, sur un point de vue mathématique ça changeait pas grand chose, mais niveau intuition, c'est bien plus simple ici ! Merci bien !

    • @MachineLearnia
      @MachineLearnia  2 года назад +1

      Ah ca fait plaisir, parce que je comprends totalement ce que tu veux dire :)

  • @1conscience0dimension
    @1conscience0dimension 3 года назад

    certains esprits supérieurs et la collaboration d'autres personnes ne font que mettre en évidence ce qui était déjà là, caché derrière le décors. la façon dont tout s'emboite est prodigieuse. les explications de cette vidéo étaient d'une clarté faramineuse. ah si seulement j'avais une meilleure mémoire, malgré mes efforts quotidiens. en tous cas, rien que pour découvrir ce domaine ça valait le détour. les années passent et je reste un éternel élève. moyen mais bon j'ose espérer que je finirai par progresser un peu

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Merci beaucoup pour vos compliments ! Vous avez la bonne démarche de continuer d'apprendre en vous auto-formant, vous irez loin !

  • @willylatache
    @willylatache Год назад +1

    chapeau et merci 100 fois

  • @benabdallahrahma8245
    @benabdallahrahma8245 3 года назад

    meilleure explication merci énormément pour votre précieux effort !

  • @cladissemeyapsoh5053
    @cladissemeyapsoh5053 Год назад

    Très bien expliqué! Chapeau bas.

  • @hamadoumossigarba1201
    @hamadoumossigarba1201 Год назад

    Très intéressant. Merci Guillaume.

  • @alexandretritz8555
    @alexandretritz8555 5 лет назад +3

    Mais oui c'est clair ! Très clair comme d'habitude 😉

  • @abdelbassetnemiche7140
    @abdelbassetnemiche7140 3 года назад

    merci pour vos efforts

  • @deux-d1313
    @deux-d1313 4 года назад

    bonjour Guillaume. Je suis nouveau sur ta chaine et j'ai dja beaucoup appris !!! L'intelligence artificielle est un domaine qui me passionne et tu viens de me donner plus de motivations pour atteindre mes objectifs. T'es le meilleur Guillaume....:)

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Merci ! Je suis très content de pouvoir t'aider de la sorte :)
      Bon courage et a bientôt !

  • @cyrilww3750
    @cyrilww3750 3 года назад

    Bonjour, encore un petit compliment au passage, pour cette formation extraordinaire :)

  • @sarahkaddour1745
    @sarahkaddour1745 4 года назад +1

    Merciiii😇,très clair et facile.
    Intéressante 👌

  • @heinzkantklausvonstanffenb571
    @heinzkantklausvonstanffenb571 9 дней назад

    Merci infiniment j'ai bien compris la tache👍

  • @mostafachellal239
    @mostafachellal239 2 года назад

    Waw, vraiment très très clair. (excellent contenu, pédagogie et montage ...).

  • @diallotaslimamindiakassa5040
    @diallotaslimamindiakassa5040 3 года назад

    Merci, c'est expliqué et super clair.

  • @wallwall3140
    @wallwall3140 2 дня назад

    Magnifique 🤩

  • @jubarassoul5929
    @jubarassoul5929 2 года назад

    u'r the best tous simplement 💪, merciii 🙏

  • @khadijanaji6632
    @khadijanaji6632 3 года назад

    Merci pour l'explication vous êtes le meilleur 😊

  • @eltrach
    @eltrach 4 года назад

    mérciii beaucoup Guillaume pour vos efforts

  • @belcobarry408
    @belcobarry408 2 года назад

    Très bien l'explication

  • @hassanben_amar2495
    @hassanben_amar2495 3 года назад

    salut Guillaume, merci bien pour tes videos.

  • @90fazoti
    @90fazoti 4 года назад +2

    Excellente vidéo merci bcp

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Merci beaucoup :) si vous avez la moindre question, posez la en commentaire dans les vidéos, j'y réponds toujours

    • @90fazoti
      @90fazoti 4 года назад

      @@MachineLearnia merci infiniment

  • @moisemuhesi1525
    @moisemuhesi1525 2 года назад

    you've a funny and efficient way to explain the content. thanks bro !

  • @MeriemBelhadi-xw4rn
    @MeriemBelhadi-xw4rn 4 месяца назад

    Génialissime !

  • @thomasstroebel2266
    @thomasstroebel2266 4 года назад

    Un grand bravo !!!!!
    Vos vidéos sont très claires et bien expliquées.
    Pourriez-vous faire une vidéo sur la régression logistique svp ?

    • @MachineLearnia
      @MachineLearnia  3 года назад

      J'en ai déja sortie quelques unes sur mon Tipeee, mais oui j'en ferai également sur RUclips. Merci :)

  • @harrytutle3682
    @harrytutle3682 4 года назад

    Merci beaucoup ! Simple, clair; efficace.

  • @TARTUFF36
    @TARTUFF36 3 года назад

    Merci !! Hyper claire et instructif ! :)

  • @alexfranck5896
    @alexfranck5896 2 года назад

    vraiment super merci pour tout.

  • @Wtydy
    @Wtydy 3 года назад

    Merci pour cette vidéo!

  • @alae3870
    @alae3870 Месяц назад

    Salut je veux savoir si cela est général donc il est inchangeable du coup on les utilise comme ça directement et on le donne à la machine durant la programmation ou bien pour chaque exemple voulu on a une nouvelle fonction de cout ......???

  • @0xmar23x
    @0xmar23x 4 года назад

    Très intéressante formation Guillaume.

  • @abdellazizlawrizy
    @abdellazizlawrizy 2 года назад

    Beau résumé.

  • @mohammedherrag7070
    @mohammedherrag7070 4 года назад

    merci beaucoup Monsieur Guillaume

  • @kameltourki2359
    @kameltourki2359 4 года назад +1

    Easy to follow :) Thanks a lot !

  • @thierrycariou884
    @thierrycariou884 5 лет назад +6

    bonjour je suis intéressé par l intelligence artificielle mais j ai 55 ans et je suis nul en maths es ce possible ? merci

    • @MachineLearnia
      @MachineLearnia  5 лет назад +7

      Bonjour, Oui c'est possible de faire un peu d'IA sans avoir un gros bagage en mathématique. Par exemple je vous conseille de jouer un peu avec un outil de data mining qui s'appelle ORANGE. Ce n'est pas de la vraie IA mais cela vous permet quand même de construire des modèles de machine learning capable de prendre des décision intelligentes basées sur un dataset que vous fournissez. Je ferai des vidéos a ce sujet dans le futur proche ! :) stay with us ! :)
      Bon courage :)

  • @djibrildiouf1203
    @djibrildiouf1203 4 года назад +2

    Merci, très clair

  • @frlafela1559
    @frlafela1559 2 года назад

    Monsieur Guillaume svp dans la derivé quand en fait la maj des paramètres en fait la somme de tt nos point si j 7 point par exemple ou bien j calcul pour chaque ligne pour faire un maj??

  • @jeanlouispasteur
    @jeanlouispasteur 4 года назад +1

    Cher Guillaume,
    Bravo et merci pour votre livre et votre excellent cours de machine learning par vidéo. Ce sont de très beaux cadeaux aux internautes curieux de comprendre les choses en profondeur : ils peuvent ainsi véritablement pratiquer et s'exercer à créer des applications et non pas seulement voir défiler des masses de termes techniques sibyllins.
    Votre présentation sur la mise en forme matricielle des équations de la descente de gradient est fort intéressante mais je ne saisis pas la symbolique de la formule J(théta) =(1/2m)Sigma(X.théta-Y)².
    Pourquoi ce Sigma puisque tous les éléments de cette somme sont implicitement déjà contenus dans la matrice (X.théta-Y) ? D'autre part cette matrice de dimension mx1 ne peut être multipliée par une matrice de dimension mx1, donc pas non plus par elle-même, autrement dit élevée au carré. Comme vous l'expliquez plus loin à propos de la formulation du gradient, je crois qu'il faudrait faire intervenir une transposition de matrice pour retomber sur le scalaire désiré, ce qui donnerait la formule : J(théta) =(1/2m) [Transposée(X.théta-Y)]( X.théta-Y)
    Cordialement

    • @MachineLearnia
      @MachineLearnia  4 года назад +2

      Merci beaucoup pour votre message. En effet pour etre mathématiquement correct il faudrait écrire le tout avec une transposée comme vous l'avez fait. C'est juste pour simplifier et vulgariser que j'écris cette formule pour "programme Python", car cela aide la plupart des débutants a comprendre sans se soucier des "maths" a ce stade. Donc je vous affirme que vous avez raison ! :)
      A Bientot !

    • @jeanlouispasteur
      @jeanlouispasteur 4 года назад

      Bonjour, Guillaume.
      Non seulement votre cours est remarquable mais en plus le "Service Après-Cadeau" est irréprochable. Merci pour votre réponse aussi soignée qu'ultra-rapide. Le premier MOOC que j'ai suivi était, début 2013, une bonne formation à Python par Udacity ... que j'ai oubliée depuis faute d'usage. Quel dommage que Machine Learnia n'ait pas existé à l'époque pour mettre ces connaissances en pratique !
      Cordialement.

  • @user-tr1pp7vf5h
    @user-tr1pp7vf5h 6 месяцев назад

    Bonjour,
    Félicitations pour ce cours que je prends avec grand plaisir ! je suis intrigué par la notation ∑ Y2 pour la somme des coordonnées, je n'ai pas trouvé cette convention. Une simplification de votre part ou une syntaxe usuelle?

  • @bilon5670
    @bilon5670 4 года назад +2

    Je ne comprends pas pourquoi tu arrives à sortir le carrée de la matrice 5:38 car la matrice carrée d'une matrice m*1 n'existe pas sauf si m=1

    • @bilon5670
      @bilon5670 4 года назад +2

      Non merci j'ai compris. J'ai raisonné en matrice mais c'est un vecteur. Un vecteur au carré donne le module au carré. Ce qui donne bien la somme des carrés de chacune des composantes. Thanks!!!

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Bravo pour avoir compris tout seul !

  • @JoshHoft
    @JoshHoft 4 года назад

    Très bonnes vidéos, merci ;)

  • @cyrilww3750
    @cyrilww3750 3 года назад

    Je lis des choses sur les normes d'applications linéaires, puis-je plutôt me fier à une telle norme (genre la racine de la somme des carrés de theta_final, moyennée sur plusieurs tirages allez hop ^^).
    Merci pour vos réponses, Master Learnia :P

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Je ne suis pas sur de bien comprendre, désolé ^^

    • @cyrilww3750
      @cyrilww3750 3 года назад

      @@MachineLearnia J'ai eu du mal à poster ma question en 1 message, je pense que le comm d'intro a sauté:
      J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?

  • @mbokonimundele2118
    @mbokonimundele2118 4 года назад

    Qu'est-ce vous vous amusez bien, oui vous êtes the best of the learning..... Merci d'avance Guillaume, je veux pouvoir décrypté vos explications

  • @trongphongngo6623
    @trongphongngo6623 3 года назад

    Merci infirment Guillaume !!!!

  • @koffibenoitipou5938
    @koffibenoitipou5938 4 года назад +1

    tres bon cours j'avoue

  • @ptrcknskm9470
    @ptrcknskm9470 3 года назад

    Merci infiniment.

  • @alex595659
    @alex595659 4 года назад +1

    Génial !!!🤩🤩😍

  • @belgacemkhaled4942
    @belgacemkhaled4942 Год назад

    merci...et bravo

  • @cboisvert2
    @cboisvert2 3 года назад +1

    7:30 Un detail - Faites gaffe que dans l'expression (X*Theta-Y)^2, le carre n'est pas le produit de la matrice par elle meme, c'est le carre de chaque valeur. (ou bien ecrivez (X*Theta-Y) dot (X*Theta-Y).T, c'est votre somme).

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Oui vous avez raison ! Le carré d'une matrice / d'un vecteur ca n'existe pas, c'est le carré des éléments du tableau.

    • @cboisvert2
      @cboisvert2 3 года назад

      @@MachineLearnia Le "carre" d'une matrice existe (produit de la matrice par elle-meme) mais pas pour celle-la. Par contre (pour les spectateurs) a l'implementation il n'y pas ce probleme, c'est juste la notation mathematique.

    • @MachineLearnia
      @MachineLearnia  3 года назад

      @@cboisvert2 Oui une matrice doit etre carrée. Ca n'est pas un cas général.

    • @nicolasgregoriou1
      @nicolasgregoriou1 2 года назад

      En effet, une expression matricielle parfaite serait Transpose(X.theta -Y)*(X.theta -Y)/2m.
      Ainsi plus besoin de signe somme ni du carré qui n'en est pas un vrai ici.

  • @thomasstroebel2266
    @thomasstroebel2266 3 года назад

    Bonsoir Guillaume, sur l'expression matricielle de la fonction de coût, je ne comprends pas pourquoi l'on garde la somme. Pour ma part J(theta) = (1/2m) * (Xtheta-y)². C'est formule du carré scalaire : X² = = X^T X = Somme (i=1 à m) des (X(i)²).
    Le scalaire nous l'obtenons donc lors du calcul matriciel (Xtheta-y)^T (Xtheta-y). Ecrit sous forme de somme : Somme de (i=1 à m) ( (Xtheta-y)(i) )²

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Votre analyse est correcte, mais dans la pratique (et dans ses vidéos) il faut un peu se détacher des maths "pures" et penser de maniere programmation. En l’occurrence, en programmation de tableau, nous mettons au carré tous les éléments du tableau (Xtheta - y), puis nous faisons la somme sur les lignes de ce tableau. Ca revient en meme en matrice pures.

  • @mohamedchennani5606
    @mohamedchennani5606 3 года назад

    sympa. Merci encore

  • @madikahi8834
    @madikahi8834 4 года назад +1

    si y'a une possibilité de nous faire une vidéo sur les perceptron multicouche en et comment crée une base de donner a partir d'une fonction multivariable. Et merci pour ces excellente vidéo merci bcp.

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Oui comme je l'ais dit dans mon autre commentaire, et merci beaucoup ! :)

  • @jadepierre2330
    @jadepierre2330 2 года назад

    Super formations merci beaucoup! Petite question, pourquoi pour le gradient garde t on un signe somme, alors que pour le gradient descent cette somme est implicite dans le calcul vectoriel?

  • @cyrilww3750
    @cyrilww3750 3 года назад

    J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?

    • @MachineLearnia
      @MachineLearnia  3 года назад

      C'est une bonne question ! Pour cela, je conseille d'utiliser les outils et les techniques que je montre dans la vidéo 23/30 de la série Python Machine Learning (cette vidéo porte sur la sélection de variables)

  • @sololalolo7380
    @sololalolo7380 4 года назад

    Merci, super vidéo ...

  • @sawsanabdeli1430
    @sawsanabdeli1430 2 года назад

    C'est géniale

  • @omarlarbaoui4024
    @omarlarbaoui4024 3 года назад

    Thank you very much

  • @mv8113
    @mv8113 3 года назад

    Bonjour, merci pour cette vidéo ! Petite question, le n que tu indiques à la fin correspond au degré de ton polynome - 1 et pas au nombre de features comme indiqué au début de ta série de vidéo ou alors je n'ai pas compris qqch ?

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Oui au début de la série j'ai indiqué que n était le nombre de features dans les données X. Ensuite, je dis que X est de dimension n+1 car on rajoute une colonne de biais.

    • @mv8113
      @mv8113 3 года назад

      @@MachineLearnia merci pour cette réponse, cependant je ne suis pas sûre d'avoir compris, pour moi le nombre de types features est complétement indépendant du degré du polynôme que l'on choisi pour notre modèle ...

  • @philippemargueret9289
    @philippemargueret9289 2 года назад

    Bonjour
    Je trouve vos explications trés claires.Auriez vous une vidéo sur la méthode des gradients conjugués?

  • @alexandrerangom3510
    @alexandrerangom3510 4 года назад

    Quelqu'un pourrait m'expliquer l’enchaînement de calculs nécessaires pour obtenir les fonctions du gradient grâce au dérivés partielles ?
    Sinon très bonne vidéo de ta part Machine Learnia, ton travail est vraiment excellent, entre la forme et le fond, tout est parfait, merci à toi pour ce partage, j'espère que tu nous offriras une très bonne formation qui fera en sorte que ce partage ne soit pas unidirectionnel.
    PS: Au temps pour moi, j'ai réussi à activer ma petite cervelle et j'ai trouvé l’enchaînement

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Bravo, tu as pu trouver la réponse avant que je lise ton commentaire ! :D

  • @duflotjean
    @duflotjean 5 лет назад +1

    Très clair...
    Je me demande bien pourquoi je ne comprenais rien aux matrices il y a "quelques" années (et surtout à quoi elles pouvaient bien servir)

    • @MachineLearnia
      @MachineLearnia  5 лет назад

      Merci ! Je suis super content de savoir que j'arrive à aider à ce point des gens ! Moi-même la pratique du machine learning m'a permis de mieux comprendre certains concepts d’algèbre linéaire un peu abstrait en prépa.