Bonjour Guillaume, excellente explication riche de détail , j ai visionné cette vidéo au moins 5 fois et je vais pas hésiter de la revoir car c'est la base de tout ce que tu va nous expliquer par la suite ( il faut assimiler la base pour se batire solidement merci encore Beau travail)
Oui c'est tout a fait correct ! Le fait que tu aies compris que cette vidéo constitue la base va te permettre de parfaitement comprendre les modèles plus complexes ! Ce commentaire est tout a fait pertinent, je vote un pouce bleu et j’espère que d'autres le feront !
Merci Mr. Guillaume, ainsi grand merci à vous Mr. Mohamed surtout pour vôtres messages (.......j'ai visionné cette vidéo au moins 5 fois.....), au départ je n'ai y rien compris (vu que je suis autodidacte) ce qui m’a rendu très angoissé pendant une nuit, maintenant je commence à comprendre avec une deuxième lecture. Mon angoisse m'a fait perdre le réflexe de revoir la vidéo, votre message (et surtout .revoir..5 fois...) Mr. Mohamed était très utile pour moi.
Salut à tous ! Pour vous rendre directement à une section de cette vidéo: 0:40 : Introduction 1:00 : le Modèle matriciel 4:12 : la Fonction Coût (erreur quadratique moyenne) sous forme de matrice 6:35 : le Gradient sous forme de matrice 10:02 : Descente de Gradient (matrice) 10:46 : Régression Polynomiale Bon visionnage ! :)
Commentaire identique à vous, M. Guillaumes j'ai enfin compris pourquoi après toutes les autres équations, on doit utiliser la forme matricielle, pourquoi l'on a F = X.O, comment et pourquoi des ces termes est composé comme il l'est, bref... Merci infiniment.
Cette formation : c'est que du bonheur. Enfin une personne très compétente qui prend plaisir à partager son savoir : et en plus qui le fait bien car très pédagogue. Je passe presque les vidéos en boucle tellement c'est passionnant. Enfin l'Informatique basé sur des Mathématiques telle qu'on l'apprend à l'Université. Aujourd'hui trop de gens pensent être informaticien et ces personnes ne basent pas leur travaux sur les mathématiques : ils n'ont rien compris et cela donne cette pléthore d'applications qui ne fonctionnent pas (manque de performance, bugs, etc.). Que tous ceux qui se disent spécialistes et qui font des formations (souvent payantes) prennent de la graine. Merci encore et encore.
Bonjour. Ces deux vidéos sur la régression linéaire vont droit à l'essentiel. Même lorsqu'on a un peu peur des formules de maths (comme moi !) on est tout surpris de quand même comprendre à chaque étape et on suit toujours le fil sans jamais se perdre. Vous avez un réel talent de pédagogue et en plus la volonté de le faire partager gratuitement au plus grand nombre. Bref, tout ce qu'il faut pour progresser linéairement ! MERCI
Merci Guillaume pour la clarté de votre exposé et votre excellente pédagogie. Vos vidéos sont intéressantes et agréables et un bon rafraîchissement de culture scientifique : il y a un réel plaisir intellectuel à vous suivre.
Bonjour Guillaume, je trouve tes formations vraiment super. Ils sont vraiment bien detaillées. Ça faisait longtemps je recherchais de l'information aussi bien détaillée sur les réseau de neurones. Bravo
Man je n'ai jamais compris pourquoi je ne comprenais pas cette notion de ML ... En fait je n'avais pas encore rencontré ton explication. Franchement t'es un Special One
J'ai fais de la data science il y a 2 ans à Telecom Paris. J'ai fais autre chose en master (Recherche Opérationnel) et une année de césure ensuite. Autant dire que je commençais à oublier tout ça! Merci pour ce rappel, on apprend quand même beaucoup plus vite qu'avec les cours en anglais d'enseignants chercheurs plus chercheurs qu'enseignant !
Super ! Vraiment bravo pour cette série, dont cet épisode me parait clairement le plus important depuis le début. Si mes profs avaient eu cette qualité autrefois ... je crois qu'il y aurait pas mal de sujet que j'aurais évité de sécher. Par ailleurs je tiens à souligner le coté très humain et très vivant de la forme, très important pour la concentration. J'ai hâte de voir la suite ...
C'est vraiment une vidéo génial. Ces transformations matricielles ont failli me faire abandonner le ML quand j'ai débuté avec un autre cours, mais avec cette vidéo, bah c'est comme de l'eau à boire. Merci. vous faite vraiment un travail génial. :)
Cher Guillaume, Un grand merci pour la qualité de tes vidéos et ton sens pédagogique hors du commun. Le contenu répond parfaitement à mes besoins, à mon niveau et je prend un grand plaisir à les voir et revoir. Mais la plus belle chose que j’ai découverte en te regardant, c’est Otis McDonald!! Et donc merci pour ça aussi…
Attention !!! Ça a peut-être déjà été dit mais (X.O - Y)² ne veut pas dire "chaque élément de (X.O - Y) au carré", ce qui est en l'occurrence le sens voulu. C'est important de le savoir parce qu'une matrice de taille mx1 ne peut pas être multipliée par une matrice de taille mx1 (comme lors de la mise au carré d'une matrice justement)! Disons que c'est un abus de langage de l'écrire comme ça Sinon, le contenu est hyper qualitatif, c'est un luxe pour chacun d'avoir accès à ces vidéos ! Merci !!
@@MachineLearnia Très bonne vidéo, ainsi que toutes les explications, excellent!!! Quant à la notation soulevée par @t.b.5493, on peut juste enlever le symbole de sommation et remplacer tout le paquet par le produit matriciel (XO - Y)^T * (XO - Y) afin d'obtenir la somme des carrés au sens que nous voulons.
C'est cool parce que quand j'avais appris ça la première fois, le prof avait directement généralisé à une dimension n, sur un point de vue mathématique ça changeait pas grand chose, mais niveau intuition, c'est bien plus simple ici ! Merci bien !
certains esprits supérieurs et la collaboration d'autres personnes ne font que mettre en évidence ce qui était déjà là, caché derrière le décors. la façon dont tout s'emboite est prodigieuse. les explications de cette vidéo étaient d'une clarté faramineuse. ah si seulement j'avais une meilleure mémoire, malgré mes efforts quotidiens. en tous cas, rien que pour découvrir ce domaine ça valait le détour. les années passent et je reste un éternel élève. moyen mais bon j'ose espérer que je finirai par progresser un peu
bonjour Guillaume. Je suis nouveau sur ta chaine et j'ai dja beaucoup appris !!! L'intelligence artificielle est un domaine qui me passionne et tu viens de me donner plus de motivations pour atteindre mes objectifs. T'es le meilleur Guillaume....:)
Salut je veux savoir si cela est général donc il est inchangeable du coup on les utilise comme ça directement et on le donne à la machine durant la programmation ou bien pour chaque exemple voulu on a une nouvelle fonction de cout ......???
Bonjour, Oui c'est possible de faire un peu d'IA sans avoir un gros bagage en mathématique. Par exemple je vous conseille de jouer un peu avec un outil de data mining qui s'appelle ORANGE. Ce n'est pas de la vraie IA mais cela vous permet quand même de construire des modèles de machine learning capable de prendre des décision intelligentes basées sur un dataset que vous fournissez. Je ferai des vidéos a ce sujet dans le futur proche ! :) stay with us ! :) Bon courage :)
Monsieur Guillaume svp dans la derivé quand en fait la maj des paramètres en fait la somme de tt nos point si j 7 point par exemple ou bien j calcul pour chaque ligne pour faire un maj??
Cher Guillaume, Bravo et merci pour votre livre et votre excellent cours de machine learning par vidéo. Ce sont de très beaux cadeaux aux internautes curieux de comprendre les choses en profondeur : ils peuvent ainsi véritablement pratiquer et s'exercer à créer des applications et non pas seulement voir défiler des masses de termes techniques sibyllins. Votre présentation sur la mise en forme matricielle des équations de la descente de gradient est fort intéressante mais je ne saisis pas la symbolique de la formule J(théta) =(1/2m)Sigma(X.théta-Y)². Pourquoi ce Sigma puisque tous les éléments de cette somme sont implicitement déjà contenus dans la matrice (X.théta-Y) ? D'autre part cette matrice de dimension mx1 ne peut être multipliée par une matrice de dimension mx1, donc pas non plus par elle-même, autrement dit élevée au carré. Comme vous l'expliquez plus loin à propos de la formulation du gradient, je crois qu'il faudrait faire intervenir une transposition de matrice pour retomber sur le scalaire désiré, ce qui donnerait la formule : J(théta) =(1/2m) [Transposée(X.théta-Y)]( X.théta-Y) Cordialement
Merci beaucoup pour votre message. En effet pour etre mathématiquement correct il faudrait écrire le tout avec une transposée comme vous l'avez fait. C'est juste pour simplifier et vulgariser que j'écris cette formule pour "programme Python", car cela aide la plupart des débutants a comprendre sans se soucier des "maths" a ce stade. Donc je vous affirme que vous avez raison ! :) A Bientot !
Bonjour, Guillaume. Non seulement votre cours est remarquable mais en plus le "Service Après-Cadeau" est irréprochable. Merci pour votre réponse aussi soignée qu'ultra-rapide. Le premier MOOC que j'ai suivi était, début 2013, une bonne formation à Python par Udacity ... que j'ai oubliée depuis faute d'usage. Quel dommage que Machine Learnia n'ait pas existé à l'époque pour mettre ces connaissances en pratique ! Cordialement.
Bonjour, Félicitations pour ce cours que je prends avec grand plaisir ! je suis intrigué par la notation ∑ Y2 pour la somme des coordonnées, je n'ai pas trouvé cette convention. Une simplification de votre part ou une syntaxe usuelle?
Non merci j'ai compris. J'ai raisonné en matrice mais c'est un vecteur. Un vecteur au carré donne le module au carré. Ce qui donne bien la somme des carrés de chacune des composantes. Thanks!!!
Je lis des choses sur les normes d'applications linéaires, puis-je plutôt me fier à une telle norme (genre la racine de la somme des carrés de theta_final, moyennée sur plusieurs tirages allez hop ^^). Merci pour vos réponses, Master Learnia :P
@@MachineLearnia J'ai eu du mal à poster ma question en 1 message, je pense que le comm d'intro a sauté: J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?
7:30 Un detail - Faites gaffe que dans l'expression (X*Theta-Y)^2, le carre n'est pas le produit de la matrice par elle meme, c'est le carre de chaque valeur. (ou bien ecrivez (X*Theta-Y) dot (X*Theta-Y).T, c'est votre somme).
@@MachineLearnia Le "carre" d'une matrice existe (produit de la matrice par elle-meme) mais pas pour celle-la. Par contre (pour les spectateurs) a l'implementation il n'y pas ce probleme, c'est juste la notation mathematique.
En effet, une expression matricielle parfaite serait Transpose(X.theta -Y)*(X.theta -Y)/2m. Ainsi plus besoin de signe somme ni du carré qui n'en est pas un vrai ici.
Bonsoir Guillaume, sur l'expression matricielle de la fonction de coût, je ne comprends pas pourquoi l'on garde la somme. Pour ma part J(theta) = (1/2m) * (Xtheta-y)². C'est formule du carré scalaire : X² = = X^T X = Somme (i=1 à m) des (X(i)²). Le scalaire nous l'obtenons donc lors du calcul matriciel (Xtheta-y)^T (Xtheta-y). Ecrit sous forme de somme : Somme de (i=1 à m) ( (Xtheta-y)(i) )²
Votre analyse est correcte, mais dans la pratique (et dans ses vidéos) il faut un peu se détacher des maths "pures" et penser de maniere programmation. En l’occurrence, en programmation de tableau, nous mettons au carré tous les éléments du tableau (Xtheta - y), puis nous faisons la somme sur les lignes de ce tableau. Ca revient en meme en matrice pures.
si y'a une possibilité de nous faire une vidéo sur les perceptron multicouche en et comment crée une base de donner a partir d'une fonction multivariable. Et merci pour ces excellente vidéo merci bcp.
Super formations merci beaucoup! Petite question, pourquoi pour le gradient garde t on un signe somme, alors que pour le gradient descent cette somme est implicite dans le calcul vectoriel?
J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?
C'est une bonne question ! Pour cela, je conseille d'utiliser les outils et les techniques que je montre dans la vidéo 23/30 de la série Python Machine Learning (cette vidéo porte sur la sélection de variables)
Bonjour, merci pour cette vidéo ! Petite question, le n que tu indiques à la fin correspond au degré de ton polynome - 1 et pas au nombre de features comme indiqué au début de ta série de vidéo ou alors je n'ai pas compris qqch ?
Oui au début de la série j'ai indiqué que n était le nombre de features dans les données X. Ensuite, je dis que X est de dimension n+1 car on rajoute une colonne de biais.
@@MachineLearnia merci pour cette réponse, cependant je ne suis pas sûre d'avoir compris, pour moi le nombre de types features est complétement indépendant du degré du polynôme que l'on choisi pour notre modèle ...
Quelqu'un pourrait m'expliquer l’enchaînement de calculs nécessaires pour obtenir les fonctions du gradient grâce au dérivés partielles ? Sinon très bonne vidéo de ta part Machine Learnia, ton travail est vraiment excellent, entre la forme et le fond, tout est parfait, merci à toi pour ce partage, j'espère que tu nous offriras une très bonne formation qui fera en sorte que ce partage ne soit pas unidirectionnel. PS: Au temps pour moi, j'ai réussi à activer ma petite cervelle et j'ai trouvé l’enchaînement
Merci ! Je suis super content de savoir que j'arrive à aider à ce point des gens ! Moi-même la pratique du machine learning m'a permis de mieux comprendre certains concepts d’algèbre linéaire un peu abstrait en prépa.
Bonjour Guillaume, excellente explication riche de détail , j ai visionné cette vidéo au moins 5 fois et je vais pas hésiter de la revoir car c'est la base de tout ce que tu va nous expliquer par la suite ( il faut assimiler la base pour se batire solidement merci encore Beau travail)
Oui c'est tout a fait correct ! Le fait que tu aies compris que cette vidéo constitue la base va te permettre de parfaitement comprendre les modèles plus complexes ! Ce commentaire est tout a fait pertinent, je vote un pouce bleu et j’espère que d'autres le feront !
Merci Mr. Guillaume, ainsi grand merci à vous Mr. Mohamed surtout pour vôtres messages (.......j'ai visionné cette vidéo au moins 5 fois.....), au départ je n'ai y rien compris (vu que je suis autodidacte) ce qui m’a rendu très angoissé pendant une nuit, maintenant je commence à comprendre avec une deuxième lecture.
Mon angoisse m'a fait perdre le réflexe de revoir la vidéo, votre message (et surtout .revoir..5 fois...) Mr. Mohamed était très utile pour moi.
Un des meilleurs cours sur le ML et le DL. Avec un peu de persévérance; la plupart devraient y arriver. Merci
Salut à tous ! Pour vous rendre directement à une section de cette vidéo:
0:40 : Introduction
1:00 : le Modèle matriciel
4:12 : la Fonction Coût (erreur quadratique moyenne) sous forme de matrice
6:35 : le Gradient sous forme de matrice
10:02 : Descente de Gradient (matrice)
10:46 : Régression Polynomiale
Bon visionnage ! :)
Si mon prof m'avait expliqué l'utilité des matrices de cette façon, j'allais adorer l'algèbre linéaire. Merci Guillaume!
Commentaire identique à vous, M. Guillaumes j'ai enfin compris pourquoi après toutes les autres équations, on doit utiliser la forme matricielle, pourquoi l'on a F = X.O, comment et pourquoi des ces termes est composé comme il l'est, bref... Merci infiniment.
Merci beaucoup pour cette formation riche et facile à assimiler! J'ai trouvé le courage d'aller plus en avant.
Cette formation : c'est que du bonheur.
Enfin une personne très compétente qui prend plaisir à partager son savoir : et en plus qui le fait bien car très pédagogue.
Je passe presque les vidéos en boucle tellement c'est passionnant. Enfin l'Informatique basé sur des Mathématiques telle qu'on l'apprend à l'Université. Aujourd'hui trop de gens pensent être informaticien et ces personnes ne basent pas leur travaux sur les mathématiques : ils n'ont rien compris et cela donne cette pléthore d'applications qui ne fonctionnent pas (manque de performance, bugs, etc.).
Que tous ceux qui se disent spécialistes et qui font des formations (souvent payantes) prennent de la graine.
Merci encore et encore.
Merci pour ton message, c'est un plaisir de vous aider et de partager les maths du machine learning avec vous :)
Bonjour. Ces deux vidéos sur la régression linéaire vont droit à l'essentiel. Même lorsqu'on a un peu peur des formules de maths (comme moi !) on est tout surpris de quand même comprendre à chaque étape et on suit toujours le fil sans jamais se perdre. Vous avez un réel talent de pédagogue et en plus la volonté de le faire partager gratuitement au plus grand nombre. Bref, tout ce qu'il faut pour progresser linéairement ! MERCI
Merci Sébastien, je suis content de voir que le but recherché est atteint :)
Merci Guillaume pour la clarté de votre exposé et votre excellente pédagogie. Vos vidéos sont intéressantes et agréables et un bon rafraîchissement de culture scientifique : il y a un réel plaisir intellectuel à vous suivre.
Bonjour Guillaume,
je trouve tes formations vraiment super. Ils sont vraiment bien detaillées.
Ça faisait longtemps je recherchais de l'information aussi bien détaillée sur les réseau de neurones. Bravo
Merci beaucoup a vous ! :)
Super cette deuxième partie ! Les infographies que tu as réalisées sur ton blog sont aussi très pratiques pour bien comprendre !
Merci :)
Man je n'ai jamais compris pourquoi je ne comprenais pas cette notion de ML ... En fait je n'avais pas encore rencontré ton explication. Franchement t'es un Special One
Merci beaucoup. Content de savoir que tu es compris a présent ! :)
Pouce bleu depuis la Grece. Tu es un formidable enseignant et genereux. Merci pour tout.
Merci beaucoup. Ce message me va droit au coeur. :)
Excellente illustration du dicton : "Ce qui se conçoit bien, s'énonce clairement" ! Bravo !
Merci, ca me touche beaucoup ! :)
J'ai fais de la data science il y a 2 ans à Telecom Paris. J'ai fais autre chose en master (Recherche Opérationnel) et une année de césure ensuite. Autant dire que je commençais à oublier tout ça! Merci pour ce rappel, on apprend quand même beaucoup plus vite qu'avec les cours en anglais d'enseignants chercheurs plus chercheurs qu'enseignant !
not all heroes wear caps u re really a hero
Respect
keep going
support this man
Thanks a lot !!! :)
C'est de pures merveilles tes vidéos. Je suis à peine de m'abonner à ta page et je kiff grave. Merci pour tout.
Merci beaucoup, c'est un plaisir ! :)
Mais merci Monsieur !!! Merci de m'avoir permis de comprendre les maths derrière le programme, merci, merci, merci !!!
Cours très exceplicite. Merci pour ton partage de connaissance 🙂
Super !
Vraiment bravo pour cette série, dont cet épisode me parait clairement le plus important depuis le début.
Si mes profs avaient eu cette qualité autrefois ... je crois qu'il y aurait pas mal de sujet que j'aurais évité de sécher.
Par ailleurs je tiens à souligner le coté très humain et très vivant de la forme, très important pour la concentration.
J'ai hâte de voir la suite ...
Merci beaucoup. Je suis ravi si la vidéo vous est utile ! :)
vous etes pas seulement un super prof mais vous incarner l ecole moderne bravo
Merci beaucoup, c'est un honneur ! :)
Une vraie mine d'information. Pour moi qui est en première année du cycle ingénieur et qui veut prendre de l'avance. MERCI.
De rien :)
Il a tellement de chemise ce mec mdr, c'est incroyable. En tout cas elles sont grave bonnes tes vidéos. Milles merci
ahah merci !
vraiment j'adore votre manière d'expliquer
Merci beaucoup
Bravo Mensieur Guillaume très bonne explication
de rien !
Merci infiniment pour cette vidéo bien détaillé sur la base de tout la suite.
de rien !
C'est vraiment une vidéo génial. Ces transformations matricielles ont failli me faire abandonner le ML quand j'ai débuté avec un autre cours, mais avec cette vidéo, bah c'est comme de l'eau à boire.
Merci. vous faite vraiment un travail génial. :)
Je suis tres content d'avoir pu vous aider a y voir pus clair ! :)
merci pour ces cours trés facile a comprendre , vous avez su rendre un sujet complexe accessible a tous bon courage pour la suite de vos videos
Cher Guillaume, Un grand merci pour la qualité de tes vidéos et ton sens pédagogique hors du commun. Le contenu répond parfaitement à mes besoins, à mon niveau et je prend un grand plaisir à les voir et revoir. Mais la plus belle chose que j’ai découverte en te regardant, c’est Otis McDonald!! Et donc merci pour ça aussi…
Tout le plaisir est pour moi :)
You are magical too. So accessibly well explained. Thank you so much.
Grand merci pour tout ce que tu fournis comme boulot monstre ! Big up
Merci pour la reconnaissance :)
Impressionnant de clarté, un grand merci !
Trés grand Merci pour la présentation et la méthode d'expliquer les equations
Merci beaucoup. :)
Excellent, ça m'a aidé pour mon devoir de Machine Learning
Tout simplement : Vous êtes super monsieur. Je vous souhaite bonne continuation
Merci beaucoup a vous :)
Attention !!! Ça a peut-être déjà été dit mais (X.O - Y)² ne veut pas dire "chaque élément de (X.O - Y) au carré", ce qui est en l'occurrence le sens voulu. C'est important de le savoir parce qu'une matrice de taille mx1 ne peut pas être multipliée par une matrice de taille mx1 (comme lors de la mise au carré d'une matrice justement)! Disons que c'est un abus de langage de l'écrire comme ça
Sinon, le contenu est hyper qualitatif, c'est un luxe pour chacun d'avoir accès à ces vidéos ! Merci !!
Tout a fait ! j'aurais du faire cette précision dans la vidéo !
@@MachineLearnia Très bonne vidéo, ainsi que toutes les explications, excellent!!!
Quant à la notation soulevée par @t.b.5493, on peut juste enlever le symbole de sommation et remplacer tout le paquet par le produit matriciel (XO - Y)^T * (XO - Y) afin d'obtenir la somme des carrés au sens que nous voulons.
Thanks a lot , the way that you explain is very awesome , and the language you use is very simple , you deserve all the best.
Thank you very much :)
Cette chaîne est extraordinaire. Un énorme merci !
Merci beaucoup :)
vos cour m'aide beaucoup je débute en ML merci beaucoup
Bonjour Guillaume, merci beaucoup pour ces explications très riches.
De rien !
merci beaucoup
travail exceptionnel
C'est cool parce que quand j'avais appris ça la première fois, le prof avait directement généralisé à une dimension n, sur un point de vue mathématique ça changeait pas grand chose, mais niveau intuition, c'est bien plus simple ici ! Merci bien !
Ah ca fait plaisir, parce que je comprends totalement ce que tu veux dire :)
certains esprits supérieurs et la collaboration d'autres personnes ne font que mettre en évidence ce qui était déjà là, caché derrière le décors. la façon dont tout s'emboite est prodigieuse. les explications de cette vidéo étaient d'une clarté faramineuse. ah si seulement j'avais une meilleure mémoire, malgré mes efforts quotidiens. en tous cas, rien que pour découvrir ce domaine ça valait le détour. les années passent et je reste un éternel élève. moyen mais bon j'ose espérer que je finirai par progresser un peu
Merci beaucoup pour vos compliments ! Vous avez la bonne démarche de continuer d'apprendre en vous auto-formant, vous irez loin !
chapeau et merci 100 fois
meilleure explication merci énormément pour votre précieux effort !
Je vous en prie !
Très bien expliqué! Chapeau bas.
Très intéressant. Merci Guillaume.
Mais oui c'est clair ! Très clair comme d'habitude 😉
ahah merci :)
merci pour vos efforts
bonjour Guillaume. Je suis nouveau sur ta chaine et j'ai dja beaucoup appris !!! L'intelligence artificielle est un domaine qui me passionne et tu viens de me donner plus de motivations pour atteindre mes objectifs. T'es le meilleur Guillaume....:)
Merci ! Je suis très content de pouvoir t'aider de la sorte :)
Bon courage et a bientôt !
Bonjour, encore un petit compliment au passage, pour cette formation extraordinaire :)
Merci :)
Merciiii😇,très clair et facile.
Intéressante 👌
de rien :)
Merci infiniment j'ai bien compris la tache👍
Waw, vraiment très très clair. (excellent contenu, pédagogie et montage ...).
Merci !
Merci, c'est expliqué et super clair.
Ca fait plaisir ! :)
Magnifique 🤩
u'r the best tous simplement 💪, merciii 🙏
Merci a vous !
Merci pour l'explication vous êtes le meilleur 😊
Thanks a lot ! :D
mérciii beaucoup Guillaume pour vos efforts
Merci Unes :)
Très bien l'explication
salut Guillaume, merci bien pour tes videos.
De rien !
Excellente vidéo merci bcp
Merci beaucoup :) si vous avez la moindre question, posez la en commentaire dans les vidéos, j'y réponds toujours
@@MachineLearnia merci infiniment
you've a funny and efficient way to explain the content. thanks bro !
Thanks :)
Génialissime !
Un grand bravo !!!!!
Vos vidéos sont très claires et bien expliquées.
Pourriez-vous faire une vidéo sur la régression logistique svp ?
J'en ai déja sortie quelques unes sur mon Tipeee, mais oui j'en ferai également sur RUclips. Merci :)
Merci beaucoup ! Simple, clair; efficace.
Merci :)
Merci !! Hyper claire et instructif ! :)
Merci a vous :)
vraiment super merci pour tout.
Merci pour cette vidéo!
de rien :)
Salut je veux savoir si cela est général donc il est inchangeable du coup on les utilise comme ça directement et on le donne à la machine durant la programmation ou bien pour chaque exemple voulu on a une nouvelle fonction de cout ......???
Très intéressante formation Guillaume.
Merci
Beau résumé.
merci beaucoup Monsieur Guillaume
Merci a vous !
Easy to follow :) Thanks a lot !
Many thanks mate :)
bonjour je suis intéressé par l intelligence artificielle mais j ai 55 ans et je suis nul en maths es ce possible ? merci
Bonjour, Oui c'est possible de faire un peu d'IA sans avoir un gros bagage en mathématique. Par exemple je vous conseille de jouer un peu avec un outil de data mining qui s'appelle ORANGE. Ce n'est pas de la vraie IA mais cela vous permet quand même de construire des modèles de machine learning capable de prendre des décision intelligentes basées sur un dataset que vous fournissez. Je ferai des vidéos a ce sujet dans le futur proche ! :) stay with us ! :)
Bon courage :)
Merci, très clair
Merci beaucoup
Monsieur Guillaume svp dans la derivé quand en fait la maj des paramètres en fait la somme de tt nos point si j 7 point par exemple ou bien j calcul pour chaque ligne pour faire un maj??
Cher Guillaume,
Bravo et merci pour votre livre et votre excellent cours de machine learning par vidéo. Ce sont de très beaux cadeaux aux internautes curieux de comprendre les choses en profondeur : ils peuvent ainsi véritablement pratiquer et s'exercer à créer des applications et non pas seulement voir défiler des masses de termes techniques sibyllins.
Votre présentation sur la mise en forme matricielle des équations de la descente de gradient est fort intéressante mais je ne saisis pas la symbolique de la formule J(théta) =(1/2m)Sigma(X.théta-Y)².
Pourquoi ce Sigma puisque tous les éléments de cette somme sont implicitement déjà contenus dans la matrice (X.théta-Y) ? D'autre part cette matrice de dimension mx1 ne peut être multipliée par une matrice de dimension mx1, donc pas non plus par elle-même, autrement dit élevée au carré. Comme vous l'expliquez plus loin à propos de la formulation du gradient, je crois qu'il faudrait faire intervenir une transposition de matrice pour retomber sur le scalaire désiré, ce qui donnerait la formule : J(théta) =(1/2m) [Transposée(X.théta-Y)]( X.théta-Y)
Cordialement
Merci beaucoup pour votre message. En effet pour etre mathématiquement correct il faudrait écrire le tout avec une transposée comme vous l'avez fait. C'est juste pour simplifier et vulgariser que j'écris cette formule pour "programme Python", car cela aide la plupart des débutants a comprendre sans se soucier des "maths" a ce stade. Donc je vous affirme que vous avez raison ! :)
A Bientot !
Bonjour, Guillaume.
Non seulement votre cours est remarquable mais en plus le "Service Après-Cadeau" est irréprochable. Merci pour votre réponse aussi soignée qu'ultra-rapide. Le premier MOOC que j'ai suivi était, début 2013, une bonne formation à Python par Udacity ... que j'ai oubliée depuis faute d'usage. Quel dommage que Machine Learnia n'ait pas existé à l'époque pour mettre ces connaissances en pratique !
Cordialement.
Bonjour,
Félicitations pour ce cours que je prends avec grand plaisir ! je suis intrigué par la notation ∑ Y2 pour la somme des coordonnées, je n'ai pas trouvé cette convention. Une simplification de votre part ou une syntaxe usuelle?
Je ne comprends pas pourquoi tu arrives à sortir le carrée de la matrice 5:38 car la matrice carrée d'une matrice m*1 n'existe pas sauf si m=1
Non merci j'ai compris. J'ai raisonné en matrice mais c'est un vecteur. Un vecteur au carré donne le module au carré. Ce qui donne bien la somme des carrés de chacune des composantes. Thanks!!!
Bravo pour avoir compris tout seul !
Très bonnes vidéos, merci ;)
De rien :)
Je lis des choses sur les normes d'applications linéaires, puis-je plutôt me fier à une telle norme (genre la racine de la somme des carrés de theta_final, moyennée sur plusieurs tirages allez hop ^^).
Merci pour vos réponses, Master Learnia :P
Je ne suis pas sur de bien comprendre, désolé ^^
@@MachineLearnia J'ai eu du mal à poster ma question en 1 message, je pense que le comm d'intro a sauté:
J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?
Qu'est-ce vous vous amusez bien, oui vous êtes the best of the learning..... Merci d'avance Guillaume, je veux pouvoir décrypté vos explications
Je suis tres heureux de vous aider
Merci infirment Guillaume !!!!
De rien :)
tres bon cours j'avoue
Bonjour et merci beaucoup !
Merci infiniment.
de rien :)
Génial !!!🤩🤩😍
Merci ;)
merci...et bravo
7:30 Un detail - Faites gaffe que dans l'expression (X*Theta-Y)^2, le carre n'est pas le produit de la matrice par elle meme, c'est le carre de chaque valeur. (ou bien ecrivez (X*Theta-Y) dot (X*Theta-Y).T, c'est votre somme).
Oui vous avez raison ! Le carré d'une matrice / d'un vecteur ca n'existe pas, c'est le carré des éléments du tableau.
@@MachineLearnia Le "carre" d'une matrice existe (produit de la matrice par elle-meme) mais pas pour celle-la. Par contre (pour les spectateurs) a l'implementation il n'y pas ce probleme, c'est juste la notation mathematique.
@@cboisvert2 Oui une matrice doit etre carrée. Ca n'est pas un cas général.
En effet, une expression matricielle parfaite serait Transpose(X.theta -Y)*(X.theta -Y)/2m.
Ainsi plus besoin de signe somme ni du carré qui n'en est pas un vrai ici.
Bonsoir Guillaume, sur l'expression matricielle de la fonction de coût, je ne comprends pas pourquoi l'on garde la somme. Pour ma part J(theta) = (1/2m) * (Xtheta-y)². C'est formule du carré scalaire : X² = = X^T X = Somme (i=1 à m) des (X(i)²).
Le scalaire nous l'obtenons donc lors du calcul matriciel (Xtheta-y)^T (Xtheta-y). Ecrit sous forme de somme : Somme de (i=1 à m) ( (Xtheta-y)(i) )²
Votre analyse est correcte, mais dans la pratique (et dans ses vidéos) il faut un peu se détacher des maths "pures" et penser de maniere programmation. En l’occurrence, en programmation de tableau, nous mettons au carré tous les éléments du tableau (Xtheta - y), puis nous faisons la somme sur les lignes de ce tableau. Ca revient en meme en matrice pures.
sympa. Merci encore
si y'a une possibilité de nous faire une vidéo sur les perceptron multicouche en et comment crée une base de donner a partir d'une fonction multivariable. Et merci pour ces excellente vidéo merci bcp.
Oui comme je l'ais dit dans mon autre commentaire, et merci beaucoup ! :)
Super formations merci beaucoup! Petite question, pourquoi pour le gradient garde t on un signe somme, alors que pour le gradient descent cette somme est implicite dans le calcul vectoriel?
J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?
C'est une bonne question ! Pour cela, je conseille d'utiliser les outils et les techniques que je montre dans la vidéo 23/30 de la série Python Machine Learning (cette vidéo porte sur la sélection de variables)
Merci, super vidéo ...
Merci beaucoup
C'est géniale
Thank you very much
Bonjour, merci pour cette vidéo ! Petite question, le n que tu indiques à la fin correspond au degré de ton polynome - 1 et pas au nombre de features comme indiqué au début de ta série de vidéo ou alors je n'ai pas compris qqch ?
Oui au début de la série j'ai indiqué que n était le nombre de features dans les données X. Ensuite, je dis que X est de dimension n+1 car on rajoute une colonne de biais.
@@MachineLearnia merci pour cette réponse, cependant je ne suis pas sûre d'avoir compris, pour moi le nombre de types features est complétement indépendant du degré du polynôme que l'on choisi pour notre modèle ...
Bonjour
Je trouve vos explications trés claires.Auriez vous une vidéo sur la méthode des gradients conjugués?
Quelqu'un pourrait m'expliquer l’enchaînement de calculs nécessaires pour obtenir les fonctions du gradient grâce au dérivés partielles ?
Sinon très bonne vidéo de ta part Machine Learnia, ton travail est vraiment excellent, entre la forme et le fond, tout est parfait, merci à toi pour ce partage, j'espère que tu nous offriras une très bonne formation qui fera en sorte que ce partage ne soit pas unidirectionnel.
PS: Au temps pour moi, j'ai réussi à activer ma petite cervelle et j'ai trouvé l’enchaînement
Bravo, tu as pu trouver la réponse avant que je lise ton commentaire ! :D
Très clair...
Je me demande bien pourquoi je ne comprenais rien aux matrices il y a "quelques" années (et surtout à quoi elles pouvaient bien servir)
Merci ! Je suis super content de savoir que j'arrive à aider à ce point des gens ! Moi-même la pratique du machine learning m'a permis de mieux comprendre certains concepts d’algèbre linéaire un peu abstrait en prépa.