Une formation d'une rare qualité et en français de surcroit, si c'est pas une chance ça ... Les formations proposées sur cette chaîne sont même plus complètes que certains enseignements à l'université, où les cours sont plus où moins vu rapidement car il y a également les autres matières qui occupent un volume horaire conséquent. On ne voit pas tous ces petits détails abordés dans les différentes vidéos, y compris les rappels en math. Associé à une présentation, une éloquence, une efficacité et une pédagogie hors du commun, c'est un véritable plaisir d'apprendre sur cette chaîne. 30min de vidéo valent bien plus qu'un de mes cours magistral, sincèrement. Ces vidéos m'ont même permis de revoir les maths, de comprendre des choses que je n'avais pas comprises autrefois, de comprendre des livres pointu et d'entreprendre des choses bien plus ambitieuses. Cette chaîne devrait même être cité dans les sections pour en savoir plus de chaque cours dans nos universités ! De quoi être un incontournable pour tout étudiant en informatique ! Un immense merci pour tout ce contenu et tout simplement merci d'exister. PS: Quel est le nom de cette musique qui t'accompagne en fond dans l'intro ? Je la cherche depuis des semaines et je n'arrive pas à mettre la main dessus !
Wow merci beaucoup pour ton commentaire il me va droit au coeur. J'aimerais beaucoup pouvoir le capturer pour le mettre sur mon site Internet. Tu pourrais me contacter sur Linkedin ou bien sur Discord stp ?! :) Je vais voir la musique que j'utilise a la fin pour te dire
@@MachineLearnia Bonjour, n'ayant pas de compte Linkedin, j'ai donc rejoint le discord de la chaîne où j'ai pu lire au passage des choses intéressantes !
merci pour ce travail incroyable, je suis étudiant en IA et j'ai beaucoup mieux appris avec tes vidéos qu'avec mes cours. Comment je l'explique ? Aucune perte de temps, des animations fluides, des explications pédagogiques et une passion manifeste.
@@MachineLearnia Bonjour. Je viens de me lancer dans le deep learning et mon travail consiste à approcher des solutions des EDP par des réseaux de neurones. Un article de thèse indique qu'il y a des réseaux appelés GRBF ou Pi -Sigma dont les neurones fonctionnent différement du perceptron. Par exemple, le neurone ne recoit pas à l'entrée le résultat d'une combinaison linéaire entre les entrées et les poids. Il peut faire le produit par exemple mais sur python avec la sous bibliothèque Keras les couches de perceptron sont déjà codées, on rentre certrains paramètres tels que le nombre de neurones dans la couche et la fonction d'activation. Ma question est comment coder un autre type de neurone avec la même bibliothèque ?
@@MachineLearnia Bonjour ,Auriez-vous la méthode pour afficher le contour de la frontière de décision sur le cours de la vidéo 9 en fin de partie ? Merci
Ta passion pour le sujet est captivante, j'aime trop ce que tu fais, tu y mets beaucoup d'effort et ça se recent, merci de nous proposer ces formations incroyablement bien expliquées, les formules de maths sont simple à comprendre avec tes explications et on comprend vraiment ce que l'on fait sur les programmes, on ne recopie pas bêtement sans comprendre se que l'on fait et c'est génial. Grand merci et j'attends la suite avec impatience !
Extraordinaire tout ce travail de grande qualité et superbe pédagogie. J'ai regardé les neufs vidéos du deep learning en trois soirs, j'ai démarré mardi. Je souhaite m'exercer sur du texte. Hâte de découvrir les prochaines vidéos !
Bonsoir Guillaume. Encore mille mercis et un grand bravo pour cette vidéo instructive. Je trouve ton astuce d'utiliser un dictionnaire pour renvoyer les résultats en utilisant le nom des variables ('X' = X) très élégante et réellement inspirante. J'attends avec impatience la vidéo suivante !! Encore merci
C'est magnifique ce que vous faites ! J'aurais souhaité me retrouver dans vos vidéos pour faire des applications du deep learning dans mon enseignement ! Je ne vois pas comment !!
Merci pour ce programme Guillaume. J'ai pu à partir de ce code ressortir une généralisation à 4 couches et je l'ai appliqué à quelques données que je dispose. Je vois la généralisation des équations à N couches mais j'essaie de réfléchir à la création des fonctions qui permettent de définir le nombre de couches et nombre de neurones par couches. Mais j'aimerais bien connaître aussi les formules générales en utilisant les RMSE et MSE comme fonctions coût.
Bravo ! Ca me fait très plaisir de voir un tel engagement de votre part ! :) je vais bientot montrer comment faire tout cela pour N-Couches, et aussi comment faire cela pour des problemes de regression
J'attends avec impatience la suite. En fait, pour faire la généralisation à 4 couches, j'ai repris les gradients que j'ai étendu à 4 couches et par conjecture, la formule pour N-couches est ressortie. dzn est le point de départ dont dépendent toutes les autres dérivées en remontant jusqu'à la couche 1. Voilà en quelque sorte ce que j'ai essayé.
Hello, merci pour ces vidéos et cette formation, cependant j'ai une petite remarque, timecode 19:52, tu indiques 20000 photos dans le dataset (précédément 1000) et 19:39 la fonction se nomme load_data_large(), je ne sais pas si j'ai loupé quelque chose, mais ces 2 choses manquent (le dataset + la fonction), possible de mettre à jour le github avec ? Et il y a aussi le timecode 20:21, la fonction ne correspond pas à ce qui est présenté avant (manque la partie test) et le nom n'est pas le même neural_network2. Merci!
Salut, Oui je n'ai pas mis le gros dataset sur github, ni la fonction qui inclue le test set. Je voulais le faire, mais je pense que c'est bien pour les gens d'avoir a ne pas simplement copier coller le tout. Ils ont déja la base, et peuvent rapidement rajouter les éléments de test_set au code que je fournis grâce a ce que je montre dans la vidéo
Bonjour, wooh, une formation très complète, la qualité on n'en parle même pas. Pourriez vous s'il vous plaît faire une vidéo sur le Natural language Processing(NLP) ou ce qu'on appelle en français le traitement automatique du langage naturel, un domaine en surcroit très intéressant. Merci beaucoup.
@@MachineLearnia En tout cas, merci beaucoup pour votre sacerdoce. _ On dit que c'est le bon Dieu qui rénumère ses prêtres ! Il vous soutiendra le moment venu. Boutade bien entendu_. Comme il est difficile de reproduire les figures et illustrations des cours pour fixer la compréhension, ce que vous sortirez en pdf aidera beaucoup de monde. Merci d'avance.
it's very rare that I post a comment, but I do it to thank you for all this huge work, very effective videos in terms of information/time , for me it's by far the best channel in this field, and a little "feedback" on the "deep learning" series: I suggest you to put at the end : //Directed by: Guillaume// because you have just released films and not a educational videos (in terms of high quality). your rating: 9.9/10 (we leave 0.1 as a possibility to develop even more otherwise in fact it's 10/10) a big thank-you
Many Many thanks for your message, I really appreciate your feedback and I will continue on improving :) I hope to read from you again in the future, it's a pleasure to have such good people in the audience !
Tout d'abord je vous félicite sur votre tuto qui bien expliqués, simple, et sur la qualite des animation ? J'ai une question c'est: est-ce-que vous avez une idée sur les modele generatifs 3D, a quoi il sert, son input et output, et est-ce-qu'il des ressources pour que je puisse m'autoformer dans ce domaine. et Merci une autre fois sur ses exeptionnels tuto.
Bonjour! Etant un apprenant en AI,je vous remercie pour ce contenu gratuit mis à notre disposition. Peut-on faire cette programmation avec un autre langage? Merci.
Bonjour Guillaume ! Franchement un grand merci pour ton travail, j'ai découvert ta chaîne il y a peu et ça me motive énormément à progresser ! J'espère que tu reprendras un jour les vidéos RUclips, mais que surtout tu vas bien. J'aurais une petite question par rapport à cet épisode, je n'arrive pas à afficher les courbes test loss et test acc avec le code de cette vidéo... Aussi je ne sais pas si c'est normal, mais pour l'application cat vs dog, l'algorithme qu'on avait vu dans la vidéo avec un seul neurone me donne avec 10000 itérations une précision X_train autour de 70% Alors qu'avec l'algorithme à deux couches et 32 neurones et 8000 itérations cela monte à peine au dessus de 60%... Voilà, si quelqu'un souhaite m'aider je serais ravi :) En tout cas encore bravo pour ce travail :)
Salut! Déjà je tiens à dire que tes vidéos sont vraiment incroyables et pour ça, merci beaucoup ! Cependant, j'ai un problème et j'aimerais savoir si il existe un moyen de le résoudre, mais pour ça je dois expliquer un peu mon projet. Je me suis proposé de créer une simulation d'évacuation d'urgence (mouvement de foule et tout le bordel), et pour déterminer la trajectoire de chaque individu dans la foule à n'importe quel moment, je compte utiliser une IA. Cette dernière devrait retourner en sortie un angle (qui définirait la trajectoire de l'individu) et en entrée, elle devra prendre les différentes distances qui séparent l'individu des autres personnes présentent autour de lui. Ainsi, le nombre de variables en entrée ne sera pas le même dans tout les cas (car ce nombre dépend du nombre de personnes qui sont autour). Donc mon problème est: comment créer un réseau de neurones dont le nombre d'entrées sera amené à varier en fonction des cas traités ? J'ignore si c'est possible mais merci d'avance pour ton aide :)
Salut, oui c'est possible par 3 grands moyens : les RNNs, les recusrives NN, et le zero padding (je te conseille celle-ci, regarde sur google). Cependant je ne sais pas si dans ton projet un réseau de neurone sera le plus adapté, mais ca je te laisse gerer ^^
@Machine Learnia Les vidéos sont vraiment super ! J'ai faits la fonction neural network2 sans problème mais je ne sais pas rajouter d'image ou d'information pour avoir le data large. Pourrais-tu m'expliquer comment faire ? Parce que avec seulement 1000 photos, c'est le test qui est meilleur que le train. Merci beaucoup pour toutes ces explications ! Je comprends vraiment super bien !
Bonsoir, Quelle est la différence entre np.dot(A,B) et A np.dot(B)? Au lien de Flatten() est ce qu'on pouvait utiliser ravel() pour aplatir le vecteur y?
Pas de différence entre np.dot(A, B) et la méthode A.dot(B) En revanche, ravel() applati le tableau de maniere permanente, alors que Flatten() retourne juste le résultat.
MERCI déjà pour ton travail pour nous vraiment seulement j'aimerais avoir quelques indices sur comment creer les graphes qui se trouvent à la fin de cette vidéo dont tu as parler
Excellente video, merci Guillaume pour cette capacité incroyable à enseigner ces choses complexes ! Par contre je m'attendais à ce que la video bonus sur tipee pour le tracé de la frontière de décision soit un tracé non linéaire, or c'est la même video que pour le cours antérieur sur une couche à un seul neurone. Du coup sans le savoir j'ai tipé la video deux fois pour retomber sur une video déjà vue et qui ne répond pas à mes interrogations sur le tracé d'une frontière de décision à 2 neurones. Parce que autant pour un neurone du coup je comprends bien la zone z=0 autant je n'arrive pas à me l'imaginer pour deux neurones, car le z=0 d'un neurone ne sera pas le z=0 de l'autre neurone, alors du coup c'est quoi ? Une concaténation de deux droites formant une sorte de triangle ? C'est abstrait pour moi. Y a-t-il une video bonus qui explique cette représentation ?
Hello guillaume, le cours est très bien expliqué , felicitations c'est impresionnant mais comment definir la fonction log_loss pour un reseau de neuronnes à deux couches?
Hello, Merci beaucoup cette excellente vidéo pleine d'enseignements (comme les précédentes). Question: Faut-il toujours que la dernière couche d'un réseau de neurones ne contienne qu'un seul neurone ? Si non, comment se décide la classification finale ?
Je regarde les vidéos vite-faits mais je n'ai encore vu aucun moment ou vous utilisez des classes, alors qu'il me semble que c'est bien plus efficace et intuitif. Peut-être je me trompe ?
Bonjour Merci pour les vidéos de formation. Je ne sais pas si ce que je vais dire est vrai , mais j'ai l'impression qu'il y a une erreur de frappe à 20:00 au niveau du redimensionnement des matrices pour le train et le test. La déclaration de valeur X_test_reshape est divisé par X_train.max() au lieu de X_test.max()
Excellente vidéo comme d'habitude. J'ai juste une petite question. Est-il possible d'utiliser un algorithme metaheuristique à la place de la descente du gradient ?
Bonjour Guillaume, j'ai fait l'exercice, avec une liste L où L[i] est le nb de neurones de la couche i, ça marche (disons que ça ne plante pas...). Mais maintenant comment faire pour réutiliser les paramétres pour des fichiers quelconques sans refaire tout l'entrainement ? Il faudrait stocker le fichier paramètres et les caractéristiques du réseau puis les recharger et ne passer que le "fit" ? Tu peux nous montrer ça prochainement ?
Merci !! j'suis vraiment inspiré !! Stp j'aimerai savoir comment on fait pour plus d'une sortie de neurone. Du genre en entré j'ai N branche et sotie j'ai aussi N branche et les datas obtenuent sont celles d'une images
Bonjour, Jai un probleme dans le log_loss: Dans le code l'erreur dit que le type dict et float ne peuvent pas etre claculé etque je veut mettre en float il dit que c'est un int Que faire? Merci D'avance
Salut, pourquoi on change subitement l'orientation des poids et des activations ? on ne peut pas continuer avec Z = X . W + B Pourquoi changer le modèle ainsi, est ce que ça pose problème de continuer avec l'ancienne formule ? Merci d'avance a quiconque me repondra
Bonjour Mr le Professeur, Merci pour vos vidéos. SVP, je vous sollicite d'étudier la possibilité de nous faire quelques vidéos sur l'utilisation de l'outil de l'IA performant pour moi appelé "ORANGE DATA MAINING. Cordialement.
J'ai ce warning quand je lance neural_network : The y_pred values do not sum to one. Starting from 1.5 thiswill result in an error. Quelle peut en être la raison ?
Oui c'est correct, bien vu ! Alors ca peut s'expliquer par le point initialisation qui n'était peut-etre pas a l'avantage du réseau de neurone a 4 couches.
Bonjour Guillaume Est-ce normal d'obtenir des résultats différents si on relance le traitement de génération du réseau ? (et pour faire echo à la précédente remarque, je suis moi aussi à la recherche de la fonction perdue neural_network2 ;) )
Salut ! Oui c'est normal, mais tu peux avoir les même résultats si tu fais un np.random.seed() au début de ta fonction finale. J'ai répondu a l'autre commentaire oui :)
Est-il possible de prédire le nombre de couches ainsi que le nombre de neurones par couche optimal ? En tout cas bravo, ces vidéos pourraient remplacer un prof.
Bonjour, merci pour tes séries de vidéo, elles sont géniales, claires et intéressantes ! J'ai un problème avec la fonction prédict, j'ai un problème, quand j'essaye d'importer une image hors du train et du test, la fonction me retourne non pas true ou false mais une liste de true ou false, ce qui fait que je suis incapable de savoir si l'image est un chat ou un chien, quelqu'un à une idée de pourquoi ?
Merci pour la vidéo et toute la formation. Cependant, j'ai pas trouver la méthode load_data_large(), alors j'ai seulement 1000 images et non 20.000 comme vous expliquez.
la question que je me pose est comment fait-on si on veut travailler avec n couches, par exemple 500 couches, on ne va pas recréer les paramètres b1, b2, .., b2 sur des variables ?
Bonjour, j'ai un probleme avec la fonction log_loss : voici mon message d'erreur : RuntimeWarning: divide by zero encountered in log return 1 / len(y) * np.sum(-y * np.log(A) - (1 - y) * np.log(1 - A)) sachant que vous dites qu'il ne faut pas y toucher, comment faire ? merci beaucoup !!
dans la dernier ou dans l'avant dernier video avant celle-ci il montre une bonne pratique a faire .c'est de rajouter un epsilonne qui est tout petit dans les log par ex eps=1e-15 et tu l'ajoute dans tes log comme ca t'aura plus ce pb.
Bonjour Guillaume, j'ai des données (images des chats , chiens). Comment je peux convertir ces données en hdf5 , sachant qu'ils sont de type jpg et leurs "size" n'est pas commune. Vous pouvez m'aider svp. Merci d'avance.
Sinon pour la neuvième vidéo sur le réseau de neurone, le module : "load_data_large" est introuvable chez moi. j'ai aussi des erreurs de ce genre : TypeError Traceback (most recent call last) in 42 parametres = neural_network( 43 X_train_reshape, y_train, X_test_reshape, y_test, ---> 44 n1 = 32, learning_rate = 0.01, n_iter = 8000 45 ) TypeError: neural_network() got multiple values for argument 'n1' J'ai vraiment besoin d'aide pour avancer, je suis un peu bloqqué.
Tu peux prendre un autre dataset aussi. Je vais faire une vidéo pour mieux comprendre la librairie hdf5. L'important ca n'est pas simplement d'entrainer un modele (on le fera avec Keras plus tard). Ici le but c'est les maths.
toujours sympa, mais j'aime pas quand on me force a acheter. Je donne a Wkipedia, je donne a la Croix Rouge, etc... mais garder la cerise sur le gateau contre du fric, je n'aime pas par contre je serai dispose a faire comme pour wikipedia ???? A voir ??
On appelle ca un réseau auto encodeur. tu donnes X en entrée et tu demande a obtenir X en sortie. Regarde sur google. Je montrerai bientot comment en faire.
Thaks!! j'ai un peu compris le principe et je suis entrain améliorer le code de la video 9. je compte utiliser les tenseurs enfin de généraliser les NN.
Les cours sont bien donnés, sauf que à chaque fois c'est comme si c'était inachevé, c'est comme si on entre pas vraiment à fond. Dans la partie de machine learning, la partie Apprentissage supervisé était trop superficiel, de même pour les réseaux de neurones, les bases oui , mais dans le cadre d'un projet aussi grand nous sommes encore superficiel.
Ok je prends note de cette remarque. Je suis d'accord, mais pour éviter que les vidéos ne durent 4 heures chacune, je suis obligé de découper en plusieurs parties.
Une formation d'une rare qualité et en français de surcroit, si c'est pas une chance ça ... Les formations proposées sur cette chaîne sont même plus complètes que certains enseignements à l'université, où les cours sont plus où moins vu rapidement car il y a également les autres matières qui occupent un volume horaire conséquent. On ne voit pas tous ces petits détails abordés dans les différentes vidéos, y compris les rappels en math. Associé à une présentation, une éloquence, une efficacité et une pédagogie hors du commun, c'est un véritable plaisir d'apprendre sur cette chaîne. 30min de vidéo valent bien plus qu'un de mes cours magistral, sincèrement. Ces vidéos m'ont même permis de revoir les maths, de comprendre des choses que je n'avais pas comprises autrefois, de comprendre des livres pointu et d'entreprendre des choses bien plus ambitieuses. Cette chaîne devrait même être cité dans les sections pour en savoir plus de chaque cours dans nos universités ! De quoi être un incontournable pour tout étudiant en informatique !
Un immense merci pour tout ce contenu et tout simplement merci d'exister.
PS: Quel est le nom de cette musique qui t'accompagne en fond dans l'intro ? Je la cherche depuis des semaines et je n'arrive pas à mettre la main dessus !
Wow merci beaucoup pour ton commentaire il me va droit au coeur. J'aimerais beaucoup pouvoir le capturer pour le mettre sur mon site Internet. Tu pourrais me contacter sur Linkedin ou bien sur Discord stp ?! :)
Je vais voir la musique que j'utilise a la fin pour te dire
@@MachineLearnia Bonjour, n'ayant pas de compte Linkedin, j'ai donc rejoint le discord de la chaîne où j'ai pu lire au passage des choses intéressantes !
Contactez moi par messagerie privée alors merci :)
merci pour ce travail incroyable, je suis étudiant en IA et j'ai beaucoup mieux appris avec tes vidéos qu'avec mes cours. Comment je l'explique ? Aucune perte de temps, des animations fluides, des explications pédagogiques et une passion manifeste.
Je suis très flatté par ton message !
@@MachineLearnia Bonjour. Je viens de me lancer dans le deep learning et mon travail consiste à approcher des solutions des EDP par des réseaux de neurones. Un article de thèse indique qu'il y a des réseaux appelés GRBF ou Pi -Sigma dont les neurones fonctionnent différement du perceptron. Par exemple, le neurone ne recoit pas à l'entrée le résultat d'une combinaison linéaire entre les entrées et les poids. Il peut faire le produit par exemple mais sur python avec la sous bibliothèque Keras les couches de perceptron sont déjà codées, on rentre certrains paramètres tels que le nombre de neurones dans la couche et la fonction d'activation. Ma question est comment coder un autre type de neurone avec la même bibliothèque ?
Bonjour, Est ce que vous avez l'équation de la frontière de décision dans la vidéo 9 ? Merci par avance
@@MachineLearnia Bonjour ,Auriez-vous la méthode pour afficher le contour de la frontière de décision sur le cours de la vidéo 9 en fin de partie ? Merci
Toujours aussi captivantes tes présentations, vraiment top et merci beaucoup !
Merci beaucoup a toi !
Ta passion pour le sujet est captivante, j'aime trop ce que tu fais, tu y mets beaucoup d'effort et ça se recent, merci de nous proposer ces formations incroyablement bien expliquées, les formules de maths sont simple à comprendre avec tes explications et on comprend vraiment ce que l'on fait sur les programmes, on ne recopie pas bêtement sans comprendre se que l'on fait et c'est génial. Grand merci et j'attends la suite avec impatience !
PS je viens de me taper 3 de tes formations aujourd'hui d'un coup 😂 je me suis pas du tout lassé c'était vraiment instructif
Merci a toi ca me fait vraiment super plaisir de lire un tel message :)
Extraordinaire tout ce travail de grande qualité et superbe pédagogie. J'ai regardé les neufs vidéos du deep learning en trois soirs, j'ai démarré mardi. Je souhaite m'exercer sur du texte. Hâte de découvrir les prochaines vidéos !
Bonsoir Guillaume. Encore mille mercis et un grand bravo pour cette vidéo instructive.
Je trouve ton astuce d'utiliser un dictionnaire pour renvoyer les résultats en utilisant le nom des variables ('X' = X) très élégante et réellement inspirante. J'attends avec impatience la vidéo suivante !! Encore merci
Merci ca fait plaisir d'avoir un tel retour, pour le dictionnaire c'est une astuce courante !
C'est magnifique ce que vous faites ! J'aurais souhaité me retrouver dans vos vidéos pour faire des applications du deep learning dans mon enseignement ! Je ne vois pas comment !!
Merci pour ce programme Guillaume. J'ai pu à partir de ce code ressortir une généralisation à 4 couches et je l'ai appliqué à quelques données que je dispose. Je vois la généralisation des équations à N couches mais j'essaie de réfléchir à la création des fonctions qui permettent de définir le nombre de couches et nombre de neurones par couches. Mais j'aimerais bien connaître aussi les formules générales en utilisant les RMSE et MSE comme fonctions coût.
Bravo ! Ca me fait très plaisir de voir un tel engagement de votre part ! :) je vais bientot montrer comment faire tout cela pour N-Couches, et aussi comment faire cela pour des problemes de regression
J'attends avec impatience la suite. En fait, pour faire la généralisation à 4 couches, j'ai repris les gradients que j'ai étendu à 4 couches et par conjecture, la formule pour N-couches est ressortie. dzn est le point de départ dont dépendent toutes les autres dérivées en remontant jusqu'à la couche 1. Voilà en quelque sorte ce que j'ai essayé.
c'est du pure génie tes vidéos !! merci beaucoup!
Vraiment super intéressante cette série de vidéos ! Merci encore.
Merci beaucoup pour tout ce travail , impatient de voir la suite
Hello, merci pour ces vidéos et cette formation, cependant j'ai une petite remarque, timecode 19:52, tu indiques 20000 photos dans le dataset (précédément 1000) et 19:39 la fonction se nomme load_data_large(), je ne sais pas si j'ai loupé quelque chose, mais ces 2 choses manquent (le dataset + la fonction), possible de mettre à jour le github avec ? Et il y a aussi le timecode 20:21, la fonction ne correspond pas à ce qui est présenté avant (manque la partie test) et le nom n'est pas le même neural_network2. Merci!
Salut, Oui je n'ai pas mis le gros dataset sur github, ni la fonction qui inclue le test set. Je voulais le faire, mais je pense que c'est bien pour les gens d'avoir a ne pas simplement copier coller le tout. Ils ont déja la base, et peuvent rapidement rajouter les éléments de test_set au code que je fournis grâce a ce que je montre dans la vidéo
@@MachineLearnia Ok je comprends, j'ai réussi à m'en sortir effectivement, merci encore pour les vidéos, hâte d'avoir la suite.
The best deep learning teacher in the universe
Thanks a lot :)
Grand merci pour tes videos pertinente, claire et précise
Merci beaucoup pour tout ce travail !
Vos videos sont toujours aussi interessantes. Merci pour le contenu.
Merci a vous !
Bonjour, wooh, une formation très complète, la qualité on n'en parle même pas.
Pourriez vous s'il vous plaît faire une vidéo sur le Natural language Processing(NLP) ou ce qu'on appelle en français le traitement automatique du langage naturel, un domaine en surcroit très intéressant.
Merci beaucoup.
Bonjour et merci ! Oui j'ai prévu de le faire a l'avenir :)
@@MachineLearnia Merci beaucoup pour votre retour ❤️
Enorme ! comme d'habitue.
Merci pour ton travail, hâte de voir la suite
Merci,
C'est magique !
Pour ne pas perdre un instant d'explication, on vous suit religieusement sans prendre notes.
Peut on avoir le cours en PDF ?
Je suis en train d'en faire un, il sortira bientot :)
@@MachineLearnia
En tout cas, merci beaucoup pour votre sacerdoce.
_ On dit que c'est le bon Dieu qui rénumère ses prêtres ! Il vous soutiendra le moment venu. Boutade bien entendu_.
Comme il est difficile de reproduire les figures et illustrations des cours pour fixer la compréhension, ce que vous sortirez en pdf aidera beaucoup de monde. Merci d'avance.
Il sera génial d’avoir ça en pdf merci
sinon vous pouvez aller dans un convertisseur ypinb to pdf
@@MachineLearnia Bonjour ! Merci beaucoup pour ces super vidéo, y a t'il finalement un cours en pdf ?
Waouh quel délice 😍! Merci Guillaume
it's very rare that I post a comment, but I do it to thank you for all this huge work, very effective videos in terms of information/time , for me it's by far the best channel in this field, and a little "feedback" on the "deep learning" series: I suggest you to put at the end : //Directed by: Guillaume// because you have just released films and not a educational videos (in terms of high quality).
your rating: 9.9/10 (we leave 0.1 as a possibility to develop even more otherwise in fact it's 10/10)
a big thank-you
Many Many thanks for your message, I really appreciate your feedback and I will continue on improving :)
I hope to read from you again in the future, it's a pleasure to have such good people in the audience !
Tout d'abord je vous félicite sur votre tuto qui bien expliqués, simple, et sur la qualite des animation ?
J'ai une question c'est: est-ce-que vous avez une idée sur les modele generatifs 3D, a quoi il sert, son input et output, et est-ce-qu'il des ressources pour que je puisse m'autoformer dans ce domaine.
et Merci une autre fois sur ses exeptionnels tuto.
La question est vaste, je vous conseille de regarder ce que sont les GANs sur Internet pour commencer
Merci Beaucoup Monsieur
Une formation top vraiment
Bonjour!
Etant un apprenant en AI,je vous remercie pour ce contenu gratuit mis à notre disposition.
Peut-on faire cette programmation avec un autre langage?
Merci.
Bonjour Guillaume !
Franchement un grand merci pour ton travail, j'ai découvert ta chaîne il y a peu et ça me motive énormément à progresser !
J'espère que tu reprendras un jour les vidéos RUclips, mais que surtout tu vas bien.
J'aurais une petite question par rapport à cet épisode, je n'arrive pas à afficher les courbes test loss et test acc avec le code de cette vidéo...
Aussi je ne sais pas si c'est normal, mais pour l'application cat vs dog, l'algorithme qu'on avait vu dans la vidéo avec un seul neurone me donne avec 10000 itérations une précision X_train autour de 70%
Alors qu'avec l'algorithme à deux couches et 32 neurones et 8000 itérations cela monte à peine au dessus de 60%...
Voilà, si quelqu'un souhaite m'aider je serais ravi :)
En tout cas encore bravo pour ce travail :)
Bonjour, je vais reprendre les vidéos oui. désolé je n'ai malheureusement pas le temps de répondre a ta question la, mais au pire il y a le discord
Un pouce bleu direct!
Salut! Déjà je tiens à dire que tes vidéos sont vraiment incroyables et pour ça, merci beaucoup ! Cependant, j'ai un problème et j'aimerais savoir si il existe un moyen de le résoudre, mais pour ça je dois expliquer un peu mon projet. Je me suis proposé de créer une simulation d'évacuation d'urgence (mouvement de foule et tout le bordel), et pour déterminer la trajectoire de chaque individu dans la foule à n'importe quel moment, je compte utiliser une IA. Cette dernière devrait retourner en sortie un angle (qui définirait la trajectoire de l'individu) et en entrée, elle devra prendre les différentes distances qui séparent l'individu des autres personnes présentent autour de lui. Ainsi, le nombre de variables en entrée ne sera pas le même dans tout les cas (car ce nombre dépend du nombre de personnes qui sont autour). Donc mon problème est: comment créer un réseau de neurones dont le nombre d'entrées sera amené à varier en fonction des cas traités ?
J'ignore si c'est possible mais merci d'avance pour ton aide :)
Salut, oui c'est possible par 3 grands moyens : les RNNs, les recusrives NN, et le zero padding (je te conseille celle-ci, regarde sur google). Cependant je ne sais pas si dans ton projet un réseau de neurone sera le plus adapté, mais ca je te laisse gerer ^^
Énorme ! Merci continue🙏
Merci, comme d'habitude c'est clair et précis ! vivement la suite ;-)
Merci :)
MERCI ENNORMEMENT .
Please une formation sur le NLP !!!!
Je vais en faire une oui :)
@@MachineLearniaBIG thank !!!
@Machine Learnia
Les vidéos sont vraiment super !
J'ai faits la fonction neural network2 sans problème mais je ne sais pas rajouter d'image ou d'information pour avoir le data large. Pourrais-tu m'expliquer comment faire ?
Parce que avec seulement 1000 photos, c'est le test qui est meilleur que le train.
Merci beaucoup pour toutes ces explications !
Je comprends vraiment super bien !
Oui je vais montrer comment faire cela
Merci pour la vidéo c’est très intéressante
Je n'ai rien compris a votre message désolé ahah
Merciiii je l'ai tellement attendu cette vidéo
Bonsoir,
Quelle est la différence entre np.dot(A,B) et A np.dot(B)?
Au lien de Flatten() est ce qu'on pouvait utiliser ravel() pour aplatir le vecteur y?
Pas de différence entre np.dot(A, B) et la méthode A.dot(B)
En revanche, ravel() applati le tableau de maniere permanente, alors que Flatten() retourne juste le résultat.
Super, merci pour cette vidéo !!
Meilleurs formateur
merci :)
MERCI déjà pour ton travail pour nous vraiment seulement j'aimerais avoir quelques indices sur comment creer les graphes qui se trouvent à la fin de cette vidéo dont tu as parler
Excellente video, merci Guillaume pour cette capacité incroyable à enseigner ces choses complexes ! Par contre je m'attendais à ce que la video bonus sur tipee pour le tracé de la frontière de décision soit un tracé non linéaire, or c'est la même video que pour le cours antérieur sur une couche à un seul neurone. Du coup sans le savoir j'ai tipé la video deux fois pour retomber sur une video déjà vue et qui ne répond pas à mes interrogations sur le tracé d'une frontière de décision à 2 neurones. Parce que autant pour un neurone du coup je comprends bien la zone z=0 autant je n'arrive pas à me l'imaginer pour deux neurones, car le z=0 d'un neurone ne sera pas le z=0 de l'autre neurone, alors du coup c'est quoi ? Une concaténation de deux droites formant une sorte de triangle ? C'est abstrait pour moi. Y a-t-il une video bonus qui explique cette représentation ?
Salut ! Contacte moi sur Discord et je t'enverrai le code pour faire tes visualisations
Bonjour virginie, est ce que vous pouvez partager avec moi le code qui visualise la frontière pour les réseaux de neurones à deux couches.
bonjour D abord je te remercie pour ton énorme travail
pourras tu par la suite programmer un réseau de neurones avec tensorflow/keras?
merci
Oui je vais le faire le prochain mois :)
@@MachineLearnia cc mais on ne vous voit plus :( depuis 1 an
Hello guillaume, le cours est très bien expliqué , felicitations c'est impresionnant mais comment definir la fonction log_loss pour un reseau de neuronnes à deux couches?
Merci...superbe vide'o comme d'hab.
un grand merci pour vous
Nous aimerions que vous fassiez une formation NLP.
Oui s'il vous plaît c'est très important
Je vais en faire une oui :)
Hello,
Merci beaucoup cette excellente vidéo pleine d'enseignements (comme les précédentes).
Question: Faut-il toujours que la dernière couche d'un réseau de neurones ne contienne qu'un seul neurone ? Si non, comment se décide la classification finale ?
Bonjour, non, si on fait une classification multiple, on met plusieurs neurones, je vais montrer cela bientot
Je regarde les vidéos vite-faits mais je n'ai encore vu aucun moment ou vous utilisez des classes, alors qu'il me semble que c'est bien plus efficace et intuitif. Peut-être je me trompe ?
Super bien réalisé ! Juste petite question, qu'est-ce qu'y est préférable entre augmenter le nb de couches et le nb de neurones par couche ?
Merci a vous ! Il vaut mieux augmenter le nombre de couches d'une maniere générale.
Merci bien pour la vidéo
excellent comme d'habitude
merci !
Merci beaucoup!!!
Bonjour Merci pour les vidéos de formation.
Je ne sais pas si ce que je vais dire est vrai , mais j'ai l'impression qu'il y a une erreur de frappe à 20:00 au niveau du redimensionnement des matrices pour le train et le test.
La déclaration de valeur X_test_reshape est divisé par X_train.max() au lieu de X_test.max()
Non, il faut bien diviser par X_train.max() (c'est précisé dans la cinquième vidéo, il me semble).
Merci beaucoup. tout est très clair.
Merci beaucoup :) Content de voir que vous consultez toujours mes vidéos
Excellente vidéo comme d'habitude.
J'ai juste une petite question. Est-il possible d'utiliser un algorithme metaheuristique à la place de la descente du gradient ?
C'est possible, mais on ne le fait jamais.
Merci infiniment
Merci pour ce programme, mais comment ajouter un grand date en tenant compte le pourcentage d'humidité et la température par exemple.
Super vidéo
Bonjour Guillaume, j'ai fait l'exercice, avec une liste L où L[i] est le nb de neurones de la couche i, ça marche (disons que ça ne plante pas...). Mais maintenant comment faire pour réutiliser les paramétres pour des fichiers quelconques sans refaire tout l'entrainement ? Il faudrait stocker le fichier paramètres et les caractéristiques du réseau puis les recharger et ne passer que le "fit" ? Tu peux nous montrer ça prochainement ?
Je vais en parler dans la prochaine vidéo, désolé pour ma réponse tardive
Très intéressant !
Merci ! :)
c'est bien mais je veut savoir comment matérialiser un reseau de neurone dans un processus electronique embarqué
trés bonne question ..on attend une réponse !!
ca dépend du support. Je ne peux y répondre sans connaitre les détails.
Bravo !
Bravo bravo bravo
Merci Guillaume je m'attaque à l'exercice, j'ai contribué sur tipee mais je ne me vois pas comme tipeur sur discord ???
Merci !!
j'suis vraiment inspiré !!
Stp j'aimerai savoir comment on fait pour plus d'une sortie de neurone. Du genre en entré j'ai N branche et sotie j'ai aussi N branche et les datas obtenuent sont celles d'une images
Il faut une sortie softmax, je vais en parler dans quelques épisodes.
Merci
A partir du 19:22, les modifications que vous avez faites ne sont pas claire
Bonjour, Jai un probleme dans le log_loss:
Dans le code l'erreur dit que le type dict et float ne peuvent pas etre claculé
etque je veut mettre en float il dit que c'est un int
Que faire?
Merci D'avance
Merciiii 😍😍
Salut, pourquoi on change subitement l'orientation des poids et des activations ? on ne peut pas continuer avec Z = X . W + B
Pourquoi changer le modèle ainsi, est ce que ça pose problème de continuer avec l'ancienne formule ?
Merci d'avance a quiconque me repondra
Bonjour Mr le Professeur,
Merci pour vos vidéos.
SVP, je vous sollicite d'étudier la possibilité de nous faire quelques vidéos sur l'utilisation de l'outil de l'IA performant pour moi appelé "ORANGE DATA MAINING.
Cordialement.
j'ai prévu de le faire oui :)
@@MachineLearnia Merci
J'ai ce warning quand je lance neural_network : The y_pred values do not sum to one. Starting from 1.5 thiswill result in an error. Quelle peut en être la raison ?
Salut je suis un debutant en deep learning j'aimerai savoir si vous avez fait une documentation la dessus
Hello ! Merci pour ce travail. A 18:55, c'est moi où graphiquement les résultats sont meilleurs pour n1=2 que pour n1=4 ?
Oui c'est correct, bien vu ! Alors ca peut s'expliquer par le point initialisation qui n'était peut-etre pas a l'avantage du réseau de neurone a 4 couches.
Bonjour Guillaume
Est-ce normal d'obtenir des résultats différents si on relance le traitement de génération du réseau ?
(et pour faire echo à la précédente remarque, je suis moi aussi à la recherche de la fonction perdue neural_network2 ;) )
Salut ! Oui c'est normal, mais tu peux avoir les même résultats si tu fais un np.random.seed() au début de ta fonction finale. J'ai répondu a l'autre commentaire oui :)
@@MachineLearnia Oui, effectivement en passant une graine fixe cela fonctionne ;) merci !
😉Comme d'habitude excellent cours
merci :)
Est-il possible de prédire le nombre de couches ainsi que le nombre de neurones par couche optimal ?
En tout cas bravo, ces vidéos pourraient remplacer un prof.
Bonne question ! La réponse est plutot non, c'est un travail mathématique assez compliqué
Bonjour, merci pour tes séries de vidéo, elles sont géniales, claires et intéressantes ! J'ai un problème avec la fonction prédict, j'ai un problème, quand j'essaye d'importer une image hors du train et du test, la fonction me retourne non pas true ou false mais une liste de true ou false, ce qui fait que je suis incapable de savoir si l'image est un chat ou un chien, quelqu'un à une idée de pourquoi ?
Bonjour une question dans la vidéo 9 pour déterminer le code en python de la frontière de décision
Merci in finiment
Merci pour la vidéo et toute la formation. Cependant, j'ai pas trouver la méthode load_data_large(), alors j'ai seulement 1000 images et non 20.000 comme vous expliquez.
Je vais la rajouter sur github !
@@MachineLearnia Merci de votre réponse et de vos efforts.
la question que je me pose est comment fait-on si on veut travailler avec n couches, par exemple 500 couches, on ne va pas recréer les paramètres b1, b2, .., b2 sur des variables ?
en effet, j'en parle dans les prochaines video
Bonjour, j'ai un probleme avec la fonction log_loss :
voici mon message d'erreur :
RuntimeWarning: divide by zero encountered in log
return 1 / len(y) * np.sum(-y * np.log(A) - (1 - y) * np.log(1 - A))
sachant que vous dites qu'il ne faut pas y toucher, comment faire ?
merci beaucoup !!
dans la dernier ou dans l'avant dernier video avant celle-ci il montre une bonne pratique a faire .c'est de rajouter un epsilonne qui est tout petit dans les log
par ex eps=1e-15 et tu l'ajoute dans tes log comme ca t'aura plus ce pb.
@@amayasdjemaoui7710 merci !!
Bonjour Guillaume, j'ai des données (images des chats , chiens). Comment je peux convertir ces données en hdf5 , sachant qu'ils sont de type jpg et leurs "size" n'est pas commune. Vous pouvez m'aider svp.
Merci d'avance.
je vais faire une vidéo pour répondre a cette question sur Tipeee
D'accord merci.
J'ai sauté sur la notification
Merci pour le soutien !
ou je trouve les fonctions 'log loss' et 'accuracy score' ? est ce q sont des fonctions implementes ou importer d'une bibliotheque ???
Merci d'avance
Je les ai programmé dans les videos précédentes, mais sinon elles sont sur Sklearn
@@MachineLearnia Bonjour, executer les deux script :
from sklearn.metrics import log_loss
from sklearn.metrics import accuracy_score
Sinon pour la neuvième vidéo sur le réseau de neurone, le module : "load_data_large" est introuvable chez moi. j'ai aussi des erreurs de ce genre :
TypeError Traceback (most recent call last)
in
42 parametres = neural_network(
43 X_train_reshape, y_train, X_test_reshape, y_test,
---> 44 n1 = 32, learning_rate = 0.01, n_iter = 8000
45 )
TypeError: neural_network() got multiple values for argument 'n1'
J'ai vraiment besoin d'aide pour avancer, je suis un peu bloqqué.
Tu peux prendre un autre dataset aussi. Je vais faire une vidéo pour mieux comprendre la librairie hdf5.
L'important ca n'est pas simplement d'entrainer un modele (on le fera avec Keras plus tard). Ici le but c'est les maths.
dans les reseaux a deux couches, comment on définis la fct log_loss ? stp
elle ne change pas, elle reste la meme, c'est la sortie du réseau, donc pas d'importance sur le nombre de couches.
Vous pensez qu'on peut en faire des class?
toujours sympa, mais j'aime pas quand on me force a acheter. Je donne a Wkipedia, je donne a la Croix Rouge, etc... mais garder la cerise sur le gateau contre du fric, je n'aime pas par contre je serai dispose a faire comme pour wikipedia ???? A voir ??
Bonjour, désolé je n'ai pas compris votre message.
comment fait-on pour créer un réseau de neurone qui prend entrée les datas d'une image et retourne en sortie les datas d'une image également ?
On appelle ca un réseau auto encodeur. tu donnes X en entrée et tu demande a obtenir X en sortie. Regarde sur google. Je montrerai bientot comment en faire.
Thaks!! j'ai un peu compris le principe et je suis entrain améliorer le code de la video 9. je compte utiliser les tenseurs enfin de généraliser les NN.
comment afficher la frontière de décision en python svp
Je le montre sur tipeee
Bonjour ❤️,
Présenterez-vous la 10ème session "PROGRAMMER UN RÉSEAU DE NEURONES à N COUCHES - DEEP LEARNING 10" ??
Oui je suis en train de travailler dessus.
@@MachineLearnia Bon courage maître ,
je t'attend et merci ❤️
Pourquoi 4 neurones sont moins efficaces que 2 ?
Merci mais on attend le base de math en ml
je vais le faire a l'avenir oui :)
✔✔😉
Merci Pulsar !
je veux apprendre a créer mon IA de reconnaissance vocal et faciale
comme jarvis
Les cours sont bien donnés, sauf que à chaque fois c'est comme si c'était inachevé, c'est comme si on entre pas vraiment à fond.
Dans la partie de machine learning, la partie Apprentissage supervisé était trop superficiel, de même pour les réseaux de neurones, les bases oui , mais dans le cadre d'un projet aussi grand nous sommes encore superficiel.
Ok je prends note de cette remarque. Je suis d'accord, mais pour éviter que les vidéos ne durent 4 heures chacune, je suis obligé de découper en plusieurs parties.
YOUPI😁
Ce que je deteste ,,,,, ll j ai choisi philo , of course lllllllll et les langues ' je voulais etre journaliste '''',,,,,, l lll
Bla bla bla machine learning
merci