RÉGRESSION LINÉAIRE MULTIPLE AVEC NUMPY - ML#9

Поделиться
HTML-код
  • Опубликовано: 27 окт 2024

Комментарии • 287

  • @MachineLearnia
    @MachineLearnia  4 года назад +57

    Bonjour tout le monde ! J'ai noté une erreur dans la vidéo
    02:14 : la dérivée partielle de J en a est 1/m * sum ( x^2 [ ax^2 + bx + c - y ] ). Dans la vidéo j'ai laissé traîner un 2 en oubliant qu'il se simplifie avec 1/2m

    • @noel9335
      @noel9335 4 года назад +1

      Et bien dis-donc : moi qui croyais que tu étais le meilleur. ;)

    • @alainvihumbira8354
      @alainvihumbira8354 4 года назад +3

      @@noel9335 Personne n'est parfait en matière de la science, donc quelque fois on peut se tromper c'est normal

    • @juniorevina4880
      @juniorevina4880 2 года назад +1

      salut, comment utiliser un modèle de machine learning pour développer une application? ; par exemple si j'ai besoin de créé une application web de prévision météorologique avec phyton comment intégré la régression lineaire vue dans cette formation pour mon application ?
      merci 🙏

    • @khadijamagzouz6658
      @khadijamagzouz6658 2 года назад

      @@alainvihumbira8354 ,

    • @khadijamagzouz6658
      @khadijamagzouz6658 2 года назад

      /

  • @gabrieldongmo5446
    @gabrieldongmo5446 Год назад +12

    Je n'en reviens toujours pas de ce que cette formation est en libre accès. C'est un cadeau fait à la science. Merci de tout coeur sieur Guillaume.

  • @kamalelbo5116
    @kamalelbo5116 3 года назад +11

    vos explications sont géniales Guillaume, vous nous avez permis de comprendre et appliquer la data science en un temps optimal, je viens de découvrir votre chaine , c'es vraiment une mine d'or. malgré que j'ai déja fait math sup et spé et une formation d'ingénieur en statistique ç'a fait plus de 10 ans, mais on nous a jamais fourni des cours et des explications assez claires et efficaces comme les vôtres. je te souhaite plein de succès ;) vous êtes vraiment unique car en plus de cela vous êtes modestes et vous répondez à tous les commentaires

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Merci beaucoup pour votre message de soutien Kamal, ca me fait très plaisir :)
      Si vous avez des questions n'hésitez pas !

    • @kamalelbo5116
      @kamalelbo5116 3 года назад +1

      @@MachineLearnia Merci infiniment Guillaume , God bless you ;)

  • @patrickeliesoussoubie4600
    @patrickeliesoussoubie4600 4 месяца назад

    Franchement ça ne fait mème pas une semaine que j'ai commencé les cours sur Le Machine Learning Python et avec vos vidéos je ne suis vraiment plus confus. Je suis mème encore plus excité. Waouuuuh
    Bravo

  • @athoumanimoustadjib7813
    @athoumanimoustadjib7813 4 года назад +1

    Vous êtes le meilleur pédagogue que j'ai jamais vu. J'aimerais tellement vous rencontrer mon professeur.

  • @yuliyasheichenka1175
    @yuliyasheichenka1175 Год назад

    Merci beaucoup, je ne pensais pas qu'on peut dire grande chose d'intéressant sue la régression linéaire, mais ta vidéo a été très éclairante et ma fait comprendre des nouvelles choses!

  • @jakin-kabongoapprendre-and5694
    @jakin-kabongoapprendre-and5694 3 года назад +1

    Grand merci. je benis Dieu d'avoir tombé sur vos videos

  • @mohamednouma4748
    @mohamednouma4748 Год назад +1

    Merci pour les cours

  • @monceftouimy2970
    @monceftouimy2970 4 года назад +6

    Bonjour, c'est très clair et bien expliqué! Merci pour ce format avec autant de contenu sur youtube

  • @rickrunner2219
    @rickrunner2219 3 года назад

    Des tutos de grande qualité, claires et instructifs. je m'abonne. pour cet exemple, il fallait juste faire un exemple code avec Z = X²+Y²+YX+b, un affichage déjà en 3D, qu'on peut visualiser, et facile à comprendre. Mais c'est déjà excellent le tuto. Merci !

    • @MachineLearnia
      @MachineLearnia  3 года назад +2

      Merci beaucoup. Oui je suis d'accord avec vous :)

  • @zhiwenwang4417
    @zhiwenwang4417 5 лет назад +4

    Salut superbe vidéo, ça serai formidable que tu nous parle de l'algorithme random forest dans les vidéos a l'avenir, ça aiderai beaucoup gens à comprendre, le fait que tu illustre tous avec des exemples tes vidéos sont super claires et précis, bon courage pour la suite. 😊

    • @MachineLearnia
      @MachineLearnia  5 лет назад

      Merci beaucoup. Oui j'ai prévu de faire des random forest a l'avenir ! :)

  • @EmilienneRachelKenko
    @EmilienneRachelKenko 3 месяца назад

    Vous êtes le meilleur enseignant

  • @bilalkerrouche3501
    @bilalkerrouche3501 5 лет назад +1

    trooop fort, ravier de tomber sur cette chaîne!!

    • @MachineLearnia
      @MachineLearnia  5 лет назад +1

      Merci beaucoup. La prochaine Vidéo Machine Learning sortira dans quelques semaines. En attendant, je travaille sur la série Python (quand même très intéressante !)

  • @lachainedejosueromba6233
    @lachainedejosueromba6233 5 лет назад +7

    Excellente vidéo .. on attend la suite :)

  • @franktanenkeu6870
    @franktanenkeu6870 3 года назад +1

    Encore une fois très bien expliqué. Merci !

  • @medouadjihboudraa7706
    @medouadjihboudraa7706 2 года назад

    Merci , monsieur
    en faite c'est beaucoup plus simple ici

  • @alexandrerakotomizao8247
    @alexandrerakotomizao8247 3 года назад +1

    Vous êtes au top, un grand merci !

  • @issamfadloullah1270
    @issamfadloullah1270 4 года назад

    Merci de votre travail.
    C'est beau ! le tableau derrière de vous

  • @tutusdede8974
    @tutusdede8974 5 лет назад +2

    Merci, j'aime beaucoup tes vidéos.

  • @semoumirami1246
    @semoumirami1246 4 года назад +1

    Super vidéo, merci beaucoup.
    La transition 2D vers 3D vers nD est très bien expliqué.
    Je n'est pas encore tout vu mais se serais génial si tu pouvais faire un exemple de prédiction / catégorisation sur des dataset importées.

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Merci ! Je fais des exemples de projets dans mon autre série de vidéos Python Machine Learning

  • @juniordouglas1852
    @juniordouglas1852 4 года назад

    Merci pour ton livre je t'admire beaucoup
    tu iras loin

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Merci beaucoup a toi ! Toi aussi tu iras loin j'en suis sur !

  • @alexandretritz1764
    @alexandretritz1764 5 лет назад +5

    Descente de gradient, mais montée en puissance ! 😉

  • @gauthiersornet6051
    @gauthiersornet6051 3 года назад

    C'est trop bien ces vidéos !

  • @nelsonbeneche2372
    @nelsonbeneche2372 2 года назад

    @Machine learnia merci beaucoup pour cette videos

  • @bernylong4995
    @bernylong4995 4 года назад

    Nickel... tu as déjà fait une vidéo sur la régression logistique, merci.

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Je vais bientôt faire une vidéo sur la régression logistique, merci beaucoup !

  • @mohammedaidi1316
    @mohammedaidi1316 4 года назад

    Merci pour les videos c'est tres bien expliqué

  • @oumaymasaadani131
    @oumaymasaadani131 2 года назад

    c une bonne formation pour ml merci ...

  • @BlackScholes17
    @BlackScholes17 2 года назад +3

    Merci pour ces supers vidéos Guillaume! Petite question, si on veut faire du polynomiale sur n features, la matrice X doit être comment? [x(feat1)^2 // x(feat2)^2 // x(featn)^^2 // x(feat1) // x(feat n) // 1] ? Merci par avance

  • @archeacnos
    @archeacnos 2 года назад

    bahaha je viens de galérer pendant 10min parce que mon modèle faisait pleins de lignes qui partaient des bons endroits et convergeaient de plus en plus vers le centre plutôt que d'en faire une seule, en fait j'avais écrit "plt.plot(x[:,0], predict, c='r')" à la place de "plt.scatter(x[:,0], predict, c='r')" je vais chialer X)
    vidéo de très bonne qualité sinon

    • @MachineLearnia
      @MachineLearnia  2 года назад

      Ah oui c'est une erreur courante ! Bravo a toi d'voir su trouver.

    • @archeacnos
      @archeacnos 2 года назад

      @@MachineLearnia merci X)

  • @fatmazohraaitmesbah338
    @fatmazohraaitmesbah338 2 года назад

    Bonjour monsieur merci pour vos explications très simple et facile à comprendre , s'il vous plait pouvez vous nous faire une vidéo explicative sur la régression logistique !!!? j'en ai vraiment besoin de comprendre cette méthode pour mon projet si c'est possible . merci

    • @MachineLearnia
      @MachineLearnia  2 года назад +1

      J'en ai fait une dans ma série sur le Deep Learning :)

    • @fatmazohraaitmesbah338
      @fatmazohraaitmesbah338 2 года назад

      @@MachineLearnia d'accord monsieur je vous remercie infiniment :)

  • @seddikkhamlichi
    @seddikkhamlichi 3 года назад

    super prof

  • @khalidlabhalla48
    @khalidlabhalla48 4 года назад

    Excellent travail merci bcp,
    je pense qu'on peut aussi programmer la valeur de learning_rate à fin de chercher une valeur optimale au lieur de choisir une valeur fixe.

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Oui en effet, c'est ce qui est fait avec sklearn dans SGDRegressor

  • @sapiqueunmax4297
    @sapiqueunmax4297 3 года назад

    Vitesse de lecture x1,5 😂😂😂
    Bonne vidéo au passage..
    J'ai créé moi mm un algorithme sur cette base, et c'est juste magique ! Plus 40k$ en un mois.
    Heureusement qu'il y a pas bcp de vidéo sur ce genre de contenu.

  • @michaeldumont2409
    @michaeldumont2409 4 года назад

    Bonjour Guillaume,
    Je vous adresse un grand bravo pour votre investissement, votre plaisir à partager vos connaissances. Je découvre le langage Python, et je commence à écrire quelques petits programmes. Je découvre également le machine learning. Très intéressant, vos explications passionnantes.
    Serait il possible d'avoir quelques tutos qui présentent d'autres exemples dans des domaines variés et concrets ?
    Je vous souhaite bonne continuation.
    Petit bémol, je ne reçois pas votre livre malgré les recommandations répétées aux uns et aux autres

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Bonjour et merci beaucoup. Oui je vais faire des videos de projets bientot. Pour le livre vous avez donc vérifié le dossier Promotions ?

  • @khadijazenai7194
    @khadijazenai7194 Год назад

    Vous êtes formidable , très bien expliqué ...bravo .J'aimerais utiliser un programme AI pour prédire une variable (0 ou 1) a partir de n features, c'est pour un besoin de prévisions météorologiques :) j'imagine que ce sera une autre méthode autre que la regression liniaire multiple.

  • @MrMahyaoui
    @MrMahyaoui 2 года назад +1

    n'oubliez pas pour tourner le graph 3D!!
    from mpl_toolkits.mplot3d import Axes3D
    %matplotlib notebook
    fig = plt.figure()
    ax = fig.add_subplot(111, projection='3d')
    ax.scatter(x[:,0], x[:,1], y)
    ax.scatter(x[:,0], x[:,1], predictions)

  • @misyemaestro
    @misyemaestro Год назад

    Tu mets en pls les cours que j'ai commencé à prendre sur le machin learning. J'ai créé un bot de trading avec le langage de programmation mql4 et j'ai pour objectif d'apprendre le python créer un machin learning qui communique avec celui-ci pour qu'il prenne les meilleurs positions. Merci à toi.

  • @TheRemiRODRIGUES
    @TheRemiRODRIGUES 5 лет назад

    Très pédagogique !
    Merci !

  • @scaranovascaranova711
    @scaranovascaranova711 2 года назад +1

    Lui : " il va falloir faire des centaines d'équations..."
    Moi : " Erreur 404, la page demandé est inaccessible"
    Lui : "Heureusement, il existe une solution qui permet de tout contenir."
    Moi : " Bravo! ta débloqué la fibre cérébrale mon pote, on va prédire la bourse et se faire un paquet de fric LETS GOOOOOOO (je rigole ^^, je veux juste faire un bot qui défonce tout sur Trackmania)

  • @1conscience0dimension
    @1conscience0dimension 3 года назад

    emballez c'est pesé! j'ai bien aimé la touche finale de montrer la courbe 3D. au passage l'aide matplotlib est "insane". quand on regarde l'introduction sur leur site on tombe de suite dans des explications archi complexes.

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Oui le site de Matplotlib est vraiment pas cool. J'ai fait 2 tutos a ce sujet aussi.

  • @colindanoary1257
    @colindanoary1257 3 года назад

    Bonjour,
    Vous avez dit dans la dernière vidéo que vous allez expliquer comment importer nos propres données concernant la régression linéaire, néanmoins vous ne l'avez pas présenté dans cette ML#9.
    Merci et bonne continuation!

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Bonjour, j'en parle dans des vidéos suivantes sur la chaine RUclips. On importe souvent des données avec Pandas, j'en ai fait 2 tutoriels, vous les trouverez facilement en écrivant dans youtube : "Pandas Machine Learnia"

    • @colindanoary1257
      @colindanoary1257 3 года назад

      @@MachineLearnia Merci

  • @sarabensafi5427
    @sarabensafi5427 4 года назад

    Merci beaucoup , super vidéo !

  • @saidyahya7344
    @saidyahya7344 Год назад

    Brillant

  • @feeldawa
    @feeldawa Год назад

    Je ne comprend pas l'interet de l'utilisation de la variable X2. SI on ne peut pas observer une corrélation entre la variable X2 et y avec le scatterplot. Est-ce que celle-ci améliore réellement notre m odèle?

  • @chainonsmanquants1630
    @chainonsmanquants1630 4 года назад

    Merci

  • @algyngom
    @algyngom 4 года назад

    Merci pour cette vidéo très instructive. Très joli travail !
    Le diable se cache dans les détails.
    Merci encore, and keep it up !

  • @gigabit1221
    @gigabit1221 4 года назад +1

    Merci beaucoup pour tous ces efforts consentis pour notre instruction Guillaume Saint-Cirgue
    (je vous envie car vous avez déjà commencés à impacter le monde francophone dans le domaine de L’IA)
    .une question :
    Dans votre livre apprendre le machine Learning on (vous) utilise directement des méthodes embarquées dans les librairies qu’on import dès le début lorsque sur RUclips vous faites des démonstrations (qui sont très intéressantes). Du coup je me demande s’il est nécessaire de maîtriser ces démonstrations pour faire du machine Learning. Merci !

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Merci beaucoup pour votre commentaire !
      Il n'est pas nécessaire d'écrire ses propres algorithmes en partant de zéros pour faire du machine learning. Il est utile de voir les démonstrations (que je montre dans les vidéos) pour comprendre la mécanique des algorithmes ! :)

  • @kanekiv426
    @kanekiv426 4 года назад +1

    Bonjour, je suis en train d'écrire un programme à 5 features, en supposant qu'une régression linéaire suffise pour chaque variable, je me retrouverai avec la dimension de theta étant (6,1). Ma question est la suivante, si pour le feature p compris entre 1 et 5 une régression linéaire n'est pas satisfaisante dois je rajouter un vecteur de x(p)**2 dans ma matrice X et une ligne à mon vecteur colonne theta ? Comment puis je déterminer à l'avance les dimensions de ma matrice X dans ce cas là ? Existe t il un algorithme permettant à mon programme de trouver la forme de ma matrice X en fonction de coefficients de détermination qui évalueraient 1 à 1 les régressions polynomiales sur mes features ? En espérant ne pas être à côté de la plaque et clair ^^

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Bonjour Yann,
      Oui la question est parfaitement claire ! Il existe ne effet des algorithmes pour ajouter automatiquement les combinaisons polynomiales a votre dataset. Par exemple en partant de 2 variables x1, x2, vous pouvez créer automatiquement une matrice 1, x1, x2, x1^2, x1*x2, x2^2
      Pour ca je te conseille d'utiliser le package sklearn et son transformer appelé PolynomialFeatures
      J'ai fait une série tout entiere sur la programmation python pour faire du machine learning et je te conseille de la regarder pour entrer dans la pratique. Cette série actuelle est plus dans l'explication mathématique de certains algorithmes de base du ML

  • @bastienruols
    @bastienruols 4 года назад

    Super tuto!

  • @worldrankings2949
    @worldrankings2949 5 лет назад +1

    super, comme toujours :)

  • @yannlam1237
    @yannlam1237 3 года назад

    Bonjour, merci pour vos videos, elles sont tops
    Qu'en est-il du besoin que la fonction de cout soit toujours convexe ( pour avoir uniquement un minimum globale), le respecte on toujours en ajoutant de nouveaux parametres theta / x**n etc .. ?

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Pour les problemes de regression : Tant que les erreurs sont distribuées de facon normales, la fonction Cout est toujours convexe et converge vers la solution optimum. Mais ca n'est pas toujours le cas.

  • @sarahharouni7914
    @sarahharouni7914 2 года назад

    Bonjour et merci pour toutes ces vidéos qui sont super ludiques et très bien expliquées! J'avais une question : comment tester l’homoscédasticité des résidus? Quelle est la conséquence si l'hypothèse h0 selon laquelle les variances sont constantes n'est pas rejetée? merci!!

    • @MachineLearnia
      @MachineLearnia  2 года назад +1

      Vous entrez la dans des questions épineuses, mais c'est bien ! Vosu pouvez faire un test statistiques, mais ca n'est meme pas nécessaire pour les regression linéaires, car on peut démontrer que les résidus suivent une loi normale.

    • @sarahharouni7914
      @sarahharouni7914 2 года назад

      @@MachineLearnia Merci!

  • @abassmelaynine3816
    @abassmelaynine3816 3 года назад

    Très bonne vidéo.
    la no-linéarité vient du fait que le "coefficient directeur" suivant la direction x2 est petit par rapport à celui de x1, je pense?

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Non, c'est juste que les données ne suivent pas une tendance linéaires.

  • @ericgrosvalet41
    @ericgrosvalet41 3 года назад

    Bonjour, C'est vraiment très clair, très pédagogique.
    J'ai une petite question. Sur un data à 1 feature, il est relativement simple de trouver le modèle en traçant le nuage de points. Par contre lorsqu'il y a plusieurs données, est ce qu'il faut tracer un graphe pour chaque variable (y = f(x1), puis y f(x2) .......) ?
    Est il possible dans ce cas d'avoir pour une colonne de donnée avec un modèle affine, et pour l'autre un modèle parabolique ?
    Bonne journée Merci

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Bonjour, quand on travaille sur un probleme multi-dimensionnel, on n'affiche en général pas notre modele (vous pouvez faire l'essaie, vous ne verrez qu'un nuage de point par dessus un autre).
      Donc, pour valider la qualite du modele, on affiche a la place ce qu'on appelle des courbes d'apprentissage (de souvenir je les ai tracé ici dans cette série de vidéo, sinon elles sont dans ma série de vidéos sur sklearn)

    • @ericgrosvalet41
      @ericgrosvalet41 3 года назад

      ​@@MachineLearnia Merci pour cette réponse,
      j'imagine qu'il faut jouer ensuite avec le coef de prédiction en essayant d'obtenir la valeur la plus élevée?
      Bonne journée

  • @alexandretritz8555
    @alexandretritz8555 5 лет назад

    Très bonne vidéo ! 😃😃😃

  • @daniel_diawaku1377
    @daniel_diawaku1377 7 месяцев назад

    Vous avez utilisé quel version de python ? Dans la formation ?

  • @daxbrin8083
    @daxbrin8083 4 года назад

    Superbe vidéo, j'aimerais mettre en pratique tout ça avec un autre exemple ou pouvons nous trouver des data set pour apprendre notre modèle

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Désolé pour la réponse tardive, l'algorithme RUclips ne m'avait pas notifier de votre commentaire ! Eh bien on peut travailler avec les datasets de sklearn : par exemple Boston et California_housing. Ce sont 2 datasets qui vous exercent a prédire le prix d'une propriété en fonction de pleins de variables différentes (la surface, la zone, le nombre de pieces, etc.)

  • @sahbibayari1933
    @sahbibayari1933 3 года назад

    Un grand merci à votre série de vidéo sur la régression linéaire avec la mathode de descent de gradient.. Y-il un site Web qui donne des problème de régression à résoudre ? .. Si ui donner moi un nom de l'un des site.. Et merci beaucoup

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Je vais en chercher un car a ma connaissance il n'y en a pas. Mais vous pouvez aller sur Kaggle ou bien travailler avec les datasets de Sklearn pour vous faire la main.

  • @lovnyweb7482
    @lovnyweb7482 3 года назад

    bonjour dans la partie 'régression multiples variables' je ne comprend pas pourquoi le thêta aléatoire à 3 éléments alors que c est un modèle linéaire donc 2 éléments non ?
    Sinon à part cela j adore ta pédagogie
    matthias

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Bonjour, un modèle linéaire (ou modèle affine) est un modèle qui fait la somme pondérée de ces entrées. Alors aucun probleme de faire la somme de 3 entrées (ou plus). Vous ne faites que rajouter des dimensions a votre probleme : au lieu d'une droite, vous obtenez un plan, puis un hyperplan, etc etc.

  • @imammalickndiaye9035
    @imammalickndiaye9035 4 года назад

    Des superbes vidéos pour mon auto apprentisage, je vous remercie infiniment.
    Par ailleurs j'aimerais savoir le procédé avec les codes pour arriver à mon équation du modèle.
    J'ai déjà implémenté jusqu'à avoir un modèle de régression linéaire qui marche moyennement bon avec plusieurs features.
    J'ai normalisé les données, qui sont toutes quanti, avec PowerTransformer mais j'arrive pas à retrouver les coefficients du modèle...

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Si vous utilisez sklearn, vous pouvez voir les coefficients du modele avec l'attribut estimateur.coef_

  • @guillaumetopenot7143
    @guillaumetopenot7143 4 года назад

    Bonjour et merci pour toutes ces videos accessibles et super bien expliquées... est-ce que celle-ci est la dernière de la série ML ou d'autres sont à venir ? En tout cas, c'est génial ce que tu fais

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Merci Guillaume. Non ce n'est pas la dernière de la série, d'autres vont bientôt venir !

    • @guillaumetopenot7143
      @guillaumetopenot7143 4 года назад

      @@MachineLearnia : Génial ! Je finis cette série et en attendant les suivantes, je passerai sur la série Python pour ML :)

    • @MachineLearnia
      @MachineLearnia  4 года назад

      @@guillaumetopenot7143 Bravo pour ton enthousiasme ! :)

  • @noel9335
    @noel9335 4 года назад +1

    Le theta_final possède maintenant 3 valeurs au lieu de 2 dans le cas d'une régression linéaire simple. Pourtant l'équation n'est pas de type ax² + bx + c ? Ou alors je me trompe.
    Comment donc interpréter le résultat ? Quelle est donc l'équation finale qui permettra de calculer y = f(x) sachant qu'il y a 2 features et donc 2 valeurs différentes pour x ?
    Merci pour la réponse.

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      En ajoutant une colonnes x^2 dans la matrice X, ainsi qu'un troisième paramètres dans theta, on obtient en effet un modèle de la forme f(x) = ax^2 + bx + c. (polynôme de degré 2)
      Dans ce cas il n'y avait cependant qu'une Feature x ! (que l'on a étendu a x^2)
      Si on développe un modele sur plusieurs features (par exemple x1, x2) alors on écrira f(x1, x2) = .... (et la ca dépend du nombre de degrés que l'on désire avoir dans le modele). Dans Sklearn, on utilisera le transformer PolynomialFeatures pour augmenter facilement le nombre de dimensions de notre probleme, je vous conseille de visualiser ma vidéo sur le preprocessing a l'avenir, vous comprendrez mieux (et les vidéos sur sklearn par la meme occasion)

    • @noel9335
      @noel9335 4 года назад +1

      @@MachineLearniaMerci pour la réponse mais pour m'aider à mieux comprendre : quelle est la formule correspondante à f(x1, x2) dans l'exemple de la vidéo ? Il doit bien y avoir une formule associée sinon à quoi cela sert de connaitre les valeurs de théta ?
      Cela me permettrait de comprendre comment on résout le problème et surtout de trouver des valeurs résultat.
      Pour les vidéos (comme celles sur Sklearn) j'ai bien l'intention de les visionner mais entre votre très bon livre, votre site de qualité, les superbes vidéos machine learning, Python, etc. et la compréhension mathématique, il y a de quoi faire. ;)
      En tout cas, très bon travail : merci encore.

  • @rabearisontsiory5809
    @rabearisontsiory5809 5 лет назад

    Superbe Vidéo ! Grand Merci ! Je m'abonne ;)

  • @mariecherel7112
    @mariecherel7112 4 года назад

    Bonjour Guillaume,
    Merci beaucoup pour tes vidéos qui sont très bien faites et très claires ! 👌
    J'ai une petite question concernant la régression linéaire multiple. Tout d'abord conseilles-tu de normaliser les données en entrée pour avoir des ordres de grandeurs comparables ? De plus, une fois qu'on a un modèle est-il possible de l'analyser pour en déduire l'influence et l'importance de chacun des paramètres ? Et si oui comment ? 🤓

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Bonjour Marie et merci beaucoup :)
      - Il faut presque toujours normaliser les données avant leur entrée dans la machine (j'en parle en détail dans la vidéo 22/30 preprocessing avec sklearn)
      - Oui on peut déterminer l'importance de chaque variable par l'analyse des coefficients Theta de notre modèle (et je montre en dessin comment avec la vidéo 23/30). Dans la pratique on utilise Sklearn pour faire du Machine Learning (ce package est tout simplement merveilleux) Et les modèles développé avec Sklearn ont presque tous un attribut .coef_ (qui permet d'analyser l'importance des variables) ou un attribut feature_importance_ (qui trie les variables selon leur importance pour un modèle donné)
      Si tu as d'autres questions, n'hésite pas. C'est un plaisir de vous aider :)

  • @larrygaudrie79
    @larrygaudrie79 2 года назад

    Bonjour Guillaume,
    Merci beaucoup pour cette formation.
    En tentant de refaire la même chose, je tombe systématiquement sur Theta_final de dimension (3, 100). Je cherche depuis hier mon erreur mais je ne trouve rien. pouvez-vous me dire ou je me suis trompé ?
    vous remerciant

    • @MachineLearnia
      @MachineLearnia  2 года назад +1

      c'est un probleme de broadcasting. Faites bien le y.reshape au début du code !

  • @TheAmazeer
    @TheAmazeer 4 года назад

    Salut très bonne vidéo comme d'habitude.. Pour illustrer il aurait été plus judicieux de prendre un cas concret de la vie courante comme le prix d'achat d'une maison en fonction du taux d'emprunt et de la surface du terrain par exemple.. De sorte que qu'on verrait une courbe sur l'axe x1 et x2...

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Merci beaucoup. Oui je suis d'accord avec cette remarque, je comptais faire d’abord des vidéos théoriques, mais je compte changer ca pour les prochaines vidéos ! :)

    • @TheAmazeer
      @TheAmazeer 4 года назад

      @@MachineLearnia au passage tu est un très bon prof. J'aurais mieux compris les fonctions polynomiales avec un ex concret comme celui de l'intelligence artificiel... Tu est prof ou étudiant en sciences ?

  • @barhamouhama9249
    @barhamouhama9249 5 лет назад

    cool vraiment tes video

  • @safaelaat1868
    @safaelaat1868 4 года назад +1

    Bonjour Guillaume,
    Super Vidéo, comme d'habitude!
    Peut-on, stp, avoir le cas général : polynomial et multiple?
    Merci beaucoup pour ton aide.

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Merci beaucoup. Le cas général était donné dans cette video : On garde la formulation matricielle du modele, de la fonction Cout et de la descente de gradient, et il suffit simplement d'ajouter des variables polynomiales a l'intérieure de la matrice X, tout en ajoutant un nombre identique de coefficients dans theta.
      Est-ce-que ma réponse est claire ou bien préférez-vous que j'explique plus en détails ?

    • @safaelaat1868
      @safaelaat1868 4 года назад

      @@MachineLearnia Bonjour Guillaume,
      Oui j'ai vu qu'on a parlé de la régression polynomiale simple( avec un facteur) et de la régression linéaire multiple (plusieurs facteurs). Je parle du cas générique qui est la régression polynomiale multiple.
      Merci bcp pour ton aide.

  • @guillaumecarriere3782
    @guillaumecarriere3782 3 года назад

    Bonjour Guillaume, Je vous remercie pour votre travail qui m'aide beaucoup. Allez-vous présenter la régression PLS? Il me semble que cette régression est adapté pour un modèle à plusieurs variables cibles?? Merci

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Bonjour, en réalité le modèle que je présente ici est aussi capable de faire des régression multi-target. Ill suffit de poser cela par matrice pour s'en rendre compte. Pour aller plus vite, je vous conseille d'utiliser Sklearn : SGDRegressor

    • @guillaumecarriere3782
      @guillaumecarriere3782 3 года назад

      @@MachineLearnia super je vais me renseigner la dessus ! Une vidéo peut être ?? Bonne continuation et à bientôt.

  • @abderrazakcroxup321
    @abderrazakcroxup321 5 лет назад

    Rien à dire & c encore mieux ...;)

  • @elemaine91
    @elemaine91 3 года назад

    Bonjour, je souhaite te remercier pour cette formation qui est tout simplement superbe.
    J'ai une question concernant la régression linéaire avec 2 variables et la régression polynômiales, je vois que le vecteur teta et le même, j'ai pas très bien compris la différence, merci

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Le code pour le créer est le meme, mais comme le nombre de variables dans X augmente, theta augmente avec lui.

    • @elemaine91
      @elemaine91 3 года назад

      Ce que j'ai pas compris, est ce que e vecteur teta dépend du nombre de variables ou du nombre de paramètres dans le model (a, b, c) ?

    • @MachineLearnia
      @MachineLearnia  3 года назад

      @@elemaine91 le vecteru theta comprends les différents parametres. Si on le crée en écrivant X.shape[1] cela donne automatiquement autant de parametres dans théta que de variables dans X.

    • @elemaine91
      @elemaine91 3 года назад

      @@MachineLearnia Aah d'accord merci pour l'éclaircissement, j'ai très bien compris maintenant

    • @MachineLearnia
      @MachineLearnia  3 года назад

      @@elemaine91 de rien :)

  • @pieerotblandor5658
    @pieerotblandor5658 2 года назад +1

    Bonjour, comment peut-on savoir le degré de la fonction polynomiale ? Puisque là vous déterminez le degré à partir du graphe mais si on avez eu 10 features, comment auriez-vous fait ?

  • @hermannsockeng3937
    @hermannsockeng3937 5 лет назад +2

    Salut merci pour le tutoriel.
    Svp j'aimerais voir le cas où l'on a plus de trois features et les targets sont expliquées par tous les features.
    Merci

  • @sephoranjofang6962
    @sephoranjofang6962 5 месяцев назад

    Bonjour j'aimerais savoir si c'est possible d'écrire un algorithme de classification d'application( malware ou begnin) avec le modèle de régression linéaire.
    Merci beaucoup pour les videos.☺

  • @antoinesalame5262
    @antoinesalame5262 3 года назад

    Bonjour ! Déjà merci pour tes vidéos, je suis en première année d'études d'ingénieur en polytech à Bxl et je kiffe regarder tes vidéos histoire de m'avancer un peu ! Pourrais-tu partager avec gitub le bout de code ou le logiciel qui t'a permis de faire la représentation 3D à la fin de la vidéo ? Et ça marche aussi pour les représentations de données dans des espaces multidimensionnels (de dim > 3), merci bcp !

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Bonjour Antoine et merci. Le github est en lien dans la description. J'ai une section sur les graphiques 3D avec Matplotlib dans le repertoire github.com/MachineLearnia/Python-Machine-Learning/blob/master/15%20-%20Matplotlib%20Top%20Graphiques.ipynb

  • @houssemrouis1276
    @houssemrouis1276 4 года назад

    Je vous remercie une autre fois pour cette riche formation
    j'ai une petite question , si y=sqrt(a*x^2+bx+c) en gros la courbe que vous avez dessiner sur la tablette en début de cette vidéo , es ce que notre mine d'or fonctionne toujours si oui comment s'il vous plaît ? mon idée c'est ds la matrice de X je mets directement une colonne sqrt(a*x^2+bx+c) et une colonne des ones .
    Merci d'avance

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Si vous faites cela c'est un peu comme "tricher" -> en effet dans la vraie vie vous ne connaîtrez pas l'équation derrière les phénomenes étranges que vous observés et pour lesquelles vous devez développer un modele de ML. Donc, ce que vous devez faire, c'est de créer beaucoup de variables polynomiale dans votre matrice X (vous pouvez visionner la série Python Machine Learning - épisode 22/30 sur le preprocessing) pour bien comprendre comment ajouter des variables automatiquement dans un programme.

    • @houssemrouis1276
      @houssemrouis1276 4 года назад

      @@MachineLearnia Je vous remercie pour votre réponse , je suis entrain de regarder la formation python je suis encore en 04/30 , step by step :D

  • @musmus6015
    @musmus6015 3 года назад

    Bonjour.
    Merci bcp pour les # presentations !! C'est tres clair, Sinon on a bien compris le principe de l'algo de gradient srtout sans la lib python, est ce que c'est possible d'avoir des video comapartives avec l'algo gradient stochastique ainsi que le gradient with momentum ( adaptive lerning rate)
    Merci d'avance

    • @MachineLearnia
      @MachineLearnia  3 года назад +1

      Merci beaucoup ! Je vais faire un tel comparatif dans ma série sur le Deep Learning prévue ce trimestre :)

  • @yaneskhereddine8841
    @yaneskhereddine8841 3 года назад

    Salut j'espère que vous allez bien superbe vidéo je voulais savoir comment on met des équations dans les cellule markdow ? Si tu a une doc à me conseiller ?

  • @renaudlouisdahou6928
    @renaudlouisdahou6928 5 лет назад

    Bonjour Guillaume j'ai lu le ebook gratuit que tu m'a offert. Jai une question
    -Je veux classer plusieur variété (y) de maïs suivant la quantité des élements nutritifs(x) qui s'y trouve
    - Je veux que ma machine indique le maïs varité (y) approprié en fonction des besoins nutritionnels(x) de l'individu pour sa croissance.
    Quelles solutions ou methodes puis-je utilisé pour resoudre ce probleme? Sachant que les (y) sont des valeur nominale et les (x) des valeurs quantitatives
    Merci d'avance en gardant espoir que j'aurai une reponse de ta part

    • @witanixenos7958
      @witanixenos7958 3 года назад

      Enfin une personne qui partage son objectif avec du ML. Très intéressante application. Avez vous réussi ?

  • @TeurteuleSenior
    @TeurteuleSenior 4 года назад

    Bonjour,
    Merci encore pour vos vidéos!
    J'ai mis en dataset des valeurs de débit d'une canalisation ainsi que des valeurs de température pour un y = prolifération de mollusques entre autres.
    J'ai normalisé les données X et y en les divisant par la valeur max contenu dans X.
    Est-ce normal d'obtenir un theta différent à chaque exécution du code ?
    Dois-je sélectionner un autre modèle que polynomiale ?
    Bon Après-midi

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Oui c'est normal d'obtenir un théta différent, car cela dépend de votre initialisation. Mais en principe vous devriez converger vers une solution sensiblement similaire a chaque fois, sinon c'est que votre algorithme a besoin de plus d'intérations

    • @TeurteuleSenior
      @TeurteuleSenior 4 года назад

      @@MachineLearnia Bonjour, merci de votre réponse. Je crois que la corrélation entre les variables utilisées et le dataset est trop faible pour établir une relation. Cela ne converge pas du tout vers les mêmes valeurs à chaque exécution malgré la modification du pas et du nombre d'iterations. J'obtiens un coût final très faible mais je crois que c'est parce que la courbe étudié est constante. En remplaçant les donnés par une fonction connue je converge en effet vers un theta en particulier.
      Bonne journée 🎩

  • @smhajat6856
    @smhajat6856 3 года назад

    Bonjour ,merci pour cette vidéo ça m'a trop aidé pour ma formation j une petite question on utilise just les deux modèles simples et multiples pour l'analyse de données ou existe t-il d'autres , si oui lesquels ? Et merci 😊

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Bonjour, oui il en existe tout pleins, j'en parle dans d'autres vidéos, notamment les vidéos de sklearn.

  • @snipe0694
    @snipe0694 2 года назад

    Salut, tu parles de régression linéaire multiple avec numpy en titre, est-ce que ce serait pas plutôt régression polynomiale multiple plutôt ? Car tu utilises dans tes exemples toujours le modèle de polynôme de degré 2 avec un theta à 3 paramètres a, b et c.

    • @MachineLearnia
      @MachineLearnia  2 года назад

      pardon, pour clarifier les choses :
      regression multiple -> multiple variables
      regerssion poly -> on insert un polynome dans notre modele

    • @snipe0694
      @snipe0694 2 года назад

      @@MachineLearnia Ok donc c'est bien un polynôme que tu as inséré dans ta régression multiple donc la vidéo devrait s'appeler "régression polynomiale multiple". D'ailleurs comment déterminer quel polynôme choisir pour ton modèle ? (Quel dimension de theta choisir ?)

  • @gnigni1244
    @gnigni1244 3 года назад

    Bonjour , j'aimerai savoir si il serait possible d'avoir des fiches d'exercices en machine learning surout sur ce que on a vu jusqu'a present
    cest a dire ,regression lineire et autre .
    Aussi j'aimerai des exos qui englobe tout ce que on a vu , ces exos me permettrons d'avoir une application concrete de ce qui a ete vu jusqu'a present

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Bonjour, je n'en dispose pas a l'heure actuelle, mais j'en mettrai a l'avenir sur mon site Internet.

  • @soufgamer
    @soufgamer 5 лет назад

    Salut, merci beaucoup pour tes vidéos ! Est-ce que tu comptes faire des vidéos sur le classificateur bayésien, l'ACP et l'ACI?

    • @MachineLearnia
      @MachineLearnia  5 лет назад +2

      Salut et merci beaucoup :)
      Oui je vais faire des vidéos sur les modeles de Bayes, ils sont tres importants ! (en janvier je pense)

    • @cherifafatimachoukhan3270
      @cherifafatimachoukhan3270 4 года назад

      Oui je suis intéressé par ACP.. On vous attente merci bcp pour vos efforts

  • @paulluka7594
    @paulluka7594 4 года назад

    Bonjour, tu dis qu'on peut traiter les problèmes les plus complexe grâce a la régression linéaire multiple. ça signifie qu'avec cet algorithme que tu présentes, on peut traiter n'importe quel problème de ML en adaptant les matrices ?

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Bonjour, On peut aborder beaucoup de problemes de régressions, aussi longtemps que l'on effectue un bon pre-processing et que l'on dispose de variables utiles. Bien sur on ne peut pas aborder tous les problemes. Pour les plus compliqués, il faudra se diriger vers d'autres types de modeles (RandomForest, XGBoost, ou bien Réseau de Neurones)

    • @paulluka7594
      @paulluka7594 4 года назад

      @@MachineLearniamerci beaucoup pour ta réponse, c'est clair

  • @donellessame9194
    @donellessame9194 4 года назад

    Bonjour a 7min43 tu teste le modèle avec le nouveau scalaire theta et la nouvelle matrice X , cependant que je le teste chez moi la machine me dit qu'il y a une erreur dans la fonction " model", c'est ecrit: " ValueError: setting an array element with a sequense" . Je ne comprend pas le problème car j'ai pas touché à la fonction "model".

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Je t'invite a voir mon code sur Github, il est fonctionnel. Si tu obtiens cette erreur, il y a peut-etre une petite différence.

  • @bilon5670
    @bilon5670 4 года назад +1

    Dernière question sur ta superbe vidéo :), si je veux un modèle polynomiale sur plusieurs features, que dois-je modifier sur les matrices x et thêta ?

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Pour un modèle à plusieurs variables, celles-ci sont déjà présentent dans la Matrice X, donc tu n'as rien à faire. En ce qui concerne theta, il suffit d'ajouter n+1 lignes (ou n est le nombre de features+degrés)
      Est-ce-que ma réponse est claire ? :)

    • @bilon5670
      @bilon5670 4 года назад

      @@MachineLearniaOui j'ai bien compris pour thêta mais pour x ? Dans quel ordre faut-il ranger les x1^2,x2^2,xn^2 et 1 ? L'ordre est-il important ?

    • @bilon5670
      @bilon5670 4 года назад

      J'ai réussi à combiner les deux, merci j'ai compris. Cependant j'arrive rapidement à des erreurs de mémoire sur Jupiter avec des modèles d'ordre supérieur.

    • @MachineLearnia
      @MachineLearnia  4 года назад +2

      @@bilon5670 C'est parce qu'il faut normaliser vos données avant de les passer dans la fonction de descente de gradient, Sinon le modele n'arrive pas a converger, je vais expliquer ca dans la prochaine vidéo de cette série (mais j'ai déja fait une autre vidéo qui explique cela : c'est la vidéo 22/30 Python Machine Learning sur le preprocessing)

    • @bilon5670
      @bilon5670 4 года назад

      @@MachineLearnia Je te remercie, tes vidéos sont superbes !

  • @bradolfossouo3822
    @bradolfossouo3822 5 лет назад

    Bonjour, Excellente vidéo!! j'aimerai bien apprendre à importer mes propres dataset Merci!

    • @MachineLearnia
      @MachineLearnia  5 лет назад +1

      Bonjour et merci beaucoup. J'ai fait une vidéo qui montre comment importer vos propres données : c'est la vidéo "Python Pandas Titanic" dites moi si vous la trouver :)

    • @bradolfossouo3822
      @bradolfossouo3822 4 года назад

      @@MachineLearnia Meciii

  • @tritontree-ton6421
    @tritontree-ton6421 4 года назад +1

    bonjour boujour :)
    Petite question quand je fais la régression j'ai plein de ligne rouge de régression qui apparaissent au lieu d'une seul.
    As-tu une idée de pourquoi ?
    Thomas

    • @MachineLearnia
      @MachineLearnia  4 года назад +1

      Bonjour Thomas !
      Oui c'est normal, la fonction plt.plot() trace la courbe dans l'ordre des points de X.
      Pour corriger ce probleme, utilise soit la fonction plt.scatter, ou bien si tu as vraiment envie d'avoir une courbe, il te faut faire la chose suivante
      new_x = np.linspace(0, 10, nb_points)
      plt.plot(new_x, model(new_x, theta))

    • @safaelaat1868
      @safaelaat1868 4 года назад

      Bonjour Thomas,
      J'ai eu le même souci que toi alors que Guillaume n'a pas ce souci. en fait ,lui il a utilisé la fct scatter et non pas plot :)

    • @doryanngartner2660
      @doryanngartner2660 4 года назад

      @@MachineLearnia bonjour Guillaume, j'ai effectivement corrigé avec les points cependant, je ne comprend pas ce que tu ajoute dans la fonction linespace notamment nb_points, cela représente-t'il le nombre de données ? Et où faut-il inclure cette partie dans le programme ? À la même ligne où se trouvait "plt.plot()" ?

  • @mesterlbizani4503
    @mesterlbizani4503 8 месяцев назад

    Bonjour , j'ai un probleme , c'est que la courbe du modele polynomiale apparait tres eppaisse

  • @TeurteuleSenior
    @TeurteuleSenior 4 года назад

    Bonjour, est-ce normal d'obtenir un thêta différent à chaque exécution du code ? Bonne journée

  • @theojoignant5411
    @theojoignant5411 4 года назад

    Merci pour toutes ces vidéos !
    Je me pose la question suivante : il est parfois indiqué quand lors de présentations sur le ML de diviser le dataset en deux, voire trois, parties
    (ex : 80% des données utilisées pour déduire le modèle - 20% pour sa validation).
    Que pensez-vous de cette pratique ? D'après votre expérience, est-elle intéressante ?
    Merci.

    • @MachineLearnia
      @MachineLearnia  4 года назад +3

      Bonjour Théo, diviser son dataset en 2 parties (Train set et test set) est indispensable ! mais je n'en parle pas dans cette vidéo. En revanche, j'en parle sur la vidéo 20 et 21 de la série Python Spécial Machine Learning. Je les recommande vivement car ce sont les vidéos les plus travaillées de la chaine, et les plus récentes.

  • @sanogoousmane6343
    @sanogoousmane6343 Год назад

    Superbe vidéo, Mais je n'arrive pas à voir la différence entre régression linéaire multiple et régression polynômiale🤔

  • @willylatache
    @willylatache Год назад

    nice

  • @musiclover-pn3ck
    @musiclover-pn3ck 3 года назад

    pour la regression lineaire a deux features c est quoi la nouvelle fonctions du models vu que theta est de dimention (3,1)?

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Le modele serait le suivant : f(x1, x2) = ax1 + bx2 + c.
      Il y a 3 coefficients dans le vecteur theta (a, b, c)

  • @dreamytom8533
    @dreamytom8533 3 года назад

    J ai voulu reproduire votre exemple sur Jupyter et pour le point 7 « évaluation finale » j’ai un coef de détermination 0,58 alors que vous êtes à 0,97. Pourriez-vous s il vous plait expliquer pourquoi? En vous remerciant

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Bonjour, sans plus de détails je ne saurais pas vous idre, il faudrait voir votre code et vos données, le random_state etc. Pourriez vous venir sur Discord pour en parler ? Merci

    • @dreamytom8533
      @dreamytom8533 3 года назад

      @@MachineLearnia Merci beaucoup de ce retour🙂.Après réflexion c’est vrai que le nuage de points est plus dispersé que dans votre exemple, du coup j’imagine que la fonction coûts est plus importante et donc cela explique ce résultat? Je veux bien venir sur Discord mais je ne l’ai jamais utilisé… comment fait-on? Encore merci

    • @dreamytom8533
      @dreamytom8533 3 года назад

      C’est bon j’ai créer un compte. Cdt

  • @nekkoubabdelhafid2508
    @nekkoubabdelhafid2508 Год назад

    est ce que tu peux m'éclaircir l'idée comment utiliser l'intelligence artificielle pour détecter et localiser les défaut sur un système PV ?

  • @danieltelo4643
    @danieltelo4643 4 года назад

    merci pour ces tutos vachement expliquer mais j'attend toujours la suite! qu'est ce qui se passe? merci a toi

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Merci beaucoup. Je travaille en ce moment sur la série Python Machine Learning (la prochaine vidéo sort cette semaine) et quand j'aurais terminé cette série, je reprendrai la série Machine Learning Théorique (la suite de cette vidéo)

    • @danieltelo4643
      @danieltelo4643 4 года назад

      @@MachineLearnia merci beaucoup! j’attends avec impatient!

  • @fredericp8687
    @fredericp8687 3 года назад

    Bonjour, c'est moi ou dans cet exemple x2 n'a presque pas d'impact sur y au vue de la dispersion graphique ? On voit bien sur le teta : a=81,... b=5,.... .

    • @fredericp8687
      @fredericp8687 3 года назад

      Quand je parle de dispersion graphique, j'entends par là celles des 2 projections. L'une concentrée et linéaire et l'autre pas. Bref un plan formé avec une droite presque à l'horizontale en x2.

    • @MachineLearnia
      @MachineLearnia  3 года назад

      Oui c'est correct, c'est ce que j'essaie de montrer sur le graphique 3D a la fin ! Bien vu ! :)

    • @fredericp8687
      @fredericp8687 3 года назад

      Merci.
      Autre petite question : existe-t-il d'autres modèles mathématiques en data science comme ceux de l'analyse du signal (filtrage du bruit) ou les courbes de Bézier (interpolation continue mais non linéaire ) pour le traitement des données ?
      Sinon superbe travail, tes vidéos sont très pédagogiques c'est plaisant !

  • @rodolpheseror7501
    @rodolpheseror7501 4 года назад

    Hello une petite question. Quand on continue a entrainer le modele apres le pas 400 on voit que l'on tend vers une droite horizontale et que le modèle ne s'améliore plus. Intuitivelent j'aurais pensé qu'en continuant d'avancer on allait commencer a diverger puisque on dépasse le minimum et qu'on comlence à "remonter la vallée"...?

    • @MachineLearnia
      @MachineLearnia  4 года назад

      Salut Rodolphe ! Imagine que l'on remonte d'un tout petit pas, alors le gradient du tour suivant nous pousserait a repartir dans l'autre direction, voila pourquoi on ne peut que converger. De plus, au fur et a mesure que l'on converge, le gradient se fait de plus en plus petit (le fond du bol est de plus en plus "plat") ce qui fait que la position du modèle ralentit au fur et a mesure de sa descente, tout comme une bille qui roule au fond d'un bol. Certes la bille remote de l'autre coté, puis redescent (comme j'ai expliqué eu haut de mon message) mais en temps normal, cela ne se produit pas pour la descente de gradient (elle tombe et converge d'un coup)

    • @rodolpheseror7501
      @rodolpheseror7501 4 года назад

      @@MachineLearnia ah oui ! Dans tous les cas on repasse positif et ca repart dans l'autre sens mais on ne le voit pas parceque ca "ralentit" énormément. Enbtout cas un enorme bravo et respect pour tes vidéos c'est juste incroyable de concision et d'efficacité. Je manipule pas mal de data et je "connais" ces principes "de loin" (en gros je demande a notre data scientist quand j'ai besoin d'un modèle). Hyper intéressant de comprendre le truc de l'intérieur.
      Merci !

    • @MachineLearnia
      @MachineLearnia  4 года назад

      @@rodolpheseror7501 De rien ! :)