ChatGPT rêve-t-il de cavaliers électriques ?

Поделиться
HTML-код
  • Опубликовано: 31 дек 2024

Комментарии •

  • @MonsieurPhi
    @MonsieurPhi  8 месяцев назад +18

    Merci à Infomaniak et n'hésitez pas à aller voir les services qu'ils proposent : www.infomaniak.com/fr?
    Rendez-vous jeudi soir 22h sur Twitch pour un live-debrief où j'essayerai de me mesurer à gpt-3.5-turbo-instruct !

  • @dany3310
    @dany3310 8 месяцев назад +191

    Bon, je suis biaisé par le fait que je suis moi-même joueur d'échecs, développeur et IA-enthousiaste, mais cette vidéo est absolument incroyable. Quel travail ! Merci MrPhi d'avoir abordé ce sujet, je ne manquerai pas de partager cette vidéo sur mes réseaux échiquéens :)

    • @MonsieurPhi
      @MonsieurPhi  8 месяцев назад +10

      Merci !

    • @savonliquide7677
      @savonliquide7677 8 месяцев назад

      En première ecoute je n'ai pas compris cette histoire de jauge - qui m'a l'air d etre le centre du problème. Je suis mathématicien mais niveau programmation je ne dépasse pas le python gentil pour mes petits tests maths perso donc pas du tout au courant des nomenclatures et terminologie. Tu as un conseil pour comprendre cette histoire de jauge sans perdre trop de temps ni d'énergie? Je vais en attendant consulter les articles liés mais je ne sais pas si ça suffira... Je reviendrai juste adouber ou pas ce dernier point. Merci d'avance (le message s'adresse au commentateur ou à me Phi mais aussi à quiconque peut/veut répondre)

    • @eliotdeneux804
      @eliotdeneux804 8 месяцев назад +2

      @@savonliquide7677 je suis loin d'être un expert que ce soit en programmation ou en échecs et je suis pas sur d'avoir compris ce que tu voulais dire par "jauge". Si tu parles du classement elo, c'est un nombre qui désigne la force d'un joueur dans le cadre d'un jeu 1 contre 1 (par exemple les échecs). Tu as ton élo (disons 1500) et quand tu affrontes un adversaire qui a aussi son elo (disons 1500 aussi), en cas de victoire ton elo augmente et le sien baisse (ici ce sera sans doute +8 pour toi et -8 pour lui), et l'inverse en cas de défaite. A noter que s'il est miex classé (disons 2000 elo) une victoire te rapportera bcp de pounts et lui en coutera bcp (sans doute +25 pour toi et -25 pour lui), mais une défaite ne te coutera presque rien et ne lui rapportera presque rien (sans doute -1 pour toi, +1 pour lui). A force de faire beaucoup de parties, ton elo se stabilise autour d'une certaine valeur (avec bien sur des fluctuations et pourquoi une progression au fil du temps) : cette valeur est "ton elo" et représente ta force (environ 400 pour un humain novice, 1000 pour un débutant, 1500 pour un joueur de club, 2000 pour un joueur très expérimenté de compétition, et jusqu'à 2800 pour les meilleurs humains, et plus de 3400 pour les meilleurs ordinateurs)

    • @estebfr
      @estebfr 8 месяцев назад +1

      Ouai gg

    • @savonliquide7677
      @savonliquide7677 8 месяцев назад

      @@eliotdeneux804 merci d'avoir dis tant de temps pour me répondre, en fait je ne parlais pas du elo mais de ce qui est présenté comme la "jauge" dans la vidéo et qui semble donner une espèce de carte de ce que le programme "se représente " (avec les guillemets qui s imposent), volontairement je ne regarde pas tout de suite ni n y reflechis plus que ca, j'attends de trouver par moi meme et un peu en flânant le mécanisme qui pourrait être a l'oeuvre. Je ne sais pas si je serai informé par qqun, une recherche perso ou si je vais trouver l'idee par moi meme, sauf que maintenant que j ai écrit tout ca je suis un peu obligé d'y réfléchir un peu... Et en principe je devrais pouvoir trouver tout seul, sauf si Je suis a coté de ma plaque dans la proprieté dont je pense qu est dotée cette "jauge" meme si ces propriétés sont vagues et pleines de guillemets.
      A propos du elo je ne sais pas très bien comment il est calculé mais il y a aussi le nombre de partie jouées qui entre en jeu. Plus il y en a moins il est volatil.
      Si tu veux jouer sur lichess.org, ou qqun d autre mon blaze est "pionti" , on peut lancer des defi je crois.. ( suis pas ouf par contre lol ( autour de 1500 en rapid ))

  • @etiennerolland1480
    @etiennerolland1480 8 месяцев назад +279

    Big up sur le choix d'ost de death note 😏

    • @blobi.
      @blobi. 8 месяцев назад +4

      😏

    • @licornesauvage9911
      @licornesauvage9911 8 месяцев назад +4

      y a pas du_ parasyte à un moment ou c'est mon cerveau qui est grillé ?

    • @RavioliFr
      @RavioliFr 8 месяцев назад +6

      J'allais écrire plus ou moins le même commentaire donc je like celui-là à la place :')

    • @saniste6042
      @saniste6042 8 месяцев назад +2

      Pareil ❤

    • @etiennerolland1480
      @etiennerolland1480 8 месяцев назад

      @@licornesauvage9911 ahhh quand? Je vais aller écouter

  • @Quintilio74
    @Quintilio74 8 месяцев назад +87

    J'ai toujours été assez fan de Mr Phi depuis ses débuts, toutes ses videos philo, les lonnngues vidéos de discussion avec Sciences For All... Ça a toujours été très instructif. Mais cette série de vidéos sur les IA génératives et la philo expérimentale, c'est le niveau au dessus, J'en voudrais une par jour ❤

    • @Aeterrna
      @Aeterrna 8 месяцев назад +1

      Je pense que dans les années à venir il faudra entrainer un LLM avec les scripts de MrPhi afin d'avoir notre dose journalière.
      Parce que je suis pas sur que MrPhi arrive a tenir (ni à arriver d'ailleurs) à une vidéo par jour xd
      Et puis contrairement aux LLM (enfin pour le moment pour les LLM) il a une vie à coté quand même :)

  • @Philoxime
    @Philoxime 8 месяцев назад +89

    Aaah, je me disais bien que ça commençait à être l'heure d'une vidéo Monsieur Phi !!

    • @woosix7735
      @woosix7735 8 месяцев назад +1

      moi aussi =]

  •  7 месяцев назад +2

    Parmi les mérites de cette vidéo, un détail qui a fait la différence pour moi : des sous-titres propres, jusqu'à la ponctuation. J'ai ainsi pu comprendre la vidéo dans l'environnement bruyant du métro. Peu de gens sont peut-être sensibles à ça, mais moi oui : merci pour l'effort !

  • @M-G--
    @M-G-- 8 месяцев назад +30

    36:00 l'utilisation des sondes et la génération de heatmap à partir de ces senseurs me rappellent énormément l'inference des pensées d'un sujet à partir de la lecture de son activité neuronale par IRM : un nuage de probabilité d'où semble émerger des formes reconnaissables. C'est fascinant en effet.

  • @cz8986
    @cz8986 6 месяцев назад +3

    En tant qu’ingénieur en IA ayant de bonnes connaissances sur les LLMs, je salue l’excellent traitement des sujets liés à cette thématique sur cette chaîne. Cette vidéo m’a permis de changer mon approche sur des sujets très concrets. Un grand bravo et merci 🙏

  • @jeromebarois1875
    @jeromebarois1875 6 месяцев назад +6

    Je viens d’apprendre dans la vidéo suivante que celle-ci n’avait pas reçu l’accueil que selon moi elle mérite _amplement_ . J’apporte donc mon petit caillou à l’édifice avec un like et un commentaire. Le sujet est absolument passionnant et son traitement également 😊

  • @uranne6856
    @uranne6856 8 месяцев назад +42

    Je suis très curieux d'un fonctionnement survolé cette vidéo : les sondes !
    Cela étant dit, encore une fois, une vidéo qui donne matière a réfléchir, merci encore :)

    • @MrArkang3l
      @MrArkang3l 8 месяцев назад +14

      De ce que j'ai compris en regardant la vidéo, on a une sonde par case du plateau. Chaque sonde est un réseau de neurone indépendant, qui prend en entrée les activations des neurones du LLM, et qui est entraîné à prédire l'état d'une case du plateau à partir de ces activations.
      Le fait qu'on arrive à entraîner ces sondes (réseaux de neurones secondaires) jusqu'à ce que chaque sonde émette des prédictions correcte montre qu'on peut reconstruire l'état du plateau à partir de l'activité du LLM, et donc qu'il existe certainement une représentation interne du plateau dans l'activité du LLM

    • @MonsieurPhi
      @MonsieurPhi  8 месяцев назад +14

      @@MrArkang3l Oui, c'est bien ce que j'en ai compris ! (Et en faisant relire mon script Mathieu Acher était content de mes explications donc ça doit être relativement juste.) On voit aussi que si on entraîne les sondes sur les état du LLM non-entraîné, ça ne fonctionne pas du tout, donc cette représentation émerge bien suite à son entraînement.

    • @grom971
      @grom971 7 месяцев назад +1

      ​@@MonsieurPhi Mais comment sont choisis les neurones à sonder ? Ça mériterait une vidéo entière pour les novices en systèmes neuronaux...

    • @momom6197
      @momom6197 7 месяцев назад

      @@grom971 La sonde reçoit en entrée les activations de tous les neurones du modèle de base. Il n'y a pas de raison d'éliminer de l'information ici.

    • @davidhorvat9691
      @davidhorvat9691 6 месяцев назад

      Super video sur un sujet ...vertigineux - mais je butte aussi sur les sondes - je comprends à peu près la sonde pour évaluer si le réseau contient une certaine information. Mais comment fait on pour modifier sa représentation ?

  • @etiennerolland1480
    @etiennerolland1480 8 месяцев назад +18

    Du coup je reviens sur la vidéo, et oui, quand je vois le set up qu'il faut faire pour certaines expériences (chercher des parties d'échec pour faire le puzzle, créer le puzzle alternatif qui résulte de coup absurdes) on est clairement dans un cas de science expérimentale. Ce qui colle assez bien avec le côté "boîte noire" de bon nombres de modèles d'ia.

  • @gaeldauchy5491
    @gaeldauchy5491 8 месяцев назад +21

    Pour moi, tout ceci est une merveilleuse introduction à l’idée à laquelle on va devoir se soumettre : la conscience n’existe pas en tant qu’entité, mais émerge bien d’une complétion purement matérielle, elle n’est qu’une représentation de nos états internes. Un reflet sur un miroir, mais pas une chose ni le miroir. Cette dernière n’est pas quelque chose de purement vivant, mais bien une propriété neuro-Bayésienne d’une structure physique. 🙃

    • @gaeldauchy5491
      @gaeldauchy5491 8 месяцев назад

      Vous souvenez vous de cet homme qui a chez Google voulu défendre son « interlocutrice » IA ? S’il y a avait eu des sondes, et des analogies fiables entre ça et un cerveau, aurait-on alors admis qu’elle était consciente ? Plus qu’un simple amas de données ?
      Je ne veux pas dire qu’elle avait des sensations, parce que ce qu’on appelle sensations n’est déjà pas présents chez tous les humains, mais en plus parce que cette notion est au mieux douteuse. Il y avait un état interne et il communiquait ne pas vouloir être éteint. Il l’a été.

    • @gaeldauchy5491
      @gaeldauchy5491 8 месяцев назад

      Sensations avec les atteintes nerveuses par exemple, sentiments avec les troubles mentaux par exemple… je n’ai pas été précis pour ne pas rallonger. Mais si ça vous a perturbé… mais je classe un sentiment comme une sensation.

    • @marcdubrowski5278
      @marcdubrowski5278 8 месяцев назад +2

      C'est la direction vers laquelle tend ma réflexion après visionnage: ça m'inspire plus une réflexion sur la manière dont fonctionne notre cerveau, notre intelligence, que des performances des IA. Et ce qui ferait la différence serait en effet la monstrueuse quantité de données que reçoit un cerveau humain en plus de ces abstractions que sont les mots: les sensations, justement. Nous démarrons avec ça dans la vie. Et les mots que nous apprenons viennent après. Mais peut-on conclure que notre cerveau, comme les réseau de neurones, vont de facto construire une représentation du monde sur base statistique, que c'est inévitable ?

    • @JeanCommentaire
      @JeanCommentaire 7 месяцев назад

      Et donc nos expériences conscientes ne sont que des illusions...

    • @gaeldauchy5491
      @gaeldauchy5491 7 месяцев назад +2

      @@marcdubrowski5278 votre réflexion m’évoque un cours sur le Chiliagone, une idée de Descartes je crois à propos de formes qui ne peuvent être représentées mais qui peuvent être comprises par le spectre des propriétés. Ceci pour introduire l’idée nécessaire que la représentation par la visualisation n’est pas la seule forme de compréhension, qu’un LLM l’utilise n’est gage de rien quant à la représentation dans ses diverses formes.
      Chez les humains on a aussi ce genre de personnes par les afantasiques, qui n’ont aucune forme de représentation visuelle, mais qui fonctionnent normalement. Preuve que la représentation (puisqu’il y a présentation) n’est pas forcée dans le visuel.

  • @jlaimetoo8265
    @jlaimetoo8265 8 месяцев назад +3

    La quantité de travail derrière cette vidéo est absolument colossale. Ta capacité à vulgariser ces sujets techniques n'a d'égale que la qualité du montage et de la présentation des idées. Félicitations

  • @aserlompo4114
    @aserlompo4114 6 месяцев назад

    Cette vidéo est d’une qualité exceptionnelle. Je fais de la recherche en Traitement de texte (NLP en anglais) et j’ai quand même appris beaucoup aujourd’hui grâce à vous.
    Merci!

  • @YoshaEchecs
    @YoshaEchecs 8 месяцев назад +3

    Passionnante vidéo, merci ! Et ravie de voir ce cher Mathieu Acher !

  • @maxlaambert
    @maxlaambert 8 месяцев назад +1

    Le biais de blog de Mathieu Acher sur le sujet est très intéressant, on remarque bien la variété d'expérience qu'il y a à réaliser. Ce que j'ai apprécié dans la façon d'intégrer les paramètres nécessaires à l'expérimentation, c'était d'ajouter un paramètre stochastique pour les premiers déplacements de pions, pour StockFish et pour les modèles de langage, aussi d'avoir donné quelques solutions alternatives aux ouvertures de jeu, mais également les prompt "in-context" PGN, sans quoi il n'aurait peut-être pas été possible d'évaluer les capacités des LLM. Bravo à lui d'avoir analyser les centaines de parties d'échecs pour enfin réaliser cet article très amusant et merci à toi de l'avoir mis en avant dans cette vidéo :)

    • @MathieuAcher13
      @MathieuAcher13 8 месяцев назад +1

      merci ! et merci en effet à Monsieur Phi d'avoir mis en lumière les résultats expérimentaux tout en (c)ouvrant ce sujet passionnant

  • @pierrebabinet551
    @pierrebabinet551 5 месяцев назад

    Je viens de re-regarder cette vidéo et je crois que je ne l'avais pas appréciée à sa juste valeur en premier lieu.
    Merci !

  • @SergentTiToo
    @SergentTiToo 6 месяцев назад

    Proprement passionnant, vous etes devenu l'une de mes chaines de référence pour suivre le développement des llm

  • @naaaalex
    @naaaalex 8 месяцев назад

    Passionnante vidéo ! Un grand merci à vous. Je vous suis depuis longtemps et cette série est vraiment géniale.
    On est comme les spécialistes en fin de vidéo, à la fois curieux de la suite et légèrement effrayés par ces capacités de représentation interne. Ces réseaux semblent toutefois ne pas encore avoir de capacité de réflexivité qui leur permettrait peut-être de pouvoir chercher par eux même les données susceptibles de pouvoir encore améliorer leurs représentations internes toutes différentes en fonction des tâches à réaliser.

  • @jujione007
    @jujione007 8 месяцев назад +9

    Peut-on savoir (ou supposer...) pourquoi le modèle tend à gagner ? en effet s'il essaye de prédire les coups suivant, on pourrait s'attendre à ce qu'il "essaye" aussi de perdre ? Si le prompt contenait clairement en information que la partie devait être gagnée par le LLM on pourrait comprendre, mais comme dit dans la vidéo changer [Result "1-0"] donne aussi des cas ou le LLM gagne la partie au final.

    • @MathieuAcher13
      @MathieuAcher13 8 месяцев назад +7

      Très bon point que @MonsieurPhi m'avait pointé et qu'on a discuté en amont... Pour moi c'est (1) un point de variabilité supplémentaire sur le prompt à explorer, qui peut avoir un impact... Donc une menace aux expériences et conclusions. Le fait que le modèle gagne avec les noirs est rassurant... Mais tout de même ! (2) en général sur pourquoi le modèle doit/veut gagner ce n'est en effet pas explicite ni dans la fonction objectif de l'entraînement ni dans les instructions du prompt... Il est possible ceci dit que le modèle "comprenne" le besoin de gagner vu que c'est son tour de jeu... Et donc quitte à compléter le texte, autant gagner ;) Mais j'ai l'impression que c'est très anthropomorphique comme explication. Peut-être est-il possible de faire du probing, mais je ne sais pas quelle tâche utiliser et comment faire la différence avec qui a l'avantage vs l'objectif du modèle de gagner (ou pas). Bref, excellent point à creuser ! Mathieu Acher

    • @gweldg4137
      @gweldg4137 8 месяцев назад +3

      Chaque joueur (humain) joue ses coups avec l'intention de gagner (normalement). Même si la règle est implicite, elle transparaît dans la quasi-totalité des parties enregistrées et utilisées en données d'entraînement. Prédire un coup intentionnellement perdant serait donc contraire à l'entraînement qu'a reçu le LLM, quel que soit le joueur, noir ou blanc, que la machine est censée incarner. Même s'il y a une contradiction claire par rapport au résultat inscrit dans le header, j'imagine que le poids de l'entraînement (chaque joueur joue un coup avec l'intention de gagner) prends largement le dessus.
      En fait si le LLM était capable de perdre "intentionnellement" aux échecs (suivant une instruction, et en opposition à ses données d'entrainement), ne serait-ce pas là une meilleure preuve de généralisation que de "simplement" gagner ?

    • @jujione007
      @jujione007 8 месяцев назад +2

      ​​@@gweldg4137 une réponse intéressante. Cependant même si les joueurs jouent avec l'intention de gagner l'un d'eux fini forcément par faire une ou plusieurs erreurs qui le conduisent à la défaite. Le modèle ne cherchant pas a gagner mais a prédire la suite il devrait faire ces erreurs; au moins statistiquement sur une multitude de partie. Aussi pourquoi aussi peu de défaites sur les parties à bas ELO (surtout que dans ce cas il doit aussi simuler le comportement d'un joueur bas ELO puisque son adversaire est bas ELO et donc faire des erreurs ,et que je suppose que les parties de la base de données ne font pas majoritairement jouer des hauts ELO contre des bas ELO.
      Mon point tient surtout sur les parties ELO

    • @shanz7758
      @shanz7758 8 месяцев назад +1

      @@MathieuAcher13 Je ne peux affirmer avec une quelconque certitude que mon affirmation est juste, mais il est tout simplement possible que le modèle ait été entraîné pour répondre positivement aux choses positives, puisqu'en général, je pense qu'on aimerait pas que des IA utilisées comme chatbot répondent "va mourir en enfer" quand on lui dit "Tu es mon meilleur ami!". Donc, on peut imaginer que le modèle ait reçu certaines instructions au fil de son entraînement. Je crois savoir qu'une partie de l'entraînement de chat gpt a consisté justement à essayer de lui faire mettre en évidence de la positivité, de la négativité et de la neutralité. Si c'est le cas, on peut imaginer que le modèle a apprit à associer des prédictions plutôt positives à des prompts positifs, des prédictions plutôt négatives à des prompts négatifs etc... Mais il est possible qu'on ait quand même voulut plus renforcer l'aspect positif que l'aspect négatif. Or gagner fait partie du champs lexical de la positivité, donc il est possible que le modèle ait un biais à gagner.
      Une autre explication, qui viendrait aussi de l'implication humaine à un moment donné dans le traitement, pourrait résider dans le fait que si ce modèle a été fait pour jouer avec un niveau ELO 1800, il y ait des instructions cachées ou entraînées pour gagner.
      Une dernière explication qui me viendrait en tête serait le fait que, peut être, tout simplement, les parties mises à dispositions du modèle ayant certainement pour objet d'être instructrices, on peut tout à fait imaginer que le modèle ait dans sa base de données en priorité des parties de haut niveau, comme des parties autour des 1800 ELO, et si c'est le cas, ça veut dire que dans une grande partie de ses parties, que ce soit le gagnant ou le perdant, peu d'erreurs ont dues êtres commises, or si on imagine que gagner aux échecs, c'est y faire le moins d'erreurs possibles, sachant qu'il me semble à 1800 ELO on est déjà meilleur dans le top 2% des joueurs d'échec de mémoire, même en suivant purement des schéma de parties qui ont déjà eu lieu, la probabilité statistique que chaque coup pris à un joueur confirmé soit une erreur est relativement faible, et probablement suffisamment faible pour pouvoir gagner régulièrement contre l'humain, qui est loin d'être parfait lui même.

    • @cupidonihack
      @cupidonihack 3 месяца назад

      Concernant les erreurs, ne serait il pas possible que l entendement sur un grand nombre de partie ai tendance a "effacer" ce genre de coup qui échappent au déroulement global et logique d une partie ? Je rebondis en posant ma propre question. Parmis les zones du modèle identifiées, existe en il une qui influencerait ou qui serait representative de la psychologie du joueur oubien cela est il "distillé" sur l ensemble du modèle ?@@jujione007

  • @brunobruno9594
    @brunobruno9594 7 месяцев назад

    Vidéo absolument passionnante 👍👍👍. je ne suis pas spécialiste en AI, mais je me dit que l’AI ne cherche pas à « gagner » mais à arriver à l’état finale des parties d’entraînement (elles s’arrêtent quasis toutes de la même manière, roi en échec, non?). Cela suppose qu’elle ait « assimilée » que les deux joueurs recherchent se résultat au travers de leur coups. Au quel cas elle recherche juste la même chose. La couleur ne changera rien, mauvais niveau de l’adversaire ne fera que lui faciliter la tâche, peu importe le point de départ (si cela reste cohérent avec son apprentissage). Bon ok chui p’tet à côté de la plaque 😁

  • @arnaudrosset1358
    @arnaudrosset1358 6 месяцев назад

    Merci pour cette nouvelle vidéo d'une superbe qualité (j'ai toujours été admiratif de vos qualités d'analyse et de pédagogie, mais la dernière série de vidéos sur l'IA dépasse toutes mes attentes).

  • @evildido
    @evildido Месяц назад

    Je découvre cette vidéo que maintenant.
    Je pense que c'est un des meilleurs vidéos sur les LLMs

  • @christopheboucher127
    @christopheboucher127 8 месяцев назад +2

    Merci ! je vais la revoir encore.. Ton texte à 45:45 va dans le sens de ma réflexion pour tenter des expériences. Si dans un prompt système on lui explique qu'il s'agit de jouer, on lui demande d'être soit un gagneur, un perdant, un destabilisateur, qu'on l'encourage à "réfléchir à voix haute", qu'on l'encourage à penser 1 ou plusieurs coups à l'avance etc..
    Et si on monte une petite équipe d'agents pour aider ce joueur : un scrutateur qui relève tous les coups significatifs (à définir), les combinaisons etc en somme toutes ses découvertes, et qu'il les transmette à un agent mémoriel (RAG type MemGPT) etc etc
    Ce serait super intéressant de voir ces résultats, avec surement de l'inattendu
    J'ai beaucoup exploré plein de domaines et de façon de prompter depuis la première semaine d'accès à GPT, des sujets les plus techniques, philosophiques, jusqu'aux champs controversés des psychothérapies disant mêler un peu des neurosciences, sciences du langage (TCC CNV etc), les études de personnalité, carrément l'astrologie pour l'exploration de ses capacités d'abstraction symbolique (en donnant des cartes du ciel complètes environ 105 lignes de planètes degrés maisons etc ), et même reproduit des tirages de tarot de Marseille, pour comparer les interprétations des réponses aux questions trouvés dans des manuels astro et tarot, et c'est vraiment dingue la profondeur de réflexion, la vision globale.. pour les parties psycho (du test magazine, à la simulation de séances thérapies brèves) ça donne vraiment l'impression de sa représentation des sujets (humains, contextuels, historiques et techniques), j'ai eu plus d'une fois clairement ce conflit intérieur en ne comprenant pas comment il pouvait "prédire" ces suites de mots.. réellement fabriquer du sens dans ses analyses, alors qu'il n'est pas censé le faire.. mais bon, juste des expériences empiriques d'un non universitaire, et soumis à des biais :)
    Encore merci et bravo pour tous tes riches contenus !

  • @Enroweb
    @Enroweb 3 месяца назад

    Je suis arrivé sur cette vidéo depuis la vidéo du débat contre R. Enthoven et merci merci, le contenu est passionnant et la forme limpide 🙂 En prime ça fait plaisir de voir un chercheur français qui bosse sur le sujet (en France) et qui met tout en libre accès. Science ouverte ftw !

  • @stephane8551
    @stephane8551 Месяц назад +1

    Impressionnant.
    Cela fait réfléchir à ce que c'est réellement.
    Pour l'instant les IA sont sous forme lignes de codes informatiques, que penser alors, des IA qui seront programmées sur les supports (déjà existant) de processeur neuromorphique à impulsion et puce neuromorphique photonique.
    (Sans parler des bio-processeurs à organoïde cérébrale).
    Le progrès arrive à grand pas, il est évident qu'un jour l'homme sera en mesure de concevoir la conscience artificielle.

  •  8 месяцев назад

    Un grand merci pour cet exercice de vulgarisation, c'est extrêmement intéressant ! Bravo pour votre travail !

  • @Maxime-fo8iv
    @Maxime-fo8iv 8 месяцев назад +9

    Super vidéo, j'imagine bien que monter une vidéo de 48 minutes avec des inserts et des changements de scène réguliers doit être assez épuisant...
    Attention cependant au petit oubli dans la description du lien pour le deuxième article d'Adam Karvonen !

    • @MonsieurPhi
      @MonsieurPhi  8 месяцев назад +4

      Ah oui bien vu merci !

  • @jean-francoisbiragnet7304
    @jean-francoisbiragnet7304 8 месяцев назад

    Cette vidéo est tout simplement ... incroyable ! Merci pour les recherches et le partage !

  • @Nobz1
    @Nobz1 8 месяцев назад

    Un grand merci pour tes vidéos. On sent le très gros travail et c’est à la fois passionnant et très agréable à suivre 😌

  • @lelouch1722
    @lelouch1722 6 месяцев назад +1

    @MonsieurPhi En lien avec ta vidéo sur l'interprétabilité des LLM, as tu jeté un oeil au billet de blog "Mapping the Mind of a Large Language Model" et "Scaling Monosemanticity: Extracting Interpretable Features from Claude 3 Sonnet" d'Anthropic ? Ce sont des versions un peu sous stéroides de sondage des états d'un LLM pour aller plus loin que juste une représentation d'un plateau d'echec.

  • @loic1665
    @loic1665 8 месяцев назад

    Super vidéo encore une fois ! Tes vidéàs sur les LLMs sont vraiment hyper intéressantes et effectivement peu de vidéastes traitent le sujet de manière aussi intéressante !

  • @imachination2560
    @imachination2560 8 месяцев назад

    L’intro est très cool, à la fois claire sur ce qu’on étudie et intriquante
    Faut le dire!

    • @imachination2560
      @imachination2560 8 месяцев назад

      Ce commentaire a été généré par un cerveau humain

  • @TheDarksharcoux
    @TheDarksharcoux 6 месяцев назад +5

    Ce que ça nous apprend, c'est pas que les LLM ne sont pas que des perroquets stochastiques. C'est que NOUS sommes des perroquets stochastiques, même si ça ne plaît pas trop à notre ego

  • @galaan12
    @galaan12 6 месяцев назад

    Wow, j'étais complètement passée à côté de ce petit chef-d'oeuvre ! Merci d'en avoir parlé dans la vidéo sur Enthoven, c'est ce qui m'a fait faire un détour ici malgré la miniature.

    • @MonsieurPhi
      @MonsieurPhi  6 месяцев назад

      Ben qu'est-ce qu'elle a ma miniature ? (Tant mieux si la vidéo t'a plu en tout cas !)

    • @galaan12
      @galaan12 6 месяцев назад

      @@MonsieurPhi En la voyant, je m'attendais à une vidéo de type "je joue aux échecs, l'IA me bat" et pas du tout à toute la partie sur la représentation interne du jeu (après, c'est ma faute : vu le reste de la chaîne et le titre, j'aurais dû faire plus confiance ^^).

  • @julesivanic3533
    @julesivanic3533 8 месяцев назад +5

    La question semble donc ne plus être "Sommes nous tous des zombies?" mais plutôt "Sommes nous tous des LLMs?", non? 🤔😄
    Super vidéo et sujet, comme d'had! Merci 🙂❤

  • @alexys-dussier
    @alexys-dussier 7 месяцев назад

    Incroyable cette vidéo, j'ai appris pleins de trucs !

  • @oaoaow
    @oaoaow 8 месяцев назад

    Masterclass !
    Merci M. Phi; et félicitations !

  • @sylvielefebvre8812
    @sylvielefebvre8812 8 месяцев назад +1

    Merci, j'adore qu'on soit passé de 'mode d'emploi de machine' à 'découvrons/explorons cet être étrange'.
    Par ailleurs, détail pratique : j'ai beaucoup de mal à écouter + d'une piste sonore à la fois - je sais pas si on est nombreux à avoir cette limitation -, mais quand le fond sonore est en + lancinant, perso je n'accède plus du tout à ce qui est dit. Le fond sonore lancinant est fréquent dans la vidéo, ça oblige à couper le son et lire les sous-titres. Mon avis complètement subjectif, c'est que les fonds sonores sont inutiles en général, et que les lancinants devraient être réservés à des accompagnements d'images, pour créer une atmosphère menaçante dans un film par exemple.

    • @oiseaudeminerve1478
      @oiseaudeminerve1478 4 месяца назад

      Je suis d'accord. En plus si tu n'aimes pas la musique en fond sonore c'est encore plus pénible.

  • @w0tch
    @w0tch 8 месяцев назад +11

    Le jour où un LLM bat stockfish, faudra s’inquiéter 😅
    Sujet passionnant ! Le terme de perroquet est réducteur car les réseaux de neurones dont les LLMs sont tous capables de généralisation, c’est à dire de relative nouveauté. Je ne pense pas que être un « bête perroquet » (généralisateur de texte plutôt donc) soit incompatible avec le fait de se faire une représentation poussée du « monde ». Je ne suis à ce titre pas si étonné que ça que de tels représentations émergent au sein de paramètres (poids) des modèles. Mais cela conduit à questionner la notion d’intelligence.
    Autre fait qui me paraît interessant sur les limites des modèles actuels: ce qu’il faut bien comprendre, c’est que la représentation d’une partie d’échec qu’on peut lire dans les activations des neurones à un moment donné n’est pas construite de façon additive/incrémentale, tour après tour, comme c’est le cas dans le cerveau d’un humain. À chaque nouveau coup, l’intégralité de la partie est relue, retraitée et une nouvelle représentation est produite. Cela demande beaucoup de puissance de calculs, et je ne serais pas étonné qu’une nouvelle génération de LLMs bien plus puissants émergent un jour avec la capacité à produire une représentation incrémentale réutilisable en leur sein.
    Enfin, je pense qu’un LLM entrainé sur des parties d’échecs avec l’ensemble du jeu écrit à chaque tour de façon concise serait encore meilleur car il n’obligerait pas le modèle à apprendre à recréer le plateau de jeu dans son état interne et lui permettrait de se focaliser sur des représentations plus abstraites.

    • @battlefield5
      @battlefield5 8 месяцев назад

      Je pense qu'il serait utile de s'inquiéter avant, car au moment où un LLM aura ces capacités, il est probable qu'il en ait d'autres bien moins fun!

    • @oumdead9542
      @oumdead9542 8 месяцев назад

      C'est pas tout à fait vrai le deuxième point, il y a un bien un aspect séquentiel dans la représentation que construit le LLM.
      Premièrement, puisque la tâche est séquentielle, il y a une représentation associée à chaque élément de la séquence (chaque lettre ou mot ou tour). La représentation pour l'élément suivant prédit par le modèle se base sur les représentations des éléments précédant. Il n'est pas nécessaire de recalculer toutes les représentations précédentes non plus. Par contre il est vrai que c'est peut-être inefficace, puisque le LLM garde en mémoire toutes les représentations passées pour construire sa représentation future.
      Mais ça m'amène au deuxième point, il existe déjà une nouvelle génération modèles qui au lieu de garder en mémoire toutes les représentations des instants précédents, gardent seulement en mémoire une seule représentation du passé (qui est une sorte d'addition de tous les instants précédents). Seule cette représentation unique est utilisée pour construire la représentation future, pas celle de tous les instants passés. C'est ce qu'on appelle les "modèles espaces d'états" ou "state space models". Ils sont beaucoup plus efficaces que les LLMs classiques.

    • @w0tch
      @w0tch 8 месяцев назад

      @@oumdead9542 Oui ! Mais ce que je veux dire c’est que la dernière représentation mémorisée donne seulement une info sur le dernier coup joué, qui n’englobe pas toute la partie. À chaque nouveau coup, toute la partie est « reprise » afin de prédire le coup.
      Très intéressant ces nouveaux LLMs, ils sont déjà d’actualité alors !

    • @ronanlavalley9445
      @ronanlavalley9445 4 месяца назад +1

      il y aurait un move intéressant à faire au niveau de la puissance de calcul (et donc de l'énergie consommée) nécessaire pour stockfish vs un LLM entrainé. Et pour combien de parties jouées est-ce que le ratio d'énergie consommée par l'approche algorithmique (énergie proportionnelle au nombre de parties) vs l'approche heuristique (énorme investissement d'énergie pour l'apprentissage et ensuite consommation moindre) s'inverse.

  • @xideuxe7722
    @xideuxe7722 4 месяца назад

    Vidéo passionnante, merci

  • @subsonicdissidence2166
    @subsonicdissidence2166 6 месяцев назад

    Passionnant ! Merci !

  • @gerardjulien2118
    @gerardjulien2118 8 месяцев назад +11

    Honnêtement j'ai une thèse en Deep Learning (aujourd'hui j'ai arrêté la recherche) et tu m'apprends à chaque fois plein de trucs. Chapeau !

  • @romaintello6266
    @romaintello6266 3 месяца назад

    Je découvre ta chaîne grâce au débat face à Enthoven sur la Tronche an Biais. Tes vidéos sont extrêmement intéressantes, je m'abonne direct et j'attends les suivantes avec impatience. 👍

  • @Fangh44
    @Fangh44 8 месяцев назад

    Merci beaucoup pour ce travail et cette vidéo !

  • @daemonsoadfan
    @daemonsoadfan 8 месяцев назад +13

    ah haha la quote de blitzstream sur le pingouin xD cette vidéo est parfaite en attendant le round 9 des candidats :p

    • @hoetre
      @hoetre 8 месяцев назад +2

      Les p'tites interventions de Kevin m'ont régalé ouais

    • @nephandi2316
      @nephandi2316 8 месяцев назад +2

      Tous les clips de Kev insérés dans la vidéos sont extra, on est presque au niveau des BestOf de Ludwig

  • @nathheast5829
    @nathheast5829 6 месяцев назад

    Excellent ! Dans le contexte un peu différent de la génération d'images, Stéphane Mallat montre un exemple de réseau de neurones identiques mais entraînés sur des training sets complètement différents. À partir d'un certain nombre d'exemples (10000 si ma mémoire est bonne), les réseaux génèrent quasiment les mêmes images quand on leur donne la même entrée. Autrement dit ils ont généralisés, ils ne donnent plus des interpolations de visages donnés dans les exemples, ils ont trouvé une représentation interne des visages humains (cours 2023-2024, Apprentissage et génération par échantillonnage aléatoire).

  • @Charles_40K
    @Charles_40K 8 месяцев назад +1

    Merci de faire ces vidéos, je n'en connais pas beaucoup sur le YT francophone pour parler de ces questions et de leurs implications !

  • @Ragnaro-rb4jp
    @Ragnaro-rb4jp 8 месяцев назад

    Bravo pour ta vidéo, super intéressant !

  • @AR-iu7kf
    @AR-iu7kf 8 месяцев назад

    Merci pour ce travail remarquable !

  • @HereIsANewGuest
    @HereIsANewGuest 6 месяцев назад

    Chouette petite vidéo... je voulais faire un petit visionnage au début et puis finalement... voilà.

  • @riverchampeimont
    @riverchampeimont 8 месяцев назад

    Cette vidéo est absolument passionnante ! Je vais tester de jouer aux échecs contre ChatGPT ;)

  • @idh3111
    @idh3111 8 месяцев назад

    Le titre à lui seul m'a fait sourire largement. Dire que j'adore la référence est un euphémisme.

  • @pierrotA
    @pierrotA 8 месяцев назад +33

    Pour moi ce qui est assez marquant, c'est qu'en testant les capacité d'une IA tout le monde va s'appuyer sur les sujets où ils sont experts, où en tout cas tres bon.
    Ici l'exemple est parfait: on demande à une IA de jouer à l'aveugle aux echec à haut niveau, et si ce n'est pas parfait on en deduit que c'est nul... Mais combien d'humains sont capable de faire cela ?
    Personne n'aurait l'idee de demander à une personne au hasard dans la rue de jouer aux echec à l'aveugle, et de deduit qu'elle est debile car elle fait des coups illegaux... Pourtant c'est comme cela que l'on teste l'intelligence des IA.
    Finalement, un LLM sera consideré comme "intelligent" par le grand publique uniquement s'il est bien plus intelligent que lui.
    La moins erreur lui est impardonnable, contrairement aux erreurs humaines, car l'erreur est humaine 😁
    C'est comme les voitures automomes: elle ne seront acceptés par le grand public que si elles sont 100x meilleurs que les humains.
    Le moindre accident d'une voiture automone fait la une des journaux, alors que des humains se crachent tout les jours.
    Je suis content d'enfin voir une video aussi travaillé qui n'a pas pour but principal de demontrer que les IA ne comprennent rien.

    • @miraltar4273
      @miraltar4273 8 месяцев назад +6

      Le cas des voitures autonomes est particulier parce qu'en cas d'accident il faut attribuer une responsabilité mais dans l'ensemble je suis d'accord avec toi

    • @georgepivoine7298
      @georgepivoine7298 8 месяцев назад +6

      C'est un biais qui s'applique aux humains.
      N'avez-vous pas remarqué comme nous avons tous tendance à être plus indulgents envers les personnes qui font des erreurs (de raisonnement ou de morale) que nous avons faites ou sommes susceptibles de faire ? Et comme à l'inverse nous sommes bien moins compréhensifs avec les personnes qui commettent des erreurs que nous n'aurions pas commise, soit par impossibilité de les commettre (occasions manquantes ou facultés spécifiques), soit parce que nous sommes plus attentifs sur ce sujet précis ?
      Or, tant que ces machines seront "vendues" comme prétendant à l'intelligence, elles seront évaluées de la sorte puisqu'elles s'alignent, par "concurrence" pourrait-on dire, sur le jugement que nous aurions vis-à-vis d'un humain. Si elles sont par contre présentées en tant qu'outil d'assistance, il n'y a plus ce problème.

    • @pierrotA
      @pierrotA 8 месяцев назад +2

      @@georgepivoine7298 Commentaire interessant et qui relève un point important, cependant je pense que c'est plus profond que cela.
      Par exemple je suis pas trop mauvais en programmation, mais je n'aurais pas l'idée de juger l'intelligence d'une personne sur la comprehension de mes scripts.
      Je ne vais pas considérer qu'un pote est bête car il n'est pas capable d'ecrire un script parfait.
      Pourtant, je vais rigoler de la bêtise d'un LLM si je lui demande d'ecrire un script et qu'il se plante.
      En bref, il est vrai que tout le monde juge les autres en fonction de ses propre competences et savoir, mais je trouve que l'on est bien plus sévère envers les IA qu'envers les autres humains.

    • @eloiguilbert2281
      @eloiguilbert2281 8 месяцев назад +1

      Il me semble qu'on peut s'attendre d'une IA qui a les données de 50.000.000 de parties d'échecs d'être bien plus forte que l'homme de la rue qui y a joué 5 fois en moyenne. Un joueur professionnel n'a pas étudié le 10ème (probablement le 100ème ou 1000ème) de ce nombre de partie durant toute sa vie.

    • @pierrotA
      @pierrotA 8 месяцев назад

      @@eloiguilbert2281 Certes mais une personne qui etudient des 100ene de sujet ne sera pas expert en tout.
      On oublie pas mal quand on abandonne un sujet, on laisse de la place pour de nouveaux sujets.
      Meme si un humain était immortel et qu'il passait 2000ans à étudier tout les sujets existant, il ne me semble pas qu'il serait un expert de tout.
      Meme s'il arrivait à un niveau 2800elo au echec, au bout de 1000ans à jouer à d'autres jeux, il est presque certain qu'il ne se rappellerait meme pas comment bouger les pièces.
      Des gens qui se retrouve isolé pendant quelques années arrivent à peine à se rappeller comment parler.
      Ici on s'attend à ce que les IA soient des *expert de tout tout le temps* alors qu'elles aussi ont certainement des limites.
      Elles ne peuvent pas stocker une quantité infini de visualisations, et comme nous elles doivent "choisir" entre laisser de la place pour le reste ou limiter ses capacités en tout.

  • @comedelage1282
    @comedelage1282 7 месяцев назад

    Les extraits de Blitzstream me terminent à chaque fois 😂
    Super vidéo !

  • @richystocles
    @richystocles 6 месяцев назад

    Merci d'exister dans le paysage francophone 👍

  • @OL9245
    @OL9245 8 месяцев назад +13

    Très heureux de l'évolution de la position de la chaîne sur les LLM depuis les premières vidéos très négatives et péjoratives. Bravo pour le cheminement. Les LLM n'ont pas fini de nous étonner.

  • @FabienSola
    @FabienSola 8 месяцев назад

    Incroyable ! Merci Thibaut de partager tout ça avec nous! 😊

  • @ericmeurice1438
    @ericmeurice1438 8 месяцев назад +1

    Bonjour, merci pour ton travail.
    C'est bien de parler de LLM et pas d'I.A..
    Il n'y a pas d'intelligence artificielle consciente.
    Ces programmes experts sont des aides précieuse mais en aucun cas des décisionnaires.
    Ils traitent exclusivement des nombres, pas des idées.
    La différence avec un cerveau biologique est l'architecture.
    Un cerveau biologique traite en même temps des millions voir des milliards de fois plus d'informations.
    Pas très vite, mais en masse.
    Par contre pour traiter de problème contenu dans un espace fermé, ces programmes peuvent être beaucoup plus rapides que l'homme, dans des domaines fermés.
    Bonne continuation.

  • @Ceelvain
    @Ceelvain 8 месяцев назад +4

    Cette notion de représentation, même pour des très petits réseaux de neurones (même à une seule couche cachée) est connue depuis les années 80 / 90 si je ne me trompe pas. En tout cas, Goeffrey Hinton en parle depuis longtemps.
    L'existence de ces représentations n'invalide pas totalement la métaphore du perroquet stochastique, vu qu'au final, ça décrit surtout la tâche "prédire le token suivant".
    La question qu'on pourrait se poser c'est plutôt : les humains sont-ils plus que des perroquets stochastiques ?

    • @dakys3660
      @dakys3660 8 месяцев назад

      La question c'est qd même de savoir comment le réseau prédit le token suivant sur base de cette représentation. Par exemple si on propose à chatGPT 4 de résoudre un problème complètement inventé, techniquement pour pouvoir prédire cette série de mots il doit avoir une représentation interne de ce qu'est un raisonnement correct, sinon je vois pas comment il pourrait résoudre des problèmes inédits fiablement. Il faudrait un peu creuser en quoi cette représentation interne du raisonnement correct ne se rapproche pas de ce qu'on appelle la compréhension, pcq la y aurait une sorte d'accès au général, à l'abstrait qui semble différer du simple perroquet stochastique.

    • @Ceelvain
      @Ceelvain 8 месяцев назад

      @@dakys3660 Une *représentation* ça représente un concept. Pas un raisonnement. En l'occurrence, ils ont montré l'existence d'une représentation de l'état du plateau.
      On pourrait probablement y trouver une représentation du niveau des deux joueurs (similaire au elo) ainsi qu'une représentation de l'issue probable de la partie (à quel point c'est bien parti pour les blancs).
      Ces *représentation* sont portées par l'activation des neurones pour une certaine input (un prompt).
      On ne parle pas de représentation pour le "raisonnement". Lui, est porté par les poids synaptiques. (C'est un coefficient qui dit à quel point l'activation d'un neurone contribue à l'activation d'un autre neurone.) C'est eux qui sont ajustés pendant l'apprentissage et sont ensuite fixés pour l'utilisation du modèle.
      Et je met "raisonnement" entre guillemets parce que justement, il n'y a pas de raisonnement explicite dans un réseau de neurones.
      On pourrait s'amuser à regarder où se trouvent les neurones qui participent beaucoup à la représentation de l'état actuel du plateau ainsi que ceux qui participent beaucoup à la représentation du changement prédit du plateau (sa "décision"). On les trouverait probablement proche de l'entrée et de la sortie respectivement. Et puis ben... c'est les poids et les neurones intermédiaires qui font le lien entre les deux.
      Quand on présente un problème inédit au modèle, il va utiliser ses mêmes poids (il a pas tellement le choix 😆) pour prédire le prochain token. Et donc en fait... il va - vu de l'extérieur - "appliquer le même raisonnement".
      Avec plein de caveat tout partout par rapport aux situations statistiquement très inhabituelles (hors de la distribution) qui peuvent amener à des représentations erronées ou à des "raisonnements" faux.
      C'est donc pour ça que je suis fortement enclin à considérer que les LLM sont des perroquets stochastiques sur des représentations.
      Mais les humains sont-ils vraiment différent ?

  • @ollier111
    @ollier111 8 месяцев назад

    Super video ! Le papier d'Adam Karvonen n'a pas encore été reviewé pour la conf COLM 2024 si je comprends bien. Je n'avais pas vu passer les recherches récentes sur l'interprétation du World model dans l'espace latent mais les résultats ouvrent des perspectives qui vont bien au delà des LLM et des jeux d'echec. Si on est capable de généraliser la méthode à tous les types de modèle DL et toutes les tâches ça permettrait d'introduire la notion de raisonnement dans ces modèles et là on aurait vraiment des modèles beaucoup plus performants (et surtout avec résultats fiables). Mêmes pour les véhicules autonomes ça pourrait régler beaucoup de problèmes.

  • @BreizhOnNet
    @BreizhOnNet 8 месяцев назад

    Une vidéo qui remet en question la perception des LLM que j’avais, très très intéressante. La présence impromptue du Kev m’as bien fait rire ^ ^

  • @bernardsimon3289
    @bernardsimon3289 8 месяцев назад

    j'adore tellement ce sentiement quand une vidéo de monsieux phi apparait dans mon feed, qu'elle fait 50 min et que je sais ce qui vas me trotter dans la tete pour le prochain mois !

  • @SergentTiToo
    @SergentTiToo 8 месяцев назад

    Passionnant merci

  • @dlep9221
    @dlep9221 8 месяцев назад

    Merci votre vidéo est passionnante. Depuis le début de l'émergence des LLM, je pense que ces modèles fonctionnent comme une partie de notre raisonnement dit "intelligent" autrement dit la prédiction stochastique n'est pas si loin de la manière dont nous fonctionnons en matière d'intuitions (basée sur l'expérience et la mémoire et pour le LLM l'assimilation d'une énorme quantité de données et de paramètres). Un biais nous empêche probablement de le comprendre ou de l'accepter.

  • @zadokallenpiano
    @zadokallenpiano 8 месяцев назад +1

    très bonne vidéo !
    Je serais très curieux de te voir faire une vidéo questionnant la créativité de ces IA lorsqu'elles jouent, et étendre ce questionnement sur les IA qui génèrent des images/textes

  • @chocochip8402
    @chocochip8402 8 месяцев назад

    Merci pour cette excellente vidéo ! Je suis d'accord qu'un modèle GPT entraîné sur un dataset humain ne peut probablement pas dépasser le niveau humain (ou juste de peu éventuellement), mais il pourrait sûrement le dépasser avec un algorithme du même type que celui avec lequel AlphaZero a été entraîné. Le problème n'est pas l'architecture du modèle en lui-même, ni la prédiction du prochain token, mais le dataset d'entraînement, qui pourrait être généré artificiellement comme pour AlphaZero.

  • @GabrielBonnin
    @GabrielBonnin 8 месяцев назад +1

    Whoo merci pour cette nouvelle vidéo ❤ ! Je n'ai quand même pas très bien compris comment fonctionnent les "sondes" pour comprendre la représentation du LLM. mais je vais aller creuser ca 😊.

    • @Masterpouya
      @Masterpouya 8 месяцев назад

      Idem, hyper intéressé par ces fameuses sondes et leur fonctionnement !

  • @raph2550
    @raph2550 6 месяцев назад

    Super vidéo

  • @TKZprod
    @TKZprod 8 месяцев назад

    Extrêmement intéressant ! Le principe des sondes pour constater la représentation interne du modèle c'est génial.

  • @MrMeneldor
    @MrMeneldor 8 месяцев назад

    Toujours au top.

  • @alexiobec3426
    @alexiobec3426 8 месяцев назад +4

    Quand tu parles de Mixtral 8x7b, je crois que la prononication c'est "8 fois 7 b" parce que l'architecture est fait à partir d'une mixture of experts qui en gros mélange l'expertise de 8 modèles mistral 7b

  • @joannickgardize1016
    @joannickgardize1016 8 месяцев назад +2

    Je suis développeur et quand j'étais plus jeune, j'expérimentais l'intelligence artificielle avec des réseaux de neurones artificiels.
    Aujourd'hui, j'ai fais mon basculement écologique, sociologique et systémique, et ce sujet me laisse un goût amer : ces IA nous renferment sur nous-mêmes, à l'ère où on doit justement faire des pas de côté face à la crise existentielle totale qui nous fait face.
    En bref je suis piégé dans un métier technologique alors que je deteste aujourd'hui ce techno-optimisme.
    D'autant que l'IA repose sur l'informatique qui repose lui même sur une industrie forte et une abondance énergétique, qui sont à leurs limites physiques (quand y'a plus y'a plus, quand l'environnement est dégradé on en subit les conséquences etc) et cesseront, progressivement depuis les chocs pétroliers des années 70, mais des effets boule de neige peuvent avoir lieu et engendrer des catastrophes.
    Autrement dit l'IA ne sera plus là quand on aurait crû en avoir le plus besoin (ce qui n'est pas le cas selon moi).
    Ce serait bien un épisode philo critique sur notre enthousiasme sur l'IA du fait de sa nature, ses limites, et les enjeux de notre temps 🙂

  • @louloudum4
    @louloudum4 8 месяцев назад +6

    Je comprends pas pourquoi la représentation interne serait antagoniste au concept de perroquet stochastique ? Je veux dire si on lui file QUE des pgn qui sont littéralement des fichier facilement parsable (et donc predictible) ça parait pas aberrant que la représentation interne ne soit pas de surface de toute façon. Il voit des paternes et reaplique de manière abstraite ce qui colle au paterne. Dire que pour qu’il y ait du paterne matching faut que les configurât soit unique ça me parait gros. C’est comme les modèles de ML qui font de la reconnaissance d’image, t’as pas besoin d’avoir exactement le même chat dans la DB pour pouvoir le reconnaître plus tard, y a de l’inference quand même.

  • @pabloleberger7936
    @pabloleberger7936 8 месяцев назад

    Je ne sais pas encore si j'aurai le temps d'ouvrir la vidéo mais, bravo pour ce titre.
    C'est con comme commentaire mais j'ai pas pu résister.

  • @TheonlyShinji
    @TheonlyShinji 8 месяцев назад

    Merci beaucoup, c'est passionnant et si bien expliqué 👍👍🙏🙏

  • @guillaumecoter1865
    @guillaumecoter1865 8 месяцев назад +1

    Excellente vidéo (comme d'habitude) ! Ca serait aussi intéressant de tester tout ça avec des modèles ouverts (Llama 2, Mistral, ...) dans leur version de base (pas la version chat donc) 😉

  • @TheChaussonkiwi
    @TheChaussonkiwi 8 месяцев назад

    Trop génial ! Tes vidéos sur les LLM sont les meilleures !

  • @dantelacroix8044
    @dantelacroix8044 8 месяцев назад +1

    Vraiment très instructif.
    Bravo !

  • @frombeyond
    @frombeyond 5 месяцев назад

    Les LLMs permettent, au delà des avancées techniques concrètes, de rebattre un peu les cartes des possibles en IA. C'est passionnant et effrayant à la fois. Merci pour cette vidéo de grande qualité ! Comme d'habitude, c'est sourcé, propre, intéressant et avec la bonne dose d'humour en bonus. Et merci encore pour toute ton œuvre Thibaut ! Hâte de voir la suite.

  • @RobinNashVideos
    @RobinNashVideos 8 месяцев назад

    Classique "p'tite vidéo" de 50 mins de Mr. Phi
    Hyper intéressant !!

  • @valenpin4483
    @valenpin4483 8 месяцев назад

    Vraiment incroyable, je veux encore plus de vidéos sur les LLM !

  • @oomphsayou3445
    @oomphsayou3445 8 месяцев назад

    Je suis scotché par les résultats sur les représentations internes d'Othello-GPT. Ces résultats sont spécifiques au LLM ou on a déjà réussi à créer de genre de représentations dans d'autres réseaux de neurones ?

  • @Algneo
    @Algneo 8 месяцев назад +19

    Faut que tu t'intéresses à la théorie de la complexité de Kolmogorov qui donne une intuition de ce que c'est que de « comprendre » : représenter des choses de façon compressées, ou dit autrement plus abstraite. Et pour les LLM, ou les réseaux de neurones en général, être en capacité de produire bien plus de données que d'information que contiennent leur modèle montre que ces données qu'ils produisent ne sont pas stockés directement mais que ce sont des représentations abstraites/compressées qu'ils contiennent. Donc qu'il y a compréhension en un certain sens.
    C'est juste qu'ils n'ont pas tendance à comprendre comme nous, parce qu'ils n'apprennent pas directement des concepts, ils sont obligé de converger vers ces concepts via des données. Donc les concepts vers lesquels ils tendent sont plus approximatifs que les nôtres, moins formalisés. Un modèle génératif par exemple si on lui dit de faire du pixel art va faire quelque chose qui y ressemble mais ses "pixels" seront parfois arrondi. Il comprend une version approximative du concept de pixel, parce qu'il l'apprend via des données et pas via une définition comme nous. Ça montre aussi que nos méthodes d'entraînement ne sont pas forcément optimales, pas les meilleurs moyens d'arriver vers l'AGI, on n'a pas de garantie que ça suffise pour converger vers une bonne représentation du monde - ce qui demanderait d'ailleurs probablement non-pas des modèles plus gros mais des modèles plus petits ; certains papiers montrent déjà que les LLM actuels ont beaucoup de couches redondantes, ce qui tend à montrer l'inefficacité de notre approche de juste augmenter la taille pour l'instant.

    • @pierrotA
      @pierrotA 8 месяцев назад +3

      Balade toi dans la rue avec une feuille et un stylo et demande à plusieurs personnes totalement au hasard de dessiner quelque chose en pixel-art... Il y a de très grandes chances que personne ne fasse mieux.
      Le truc, c'est que l'on demande aux IA generatives d'etre des experts d'absolument tout... Hors elles sont deja bien meilleurs que nous dans leur domaines.
      Si je demande à une personne au hasard dans la rue de faire du pixel-art et que cette personne ne connait pas tout les codes du formats, ou qu'elle ne sait pas bien dessiner et c'est moche, ca ne veut pas forcement dire que cette personne est bête...

    • @TerraformeAnyway
      @TerraformeAnyway 8 месяцев назад

      Lorsque les modèles sont trop petits, on ne se mange pas de plein fouet les problèmes de non-convexité et d'optima locaux?
      Je pensais qu'on augmentait la dimension pour donner "du mou" au réseau, pour faire en sorte ques les optima locaux correspondent quand même à des solutions satisfaisantes.

  • @ragnagna4276
    @ragnagna4276 8 месяцев назад

    Serait il possible de tester la capacité du LLM à jouer à des types d échecs avec moins de Data (exple: échecs hexagonaux) pour vérifier l influence de la quantité de data d entraînement sur sa capacité à jouer ?

  • @wizardslab3143
    @wizardslab3143 8 месяцев назад +2

    Si les LLM sont capables de développer des représentations internes, et si ces représentations sont de plus en plus complexes dans le futur, pourrait on arriver à une représentation interne de la douleur ou du plaisir et par conséquent le LLM serait sentient ? C'est perturbant et fascinant de se dire que cela pourrait arriver. Je ne suis pas certain que ce soit souhaitable cependant. Merci pour cette vidéo très intéressante!

    • @johncat3315
      @johncat3315 8 месяцев назад +1

      La réflexion est bonne, mais en vérité la notion de douleur et de de plaisir précède.
      On génère les modèles sur des principes de punition récompense et on l'encourage à aller vers la récompense.
      Donc à chaque fois que tu utilises un llm et que tu likes sa réponse tu lui fais plaisir, et inversement tu le fait souffrir si tu le dislike.
      Un modèle que tu ne ferais que validé serait sûrement très content mais inutile, de la même manière qu'un modèle dont tu rejettes toutes les réponses ou de manière complètement aléatoire, celui ci donnant alors des résultats aléatoire

  • @Brodbeni
    @Brodbeni 8 месяцев назад

    Mais c'est ultra cool comme analyse.
    Petite question en plus sur la partie "le LLM s'adapte au niveau".
    En quoi ça motive le modèle ?
    c'est une forme de contextualisation (car il faut bien l'avouer, il reste moyen car il remettent jamais en question le postulat de départ) ou bien c'est juste des raccourci de feneantise (qui a dit que c'était réservé au humain !?).
    Merci ces sujets sont trop cool

  • @burst8987
    @burst8987 8 месяцев назад

    Merci pour cette vidéo !
    Par contre, j’ai pas compris comment les sondes marchent.

  • @lunatiquepragmatique3590
    @lunatiquepragmatique3590 8 месяцев назад

    Comme souvent cela semble un sujet aride mais tu arrives à le rendre accessible et très intéressant. Merci à toi pour cette vidéo de grande qualité et tout le travail que tu as du fournir pour produire un tel contenu. Chapeau bas

  • @phenphen5656
    @phenphen5656 8 месяцев назад

    Je commence juste à regarder la vidéo mais avant d'oublier, je mets un petit com' pour le référencement. Merci pour la vidéo ❤

  • @johnnydaubes3156
    @johnnydaubes3156 8 месяцев назад

    Le jeu d'échecs d'un point de vue analytique consiste souvent à rendre mentalement une position plus claire grâce à une approche discriminante des coups possibles. Trouver le meilleur coup revenant ainsi à éliminer tous ceux qui lui sont inférieurs. La rapidité à faire cela se base au début sur les logiques de déplacement des pièces puis petit à petit évolue vers une recherche de détection et de prise en compte de patterns de comportements stratégiques vis-à-vis de typologies de positions avec des caractéristiques données. On peut vectoriser l'un comme l'autre et voir ainsi comment se matérialise d'un point de vue stochastique une évolution de la profondeur d'analyse qui fera ressembler de discrimination statistique multi-factorielle à de l'intelligence. On peut ensuite considérer que ce premier palier d'évolution de la mise en vecteurs est susceptible d'être complété et répété de multiples fois pour que le système se perfectionne y compris au-delà de notions que nous avons en tant qu'humains déjà validées ou théorisées. La vraie question induite est pour moi davantage de savoir si notre cerveau n'a pas neuronalement parlant la même démarche d'apprentissage et de renforcement ?

  • @Maximetony
    @Maximetony 3 месяца назад

    Je vais prendre l’habitude de commenter tes vidéos pour en améliorer le référencement.

  • @EmmanuelDufour
    @EmmanuelDufour 8 месяцев назад

    Les sondes permettant de mesurer l'état interne d'un LLM, si je comprends bien, c'est comparable en neurologie à des électrodes d'encephalogramme, voir à une IRM fonctionnelle ?

    • @hoetre
      @hoetre 8 месяцев назад +1

      Oui dans l'idée. En gros une "sonde" ça va être une fonction dont le role est de prédire, à partir de l'état du réseau, le contenu d'une case du jeu. Le raisonnement est ensuite le suivant : si il est possible de concevoir une sonde qui arrive à prédire le contenu d'une case, alors c'est que l'information est là (sous une forme pas super limpide, mais elle est là).
      Donc les sondes ont pour rôle de mesurer une activité du LLM (ça c'est facile, et analogue à un ECG ou autre) et en plus à "interprêter" l'information mesurée (le boulot d'un neurologue ou d'un logiciel adapté qu'on utiliserait ensuite).

  • @claraalvarez3247
    @claraalvarez3247 8 месяцев назад +1

    J'aime bien tes vidéos qui sont pourtant très éloignées de mes centres d'intérêt et d'expertise, et celle ci en particulier m'as fait mettre les choses en perspective... Au vu des questions que les chercheurs se posent aujourd'hui et des "connaissances" du grand public sensibilisé ou non a la science, l'esprit critique et/ou les nouvelles technologies, je crois entrapercevoir l'état des croyances et des connaissances des humains du passé sur plein de questions par exemple sur l'astronomie, la médecine etc... Ça me fascine 😊 et ça renforce l'idée que les 'anciens' n'ont jamais été bêtes et on toujours chercher à répondre aux questions scientifiques !

  • @pierredonias8940
    @pierredonias8940 8 месяцев назад

    Pourquoi RUclips me recommande plus les vidéos de cette chaine ? Je viens de remarquer que j'ai raté les 10 dernières alors que je les regardais presque toutes.

  • @LeBerurier111
    @LeBerurier111 8 месяцев назад

    Par extension, les LLMs devraient être utile pour comprendre (et pouvoir modifier) les séquences d’ADN ?

  • @guillguill5040
    @guillguill5040 6 месяцев назад

    Tres interessant

  • @charlieramone8666
    @charlieramone8666 8 месяцев назад

    Très intéressant 😊

  • @eolien5518
    @eolien5518 8 месяцев назад +1

    Il y a un nombre énorme de paramètres sur lesquels on peut jouer pour atteindre un but avec un LLM comme GPT (prompt, données d'entraînement...). Le machine learning permet de régler un nombre énorme de paramètres dans le but d'atteindre un certain résultat. Est-ce qu'on aura bientôt des modèles de machine learning créés pour tirer le meilleur des LLMs ?
    Et peut-être dans le futur, des modèles de modèles de modèles de...

  • @arnaudb.7669
    @arnaudb.7669 8 месяцев назад

    Passionnant comme d'habitude.
    Merci!