Comprendre les Transformers et les mécanismes d'attention

Поделиться
HTML-код
  • Опубликовано: 24 янв 2025
  • НаукаНаука

Комментарии • 56

  • @MachineLearnia
    @MachineLearnia 4 года назад +43

    Quel plaisir de revoir une vidéo de ta part sur RUclips !

    • @FloNocode
      @FloNocode 4 года назад +2

      En espérant que ce soit le début d'une longue série de vidéo :D.

    • @elouatimohamed3792
      @elouatimohamed3792 4 года назад +1

      En manque bq tes vedio machine learnia

    • @lucienkahozi3314
      @lucienkahozi3314 2 года назад

      nous aimerions aussi que tu fasses une video sur le sujet, ta pedagogie et tes animations sont vraiment utile Machine Learnia. Merci

  • @arishali9248
    @arishali9248 4 года назад +2

    You deserve more views and more subscribers, I am in love with your channel !!

  • @renemiche735
    @renemiche735 4 года назад +1

    merci. J'attendais une vidéo sur le sujet en français depuis longtemps et je suis d'autant plus heureux que ce soit toi qui la traite, car tu es un excellent pédagogue.

  • @joslinmartinez9218
    @joslinmartinez9218 3 года назад +1

    Cette vidéo et le live coding que tu as fais sont de grande qualité et m'ont permis de comprendre cette architecture et la façon dont on peut coder ce genre de choses ! Merci beaucoup :)

  • @MsBowner
    @MsBowner 2 года назад +2

    Excellent Thibault !

  • @arminsmajlagic2907
    @arminsmajlagic2907 2 года назад

    I'm learning french and deep learning at the same time with you :D Thank you very much, well explained.

  • @alh7839
    @alh7839 2 года назад

    c'est si clair, bien dans les détails en expliquant bien des notions complexes, gg

  • @sargan7851
    @sargan7851 4 года назад +1

    Content de revoir des vidéos ... et le son est super bon.

  • @moussabamba6216
    @moussabamba6216 4 года назад +1

    Super vidéo et bien expliquée , merci pour ce tuto , on attend le TP

  • @boukaryouedraogo9554
    @boukaryouedraogo9554 4 года назад +2

    Bon retour Thibault.

  • @Leo-hi3to
    @Leo-hi3to 4 года назад +1

    Content de te revoir !!

  • @MachineLinguist
    @MachineLinguist 4 года назад +5

    Merci pour cette vidéo 🙏. C’est super bien expliqué.

  • @abderrahmanemabroukmerabet9274
    @abderrahmanemabroukmerabet9274 3 года назад

    Ce que tu fais est supe, continue c'est tres bien detaillé

  • @alainrieger6905
    @alainrieger6905 3 года назад

    Merci Monsieur pour tout ce que vous rendez accessible

  • @arishali9248
    @arishali9248 4 года назад +1

    Amazing video, thanks for the explanation

  • @jeanpeuplu3862
    @jeanpeuplu3862 2 года назад

    13:17 : ASMR pour penser à nous hydrater ; merci 🥰

  • @hassanaghdaoui5138
    @hassanaghdaoui5138 4 года назад +1

    Sujet très intéressant , super vidéo

  • @14Tyrion
    @14Tyrion 4 года назад +2

    Très bon travail !! Effectivement un TP pratique serait le bienvenu =)

  • @ahmedel-azharjebbari8806
    @ahmedel-azharjebbari8806 3 года назад +1

    Très bien expliqué !

  • @bradleyadjileye1202
    @bradleyadjileye1202 2 года назад +1

    Merci pour cette vidéo

  • @adrien123_
    @adrien123_ 4 года назад +1

    Super vidéo, sujet très intéressant !

  • @hadjerhamidou1586
    @hadjerhamidou1586 2 года назад

    Merci pour ces explications

  • @laurentpourchot4649
    @laurentpourchot4649 3 года назад +3

    Hello, merci pour cette video. Un exemple avec keras (ou Pytorch) serait top :-)

  • @lucienkahozi3314
    @lucienkahozi3314 2 года назад

    merci pour cette videos tres instructive bro !

  • @denisbories
    @denisbories 4 года назад +3

    Merci beaucoup pour ces explications claires 👏 Les propositions d’une séance de live coding ou une autre vidéo qui rentrerait dans les détails d’autres applications sont aussi intéressantes l’une que l’autre donc l’idéal serait de faire les 2 😬😇😷

  • @cedricmanouan2333
    @cedricmanouan2333 4 года назад +1

    Heureux de te revoir TN 😏

  • @damienbouchabou1311
    @damienbouchabou1311 4 года назад +3

    Superbe vidéo d'introduction aux transfomers. Je suis très intéressé pas le live coding d'un transfomers en keras. Et aussi très intéressé par l'explication d'application de transformer a d'autres domaines

  • @ElMeneniNaima
    @ElMeneniNaima Год назад

    merci beaucoup vraiment 🤍🤍🤍

  • @walidayadi5752
    @walidayadi5752 4 года назад +1

    BRAVO ! Vidéo TOP !

  • @anthos.8097
    @anthos.8097 3 месяца назад

    Le mec explique mieux que mes profs au MIT 💀

  • @elouatimohamed3792
    @elouatimohamed3792 4 года назад +1

    Parfait 😍😍 merci bq

  • @franklouenkam8820
    @franklouenkam8820 3 года назад

    Merci infiniment😍😍😍

  • @vincentb.8743
    @vincentb.8743 4 года назад +1

    Oui l'application des transformers serait très intéressant

  • @hamadoumossigarba1201
    @hamadoumossigarba1201 9 месяцев назад

    Bonjour,
    Merci pour la qualité de la présentation et de clarté dans vos explications. Est -ce que le transformer peut être utilisé pour enregistrer et distribuer des données (codes imei et imsi)?
    Pourrai-je si possible avoir ce papier?

  • @trucsetastucesia
    @trucsetastucesia 11 месяцев назад

    salut Thibault , est-ce que tu aurais un schéma où on retrouve en terme simplifié cette suite d'opérations : prompt - token - vecteur - tête d'attention - décodeur ?

  • @khaberislam8957
    @khaberislam8957 4 года назад +2

    Merci ..

  • @lz8oo8zl
    @lz8oo8zl 4 года назад +1

    Je ne comprends pas un truc. A quoi sert réellement le FFN dans l'encoder et le decoder ? Chaque token va passer dans un réseau de neurones mais je ne vois pas ce que ça apporte au modèle. Quel impact ces réseaux ont sur l'information?

  • @yacinemamdouh1271
    @yacinemamdouh1271 3 года назад

    Je comprends pas pourquoi on a 8 têtes d'attention à 32:35 ?
    Merci pour la vidéo

  • @bekabd
    @bekabd 4 года назад +1

    Merci

  • @benoitmialet9842
    @benoitmialet9842 8 месяцев назад

    une question qui me hante : la masked self attention ne devrait intervenir UNIQUEMENT que lors de l'entrainement, car on place en input de decoder une séquence contenant la réponse (les tokens futurs). donc, en quoi la masked self attention intervient durant un processus de génération (une fois le modèle entrainé), puisque les tokens encore non générés n'existent tout simplement pas ? Merci de tout éclairage !

    • @ThibaultNeveu
      @ThibaultNeveu  8 месяцев назад +1

      En effet, seulement utile a l'entrainement

    • @benoitmialet9842
      @benoitmialet9842 8 месяцев назад

      @@ThibaultNeveu merci je me sens moins seul maintenant 🤣

  • @animewatcher-bk9ur
    @animewatcher-bk9ur День назад

    Je cherche des livres ou ressources approfondies (en français ou en anglais) pour maîtriser les Transformers en IA. J’ai déjà des bases en IA et en maths, et je souhaite acquérir une compréhension détaillée, en partant des fondamentaux jusqu’aux architectures modernes et avancées.
    Idéalement, je cherche des ouvrages que je peux suivre progressivement, me permettant de monter en difficulté au fil de l’apprentissage.
    Si vous avez des références solides couvrant ces aspects, je suis preneur !
    Merci d’avance !

  • @soelreza1430
    @soelreza1430 3 года назад

    Salut ! Tes vidéos sont super ! Merci beaucoup
    Dis moi est ce que le mécanisme d’attention peut être utilisé non pas pour le traitement de language mais pour prédire des variables numériques continue comme par exemple pour prédire le kwh d’un compteur électrique qui change toutes les 10s

  • @automatescellulaires8543
    @automatescellulaires8543 2 года назад

    J'adore le premier Transformers. Michael Bay is all you need.

  • @jean-marcbereder4231
    @jean-marcbereder4231 3 года назад

    excellent

  • @simonarduin8600
    @simonarduin8600 3 года назад

    nice

  • @elouatimohamed3792
    @elouatimohamed3792 4 года назад +1

    Et aussi il faut L'implémentation svp

    • @samuelhamache103
      @samuelhamache103 3 года назад

      il a donné toutes les informations pour coder. Pas besoin de plus.

  • @Saens406
    @Saens406 2 года назад

    rien compris

  • @WahranRai
    @WahranRai 2 года назад +1

    Affreux melange du français et de l'anglais !

    • @lbognini
      @lbognini 2 года назад

      Les documents d'origine sont en anglais et ce sont des concepts relativement nouveaux. Que voulez-vous qu'il fasse? Commencer par faire du boulot de traduction avant celui d'explication?
      On aurait bien aimé que les papers d'origine soit en français.
      Pour l'heure, souffrons de ce mélange.

  • @blancanthony9992
    @blancanthony9992 2 года назад

    Merci