Transformers : têtes d'attention et couches

Поделиться
HTML-код
  • Опубликовано: 16 сен 2024
  • Dans cette vidéo, on poursuit ce qu'on a vu sur le Transformer dans la première vidéo de la mini série, on y voit comment et pourquoi ajouter plusieurs têtes d'attention et faire étendre les calculs sur plusieurs couches.
    La première vidéo sur les Transformers, utile pour comprendre cette vidéo : • Comprendre les Transfo...
    Rejoindre la communauté Machine Learning FR : / discord
    Me suivre :
    Github : github.com/Pro...
    Twitter : / alexandretl2

Комментарии • 7