Transformers : têtes d'attention et couches
HTML-код
- Опубликовано: 16 сен 2024
- Dans cette vidéo, on poursuit ce qu'on a vu sur le Transformer dans la première vidéo de la mini série, on y voit comment et pourquoi ajouter plusieurs têtes d'attention et faire étendre les calculs sur plusieurs couches.
La première vidéo sur les Transformers, utile pour comprendre cette vidéo : • Comprendre les Transfo...
Rejoindre la communauté Machine Learning FR : / discord
Me suivre :
Github : github.com/Pro...
Twitter : / alexandretl2