Спасибо! Наконец-то стало понятно про трансформер и attention, пока обращался к оригиналам, казалось все какой-то магией, а теперь вполне интуитивна архитектура
Прикладных примеров не хватает. Голая теория не очень интересна. Нужно прям в коде показать как делается и как работает. Что есть в библиотеках и как пользоваться. Про self-attention хотелось бы подробнее как делать.
Спасибо! Наконец-то стало понятно про трансформер и attention, пока обращался к оригиналам, казалось все какой-то магией, а теперь вполне интуитивна архитектура
Здорово, что есть очень классные гифки с понятным объяснением. Спасибо!
Отлично обьсяняешь! Ждем продолжения с обзором более актуальных технологий
в эпоху чат гпт o1 необычно смотреть видео в котором появился только gpt2
Прекрасное объяснение, спасибо!
Отличное объяснение, крутая работа
офигенная лекция. все понял!
Отлично объяснено, все понятно, спасибо
Top. Thanks
Прикладных примеров не хватает. Голая теория не очень интересна. Нужно прям в коде показать как делается и как работает. Что есть в библиотеках и как пользоваться. Про self-attention хотелось бы подробнее как делать.
Раньше же было по-другому: любой язык переводился на некий промежуточный (типа эсперанто?), а потом с него на конечный язык?
Можете посоветовать где почитать про реализацию rnn используя только python and numpy?
книга "создаем нейронную сеть " Тарик Рашид