台大資訊 深度學習之應用 | ADL 7.1: Attention Mechanism 注意力機制

Поделиться
HTML-код
  • Опубликовано: 15 янв 2025

Комментарии • 7

  • @u123u2
    @u123u2 2 года назад +4

    講得非常清楚,真的很感謝老師分享,想請問注意力的權重a,每一個encoder的a相加會等於1嗎?

    • @VivianMiuLab
      @VivianMiuLab  2 года назад +1

      經過softmax後會讓所有的weight總和為1沒錯。

  • @pkwanga
    @pkwanga Год назад +2

    我想請問,value的意義是什麼? 不用value,只有query, key也能得到attention score,為什麼要有value的存在?

    • @Hali_Yuta
      @Hali_Yuta 7 месяцев назад

      推 求解value的意義

  • @傅浩敬
    @傅浩敬 Год назад

    老师,您好。请问课件在哪里可以获取?谢谢

  • @user-rr9hx7fr3u
    @user-rr9hx7fr3u 9 месяцев назад

    nice lexture !!!!! for me to udnerstand this mechanism , i am not cs background.

  • @jasonchan7216
    @jasonchan7216 Год назад

    疯狂按赞