Deep Learning入門:Attention(注意)

Поделиться
HTML-код
  • Опубликовано: 20 дек 2024

Комментарии • 25

  • @colortash7259
    @colortash7259 3 года назад +7

    Attentionをここまでわかりやすく言語化できる方がいらっしゃるとは!!神!

  • @fudousanphp
    @fudousanphp 3 года назад +2

    むつかしい内容をすごいコンパクトにまとめましたね。単純にすごい

  • @daisukeasaki4971
    @daisukeasaki4971 2 года назад +1

    最高な解説動画ありがとうございます。

  • @MultiYUUHI
    @MultiYUUHI Год назад +1

    なんて素晴らしい動画

  • @naganaga1453
    @naganaga1453 4 года назад +6

    わかりやすい解説で助かります

  • @yamafu
    @yamafu 4 года назад +3

    素晴らしい!ニューラル機械翻訳で、特にイメージがつかみにくいが、非常に重要そうな"attention"というもの。それを人間が翻訳する場合になぞらえて解説されています。それに続けて、少し具体的な計算に入っていきます。はじめて見ました、こんなすばらしいattentionの機械翻訳への適用!

  • @ンシノ-f2b
    @ンシノ-f2b 3 года назад +1

    すっごいわかりやすい

  • @mazeofpiandnapier1983
    @mazeofpiandnapier1983 4 года назад +3

    わかりやす杉!

  • @IM-vu4gj
    @IM-vu4gj 11 месяцев назад +1

    こりゃすげえや

  • @雪P
    @雪P 3 года назад +2

    声がめっちゃ好き

  • @dol4689
    @dol4689 4 года назад +2

    試してみようかな。

  • @tyciannagreen9360
    @tyciannagreen9360 2 года назад

    「あなたの動画はとても良いですし、メッセージがた

  • @ぴーすけ222
    @ぴーすけ222 2 месяца назад

    4年前の動画で驚き。

  • @riis08
    @riis08 4 года назад

    @Neural Network Console, can you have these videos in English??

  • @MrSasanaga
    @MrSasanaga 4 года назад +2

    2:10
    画像のattentionの解説について質問があります。
    注目する領域を推定するネットワーク部分は、どのように学習していますか?一見すると注目する部分を推定するように直接lossが用意されているようにみえません。
    途中で分岐して元の特徴マップと掛け算して、最後のクラス分類のロスだけで、注目する部分を推定するように学習できるものですか?
    もし良かったら教えていただければ幸いです。

    • @安安十十
      @安安十十 2 года назад

      この画像の処理を、注意機構として説明するのは、誤りだと思います

  • @scramberry_io
    @scramberry_io 4 года назад +1

    とてもわかりやすいです!
    7:27 猫の鳴き声みたいな音が入ってるw

  • @jball3545
    @jball3545 2 года назад

    「内容を明確にする必要があります」、

  • @flight-simulatons
    @flight-simulatons 3 года назад +2

    早口で疲れる

  • @安安十十
    @安安十十 2 года назад +3

    画像の注意機構は、関係ないと思う!!説明間違いだと思う!こんな説明してる例、他にありますか?これを真似したもの以外で。みなさん。

    • @河本哲
      @河本哲 2 года назад

      私も、Query-Key-Valueのあたりの説明以外は、Attentionの話では無いと考えています。

    • @johnhuey7713
      @johnhuey7713 2 года назад +4

      SEnetも広義のattentionに入るでしょ
      注目されてるtransformerならqkvだけど

  • @安安十十
    @安安十十 2 года назад +1

    昨日コメント書きましたが、説明、間違えてる思います😡

  • @nunomenobuhiro8749
    @nunomenobuhiro8749 3 года назад +1

    分かりやすい動画をありがとうございます!