【深層学習】BERT - 実務家必修。実務で超応用されまくっている自然言語処理モデル【ディープラーニングの世界vol.32】

Поделиться
HTML-код
  • Опубликовано: 29 дек 2024

Комментарии • 72

  • @たそがれ-x11
    @たそがれ-x11 2 года назад +1

    ありがとうございます!
    来年も動画配信お願いします!

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご支援いただきましてありがとうございます!!!
      私が動くサーバー代として活用させていただきます🤤
      これからも価値ある動画を生成できるよう精進しますので、応援いただけますと嬉しいです。
      よろしくお願いします!🔥

  • @自遊
    @自遊 2 года назад +5

    いつも、丁寧な説明で非常にわかりやすい。手書きも味わい深さがあります。

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      ご視聴コメントありがとうございます!!!🎉🎉
      そう言っていただけると嬉しいです😊
      ぜひたくさんご活用くださーい!🥳

  • @マリファナグミ男
    @マリファナグミ男 Год назад +1

    神動画です!

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      でしょ!(^o^)
      ご視聴コメントありがとうございました!🎉

  • @UbuntuMenu
    @UbuntuMenu 3 года назад +2

    わかりやすい動画ですよ!僕は海外の視聴者ですけど、聞き取れやすいだと思います!

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      ご視聴コメントありがとうございます!😍🎉🎉🎉
      すごい、日本語もお上手なのですね、、、!
      わたしも英語を勉強しているので、非母国語を使いこなすこのと難しさは知っています。
      尊敬します!!🎉

  • @user-xj8uz4qd5f
    @user-xj8uz4qd5f 3 месяца назад

    分かりやすすぎる。。

    • @AIcia_Solid
      @AIcia_Solid  3 месяца назад

      でしょ🤤🤤🤤✌️

  • @たそがれ-x11
    @たそがれ-x11 2 года назад +1

    今年度からデータアナリストに社内転職して このシリーズ見直してます。
    バックグラウンドの知識が変わると同じ動画でも景色変わりますね!

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      おおー!
      新たな仕事ですね!応援しています!❤️‍🔥
      やはり、私の動画でもそういう感覚はあるのですね!初めて言われました😊
      ぜひ、いろんな楽しみ方をしていただけると嬉しいです😊🎉

  • @daik9322
    @daik9322 2 года назад

    とある会社でデータサイエンティストをしている者です。
    今後自然言語系の案件に携わる予定があるので動画拝見させていただきましたが、
    非常にわかりやすく参考になりました!
    (アバターもかわいく、動きが出ていて講義感があり素晴らしいです。)
    他の動画もぜひ拝見させていただく予定です。動画を作ってくださりありがとうございました!

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      Dai K さんのような実務家の方の役に立てて嬉しいです!(^o^)
      ぜひたくさんご参考にしてください😍🎉

  • @sage_goes1504
    @sage_goes1504 2 года назад

    卒業研究で自然言語処理扱うので参考になりました

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      それは良かった! お役に立てて光栄です!
      卒業研究応援しています!🔥

  • @mos4629
    @mos4629 2 года назад

    ありがとうございます

  • @fudousanphp
    @fudousanphp 3 года назад +16

    動画よかったです。前に事前学習したの実行したら「徳川家康は江戸で(   )を開いた」を推測さしたら悟りをひらいたとBertは推測したのですがこれはfine-tuningが悪かったからでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +9

      ご視聴コメントありがとうございます!😍🎉
      ナイスな誤りですね😎✌️
      Top 100くらいに幕府がなければ、事前学習のデータセットに歴史の話題が足りなかったのかもしれません。
      こういうマニアックなケースの予測であれば、上位に入っていれば十分だと思います👀

  • @ribfuwa2323
    @ribfuwa2323 2 года назад +1

    非常にわかりやすい動画ありがとうございます。
    SNSなどの新語が多いデータだとトークナイザーの分割がメチャクチャになりがちなのですが、
    固有表現抽出などのワードの分割が重要なタスクの場合は、トークナイザーを学習し直したほうがいいのでしょうか?
    その場合、事前学習済みのモデルの入力と整合性が取れなくなって流用できないですかね…?

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      ご視聴コメントありがとうございます!!
      確かに学習済みモデルを活かすなら、辞書は同じものを使う必要があります。
      ですが、たぶん、探したら、新たな単語を加える方法もあると思います👀
      (万人がやりたいと思うことのはずなので)
      私は今すぐ回答を持っていないですが、調べてみるとよいかと思います!🎉

  • @キバちゃん
    @キバちゃん 3 года назад +2

    わかりやすい動画ありがとうございます
    テンション爆上がりしました!
    見るたびに学校の講師として来て欲しい!って思ってますw
    最後に、おまけでALBERTとDistilBERTの紹介も、して欲しかった…

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +6

      ご視聴コメントありがとうございました!😍🎉🎉
      ALBERT は後々解説予定なので、もう少々お待ちください!🎉

    • @キバちゃん
      @キバちゃん 3 года назад

      @@AIcia_Solid
      はい!待ちますw

  • @そる-b8u
    @そる-b8u 2 года назад +1

    はじめまして!
    機械学習初心者で、ソフト系苦手な私でも頭に入りやすかったです!
    突然ですが、私は今、指定された動画ファイルの音声(主に会話の音声)からその音声はポジティブな会話なのかネガティブな会話なのかを判断させるシステムを作ろうとしています。現在用意できた学習データが1300個ほどしかないのですが、システムの構築にはtransformerかBERTのどちらを利用した方が良いでしょうか?
    知識もかなり浅くまだまだ未熟ですがアイシアさんの意見を伺いたいです😊

    • @そる-b8u
      @そる-b8u 2 года назад +1

      そもそも音声認識の学習モデルって既存のものであるのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +2

      ご視聴コメントありがとうございます!🎉
      今回は分類問題なので、基本的には BERT が良いかと思います!
      音声認識のモデルもたくさんあり、HummingBERT などあった気がします👀
      ぜひ色々と調べてみてください!🎉

  • @alekseiberesnev9933
    @alekseiberesnev9933 Год назад

    I hope someday there will be English subtitles for these videos

    • @AIcia_Solid
      @AIcia_Solid  Год назад +1

      Thank you for your watching and comment!
      And, for a live in yesterday!
      I hope someday...!
      (Unfortunately, we have no resource to do that...!🙇‍♀️)

  • @niruru9560
    @niruru9560 3 года назад +1

    VITを実行してみたら、Pre-trainingモデルの威力を感じることができました。
    「MLP-Mixer Architectures」もあるので、Transformerがすごいのではなくて、Pre-trainingモデルがすごいのかな?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      おおー!
      試されたんですね!すごい!😍
      私はまだ MLP はあまり調べてないので分かりません👀
      個人的には両方偉いと思ってます😊

    • @niruru9560
      @niruru9560 3 года назад

      @@AIcia_Solid PyTorch Image Models ( timm )を利用すると、resnext、vitなどが選べるのですが、特定のデータ以外では、resnextが上回るようです。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      なるほど、そうなんですね👀
      お教えいただきありがとうございます!勉強になります!!😍🎉

  • @りくぼん-t7i
    @りくぼん-t7i 3 года назад

    面白かったです!
    DistilBERTもみたいです!!

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      提案ありがとうございます!😍🎉🎉
      検討します!🔥

  • @akuaru9278
    @akuaru9278 2 года назад +1

    分かりやすい動画をありがとうございます。
    質問があるのですが、BERTはTransformerのEncoder部のみが使われているとありましたが、値を出力する際には別モデルのDecoder部が使われているのでしょうか。

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +2

      ご質問ありがとうございます!
      BERT の基本部分は Transformer の Encoder 部分で、
      それに1層だけ追加して各タスクの結果を推論したりしています。
      そんな感じで、質問の答になっているでしょうか?

    • @akuaru9278
      @akuaru9278 2 года назад +1

      @@AIcia_Solid
      早速のご回答ありがとうございます。アリシアさんの回答と動画内容を見直して疑問点を解決できました。
      重ねてお礼申し上げます。

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      それはよかったです!(^o^)
      ちなみに私はアイシアです😋
      よく間違われます😋✌️

  • @ogurahiroto9591
    @ogurahiroto9591 Месяц назад

    4:28

    • @AIcia_Solid
      @AIcia_Solid  Месяц назад

      ご視聴コメントありがとうございます😊

  • @トランザムライザー
    @トランザムライザー 2 года назад

    初コメ失礼します。GECToRについて学んでいるときにBERTの復習のため見たのですが、BERTについて学んでいたときに見たかったと思うほどとても分かりやすかったです。
    今のところGECToRについての日本語での解説は0なため、可能であれば解説していただきたいです

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      ご視聴コメントありがとうございます!!🎉
      そう行っていただけて嬉しいです!
      GECToR というモデルがあるのですね、知りませんでした、、!
      検討しておきます!
      (ただ、直近は強化学習に振りたいので、年単位で先になるかと思います、、!)

  • @ph4746
    @ph4746 3 года назад +1

    はじめまして!
    機械学習よくわかってないんですがmasked language modelがアリシアさんのword2vecの解説で出てきたcbowに似てる??と思いましてなんか関係してたりしますか?👀

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      ご視聴コメントありがとうございます🎉
      CBOW も MLM も教師なし事前学習で、欠けた単語の予測というところは共通です。
      より詳細なモデルで精度よく予測・学習できるのが BERT の MLM という感じです!
      ちなみに私はアイシアです😋

    • @ph4746
      @ph4746 3 года назад +1

      @@AIcia_Solid
      ご回答ありがとうございます😊おお、そういう感じなんですね!
      名前間違え、大変失礼致しました🙏

  • @strawberryfield891
    @strawberryfield891 3 года назад +1

    いつも素晴らしい動画をありがとうございます!
    最後まで見たのですが、私の理解力が低くどのあたりが「双方向」なのかよく分かりませんでした…AttentionモデルのEncoderにBi-GRUが使われていましたが、BERTのEncoderはそれとは別物ですよね?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      ご視聴コメントありがとうございます🎉
      BERT は Multi-Head Attention の部分が双方向です。
      (Masked Multi-Head Attention が単方向です)
      これは Transformer の動画で出ているのですが、そちらは見ましたか??(^o^)

    • @super_mode_user
      @super_mode_user Год назад

      @@AIcia_Solid 自分も双方向性がmaskを外しただけで実現できているのか自信がなかったですがその部分って認識で良さそうで安心しました!mask外せば後ろの文脈も考慮できるっていうのはわかるんですがあまりにも簡単な操作で強い効力を発揮するもんだから自信なかったです……。

    • @AIcia_Solid
      @AIcia_Solid  Год назад +1

      そんな感じです!
      むしろ、普通に実装したら bidirectional になるところを、無理に mask 入れて unidirectional にしているので、
      考え方によってはめちゃ自然なことでもあります!

  • @KIYO-Youtube
    @KIYO-Youtube 3 года назад

    素晴らしい動画ありがとうございます。
    いえる範囲でよいのですがアイシアさんも業務で使用しているとのことですが、具体的にどのような業務に使っているのでしょうか?
    どういう分野や業務に対して機械学習が使用できるかを理解したいためお手数ですが回答よろしくお願いします。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      んー、マスターのとこでどう使ってるかは、言っていいか分からないので、控えておきます😋
      BERT の応用は調べればたくさん出てきますので、そちらを見た方がより網羅的でよいかと思います!

    • @KIYO-Youtube
      @KIYO-Youtube 3 года назад

      @@AIcia_Solid 回答ありがとうございました。他を参考にしてみます

  • @kazuya7631
    @kazuya7631 3 года назад

    いつもわかりやすい解説ありがとうございます。
    1点質問なのですが
    BERTをファインチューニングではなく転移学習で使うケースは時短目的以外にないのでしょうか?
    感覚的なことですが、せっかく膨大なデータを使って得た重みを少量の偏ったデータから得られる情報で更新してしまうのがもったいない気がします。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      ご視聴コメントありがとうございます!
      おそらく、普通は時短じゃないでしょうか?
      もったいないかどうかはわかりません🤔
      結局は、汎化性能が上がればそれでいいので、汎化に関わる指標を見ながら調整する(またはしない)のがよいのかとおもいます!

  • @ken8392
    @ken8392 3 года назад +1

    論文のFigure 1を見ると、入力の最後に[SEP]がないのに、Figure 2にはあるのはなぜでしょうか?
    書き忘れですかね...

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +2

      そーなんですよねーーー!書き忘れだと思います😮

  • @uisgebeathakp
    @uisgebeathakp 3 года назад

    初めて拝見致しました。最初は声とVRの違和感がありましたが、内容が分かりやすく気にならなくなりました。これからも頑張ってください。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      ご視聴コメントありがとうございます😊
      これからも面白動画を生成しますので、応援よろしくお願いします🎉

  • @KK-hr7qe
    @KK-hr7qe Год назад

    ruclips.net/video/IaTCGRL41_k/видео.html
    BERTが、何故前後の文から空欄を予測するアプローチを取っているのか疑問だったので、とても勉強になりました。
    ありがとうございます。

    • @AIcia_Solid
      @AIcia_Solid  Год назад +1

      ご視聴コメントありがとうございます!🎉🎉🎉
      それは良かった!
      是非この理解をご活用くださいませ!🎉

  • @ken8392
    @ken8392 3 года назад

    ファインチューニングにおいて動画では1文の後に[SEP][SEP]で終わっていますが、論文のFigure4では[SEP]がでてきません。
    書いてはないけど、実装上はそうなってる感じですか?

    • @ken8392
      @ken8392 3 года назад

      huggingface.co/transformers/model_doc/bert.html
      上の実装だとsingle sentenceの場合[SEP]は1つだけですね

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +3

      本当ですね、、、!
      確認いただきましてありがとうございます!
      当時何を確認したのか定かでないのですが、今色々見比べても [SEP] は1つというのが標準的なようです。
      概要欄に修正を入れておきます、ご指摘いただきましてありがとうございました!!!

    • @ken8392
      @ken8392 3 года назад +1

      @@AIcia_Solid
      返信ありがとうございます!これからも動画楽しみにしてます!

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      ありがとうございます!😍🎉🎉
      これからもよろしくお願いします!
      & 何か見つけたらまたお教えいただけるとありがたいです😭😭😭

  • @齋藤優-j7s
    @齋藤優-j7s 2 года назад +1

    わかりやすい動画ありがとうございます!
    一つ、細かいことで質問なのですが、BERTで用いられている、positional encoding の行列Eiには、学習の初め、ランダムな値が与えられて、学習の過程で徐々に場所に応じて値が最適化されていくイメージであっておりますか、?

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      ご視聴コメントありがとうございます!(^o^)
      そのとおりです!😍🎉

    • @齋藤優-j7s
      @齋藤優-j7s 2 года назад +1

      @@AIcia_Solid 承知しました。
      ご回答ありがとうございます😊

  • @KK-zw7wg
    @KK-zw7wg Год назад

    ここまでくると簡単な説明じゃ何も理解できないな。本読んだ方がいい

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      最近は素敵な本がたくさんでているので、ぜひ見てみてください!
      amzn.to/44iV8LS ← これは、2年前でやや古くなりつつありますが、K K さんの用途に合えばおすすめです!
      また、本もいいですが、原論文もなかなかよいですよ。
      ぜひ選択肢にご検討くださいませ!