【深層学習】doc2vec - 文章の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 23】

Поделиться
HTML-код
  • Опубликовано: 26 июл 2024
  • ▼テーマ
    word2vec の進化系の doc2vec の解説です!
    似たような機構で、文章の意味を理解する事ができるモデルです。
    シンプル & 軽量ながら、なかなかの性能を誇ります!
    ▼関連動画
    word2vec の動画はこちら
    → • 【深層学習】word2vec - 単語の意味...
    ▼関連プレイリスト
    Deep Learning の世界 • Deep Learning の世界
    自然言語処理シリーズ • 自然言語処理シリーズ
    ▼目次
    00:00 DP
    ==== 1. 背景 ====
    00:34 論文紹介と時代背景
    ==== 2. 結果 ====
    02:35 結果を詳しく紹介する理由
    03:28 タスク①感情分析
    05:24 タスク②情報抽出
    ==== 3. doc2vec ====
    07:28 doc2vecは2つのモデルの合体!
    07:50 モデル①PV-DM
    13:13 未知の文章への対応
    15:02 モデル②PV-DBOW
    17:12 2つの合体と、実装上の注意
    18:27 PV-DMの精度の凄さの秘密
    19:17 ED
    ▼終わりに
    ご視聴ありがとうございました!
    面白かったら高評価、チャンネル登録お願いします。
    動画の質問、感想などは、コメント欄やTwitterにどうぞ!
    お仕事、コラボのご依頼は、TwitterのDMからお願い致します。
    動画生成:AIcia Solid (Twitter: / aicia_solid )
    動画編集:AIris Solid (妹) (Twitter: / airis_solid )
    =======
    Logo: TEICAさん ( / t_e_i_c_a )
    Model: 3d.nicovideo.jp/works/td44519
    Model by: W01fa さん ( / w01fa )
  • НаукаНаука

Комментарии • 31

  • @jazz-kt4ui
    @jazz-kt4ui 3 года назад +1

    word2vecに続き、わかりやすい内容で感謝です。次回が本当に楽しみです。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      ご視聴コメントありがとうございます!😍🎉🎉🎉
      これからも面白い動画を生成していきますので、お楽しみに!!🎉

  • @user-km9jy7oi3b
    @user-km9jy7oi3b 3 года назад +2

    いま心理学の関係とかでつかえへんかなぁって思ってたとこやったからめっちゃありがたい!

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      おおー!
      田原さんのお役に立てて光栄です!
      ぜひご活用ください😍😍😍

  • @yukio_takagi6429
    @yukio_takagi6429 3 года назад +1

    毎回、分かり易い解説、ありがとうございます。そろそろ、AttentionやTransformerに近づいてきたと、勝手に期待してます。次回も楽しみにしてます。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      鋭いですね😎😎😎
      いまその道を歩んでおります。
      お楽しみに!😍🎉

  • @j-phoenixresearchinc.5618
    @j-phoenixresearchinc.5618 2 года назад

    素晴らしい!!

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      ご視聴コメントありがとうございます!
      でしょ〜!(^o^)

  • @user-xu6nh1sn8y
    @user-xu6nh1sn8y 3 года назад

    この動画もおもしろかったです!
    未知の文章のベクトル化についてです。
    ドキュメントidのone-hot-vectorはもともと、未知の文章を入れることも想定して高い次元で作るのでしょうか?
    それとも、行列Dは未知文章用の学習中に変化することから、最初の学習でつかったidを使い回すのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      ご視聴コメントありがとうございます😊
      すみません、説明が悪かったかもしれませんが、
      ドキュメントidの one-hot vector の次元はドキュメントの個数の次元になります。
      未知文章の分散表現推定では学習済みのベクトルは文章側も単語側も変化させず、固定して、未知文章の分散表現のベクトルのみをパラメタとして推定します。
      そんな感じでございます!

  • @strawberryfield891
    @strawberryfield891 3 года назад

    いつもわかりやすい動画をありがとうございます!
    質問なのですが、DとWは全てのデータ(文章)に共通になるように学習するのでしょうか?それとも文章ごとに求めるのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      ご視聴コメントありがとうございます🎉
      D, W は全文章で共通です!

  • @ishizukaryoichi5394
    @ishizukaryoichi5394 3 года назад +1

    いつも楽しく勉強させて頂いております!
    質問なのですが、pv dmでは文章の分散表現と同時に単語の分散表現も得られると思うのですが、この単語の分散表現って普通のw2vで得られる単語の分散表現と違いってあるのでしょうか??

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      若干変わると思いますが、具体的にどう変わるかは実験してみないとよく分からないです🤔

  • @user-jr2km8wz7t
    @user-jr2km8wz7t 2 года назад

    とても勉強になりました!!
    質問です。
    未知documentの予測の際、documentに含まれる単語に新規の単語がある場合、どのように対応しているのでしょうか??

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      サクッと見ただけなのでもしかしたら誤りがあるかもしれませんが、この時代は、未知語は全部同じ one-hot vector (または embedding)に対応させているんじゃないかと思います。
      あくまで document vector の取得が目的なのと、未知語はそこまで多くなかろうと考えれば、大きな問題はないのだと思います。
      現代的には、subwordなどを駆使してやることが多いと思います!

    • @user-jr2km8wz7t
      @user-jr2km8wz7t 2 года назад

      返信ありがとうございます!!
      やはり前処理が大事ですよね、とても勉強になりました🙌🙇‍♂️
      今後の動画も楽しみにしています!

  • @ledblack2474
    @ledblack2474 3 года назад +1

    いつもありがとうございます。ひとつお願い、画面があかるすぎて、疲れます。Paint の grid表示をしてくれると、画面がすこし暗くなってみやすいかも?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      ほえー、こんなのあるんですね!
      検討してみます!👀

  • @ken8392
    @ken8392 3 года назад

    元論文ではhierarchical softmaxを用いていますが、word2vec同様 negative samplingでも可能でしょうか?
    hierarchical softmaxのみ使っているということにはそっちの方が上手くいったなどの理由があるのかと思ってしまいます。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      うーん、謎です🤔
      なんやかんや最後はデータセットとの相性もありますし、やってみなければ分からないですが、 negative sampling でダメになる理由はないと思います🤔

    • @ken8392
      @ken8392 3 года назад

      @@AIcia_Solid
      そうですよね、理論的には実装できるという考えは合ってたみたいでよかったです!

  • @-hiragi-5067
    @-hiragi-5067 2 года назад

    現在,機械学習について勉強をしています.
    質問なのですが,PV-DMを本動画では"Distributed Memory Model of Phrase Vector"と紹介していましたが,Mikolov氏の論文では"Distributed Memory Model of Paragraph Vectors"となっていました.
    "Phrase"なのでしょうか,それとも"Paragraph"なのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      ご視聴コメントありがとうございます!
      私の感覚では、正直どちらでも良いと思います、、、😇
      どちらの P にしても、日本語的には文章のことを表すと思います。
      Paragraph のほうが長く、 Phrase のほうが短いとは思いますが、文脈的に大した違いはないと思います。

  • @user-wv5kt3tx6f
    @user-wv5kt3tx6f 3 года назад

    Doc2vec以外にもベクトル化する手法がありますが違いや使い分けについて教えて頂きたいです。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      基本的にはデカい方が強いけど重いですよね。
      それより踏み込んだ話は、うまくまとめられたらまとめてみようと思います😋

    • @user-wv5kt3tx6f
      @user-wv5kt3tx6f 3 года назад

      @@AIcia_Solid
      ありがとうございます。勉強しながら楽しみに待ちます。

  • @hillnorth2746
    @hillnorth2746 3 года назад

    15:48とかにでる謎の9みたいな文字は何?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      どんな文字ですか?
      私には見当たりませんでしたが、、、👻

  • @ST-qy6bj
    @ST-qy6bj 3 года назад +1

    graph2vecというグラフ埋め込み手法もお願いします!

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      graph NN は将来扱います!
      お楽しみに!😍🎉🎉