【数えるだけ】AIが単語を理解するトリックが巧妙すぎる【大規模言語モデル2】

Поделиться
HTML-код
  • Опубликовано: 18 окт 2024

Комментарии • 360

  • @yurucom
    @yurucom  4 месяца назад +20

    プロモーション:Notion AI
    Notion は無料で使えて、月額10ドルでNotion AIをご利用いただけます。
    ntn.so/yurucom1
    【ことラボ】
    ◯Twitter → x.com/KotoLaboRyo
    ◯RUclips → www.youtube.com/@kotolabo
    ◯「単語ベクトル」とは何か? → ruclips.net/video/l8YCKz15Hn8/видео.html
    【参考文献】
    ◯大規模言語モデル入門
    amzn.to/3VKqed7
    ◯キテレツおもしろ自然言語処理
    amzn.to/3VwInd4
    ◯風俗の虫―捜査官が覗いた日本の風俗70年
    amzn.to/4bbs62W
    ◯自然言語処理の必須知識!Word2Vec とは?
    www.kikagaku.co.jp/kikagaku-blog/word2vec/
    ※単語ベクトルの出典
    ◯【入門】深層学習の革命児!Transformer を今こそ理解しよう
    www.kikagaku.co.jp/kikagaku-blog/deep-learning-transformer/
    ※文脈化単語埋め込みの出典
    【サポーターコミュニティへの加入はこちらから!】
    yurugengo.com/support
    【おたよりフォーム】
    forms.gle/BLEZpLcdEPmoZTH4A
    ※皆様からの楽しいおたよりをお待ちしています!

    • @REIA-t1
      @REIA-t1 3 месяца назад +1

      このコメントだけ時空超えてる

  • @セイゲドン
    @セイゲドン 3 месяца назад +94

    社会人で「基底ベクトル」がすっと出てくるの賢すぎるだろ
    水野さんってやっぱり理系のセンスあるよ

    • @天才の証明
      @天才の証明 3 месяца назад +1

      俺より数学のセンスあるわ

    • @IluvHOTspring7777
      @IluvHOTspring7777 20 дней назад

      基底って高校数学でやったっけ…?ってレベルだった

  • @Sho-yu2424
    @Sho-yu2424 3 месяца назад +206

    14:10 ここの話題で「猫吸い」の話が出てこないの逆に驚いた

    • @kk9538
      @kk9538 3 месяца назад +23

      辞書吸いとかはやっても猫吸いにはほど遠い人たちだから・・・

    • @風情たしなみ大学
      @風情たしなみ大学 3 месяца назад +48

      これが堀元水野ベクトル問題というものでタイプの違う二人だけど守備位置がファーストとサードなので中央を抜ける打球は全スルーしちゃうのです

    • @NINGEN.12
      @NINGEN.12 3 месяца назад +4

      正解)(堀本∪水野) ̄
      別解)(ホリモトモリモト) ̄

    • @qwertyfhfsrth
      @qwertyfhfsrth 3 месяца назад +10

      りょーさんは猫吸いを意図してあの数値にしたけど、違う話題になったから合わせた?

  • @酢酸-y9h
    @酢酸-y9h 3 месяца назад +41

    17:50
    次元圧縮後の水野「ゆっくり水野だぜ。僕はマウスができないので諦めるのぜ。」

  • @tamarind_kingdom
    @tamarind_kingdom 3 месяца назад +234

    4:21 水野さんのベクトルの理解が圧倒的に正しかった

    • @atoncap1991
      @atoncap1991 3 месяца назад +32

      理弱数強の底力

    • @ma-xb3mi
      @ma-xb3mi 3 месяца назад +69

      高校数学どころかベクトル空間の定義の答えとしてだいぶ100点だと思った

    • @ladrey127
      @ladrey127 3 месяца назад +42

      行列で拡張しただけで原義的にはこっちのほうが正しい

    • @OneMeterNutz
      @OneMeterNutz 3 месяца назад +72

      これは堀本さんが大学数学に引っ張られて本質を見失ってるよね。

    • @vonneumann6161
      @vonneumann6161 3 месяца назад +84

      ⁠@@OneMeterNutz大学数学というかコンピュータサイエンスで使う意味に引っ張られてる
      ベクトルは多義語だからなあ
      理系の中でも分野ごとに意味違う

  • @kentoo_1
    @kentoo_1 3 месяца назад +32

    100次元空間の住民なので、ベクトルは「向きと大きさを持った矢印」で合ってます

  • @applejack0094
    @applejack0094 3 месяца назад +22

    普段ことラボできちっとしているりょうさんが朗らかな感じになってるの、なんかめっちゃかわいい

    • @cabigonyoshi2590
      @cabigonyoshi2590 3 месяца назад +8

      ダメだダメだダメだとか、うるさくない程度の顔芸による会話の潤滑剤の役割とか、天の声適正高すぎて素晴らしい

  • @accmusic8682
    @accmusic8682 3 месяца назад +114

    「猫」「吸引」は「猫吸い」のことが主でしょ

    • @thesaito2721
      @thesaito2721 3 месяца назад +22

      動物のモフモフに鼻あててスーハースーハーして楽しむのはコモンセンスじゃないんやで…

    • @TakamiChie
      @TakamiChie 3 месяца назад +8

      プリキュアだって猫吸いする時代なのに・・・

  • @ももんがのすけ
    @ももんがのすけ 3 месяца назад +11

    ベクトル空間:和とスカラー倍が定義されてる空間
    →基底を導入してベクトルを基底の1次結合で表す(水野さんの理解)
    →基底をひと組固定して係数だけを並べることでベクトルを数字の組で「表現」する(堀本さんの理解)
    今回は水野さんのまぐれ勝ち

  • @ken_to_delicat
    @ken_to_delicat 3 месяца назад +36

    28:30 りょーさん監修回でこち亀両さんを説明無く入れてて、
    りょーさん風俗通いになってる😂

  • @umitz1729
    @umitz1729 3 месяца назад +5

    仕事で画像認識系の AI モデルを扱ってるんですが、「いい感じになる」の話のところ、すごい共感しました。
    ディープラーニングにおける誤差逆伝播やら畳み込み処理やらっていうのは、数式で見るとうまくいくことが理解できるんだけど、
    知らない人向けに分かりやすく説明しようとすると「いい感じになるとしか・・・」ってなりがちなんですよね。
    そして、泥臭い部分がむしろ本質っていうのも、首が取れるほど頷きました。
    学習や評価に使うデータ次第で結果が大きく左右されるから、そこを整形するのが結局一番大事だったりしますよね。(そしてこれがまた面倒くさいんだ・・・)

  • @シルバ-v4o
    @シルバ-v4o 3 месяца назад +18

    理系の大学を出ましたが、「ベクトルとは複数の数字の組」という定義は納得感がないですね
    複数の数字の組はベクトルの表現方法の一つに過ぎなくて、ベクトルと捉えるのはおかしい複数の数字の組がありそうです
    例えば「フィボナッチ数列の1番目から5番目までの数字の組」等

  • @福田礼彦
    @福田礼彦 3 месяца назад +33

    この動画によって、コアラと徳政の単語ベクトルは歪められたかも

  • @paaaaaaanda
    @paaaaaaanda 3 месяца назад +42

    28:35 りょーさんがゲストにいるのに「リアル両さん」はだめでしょ笑笑

    • @togeyama4567
      @togeyama4567 3 месяца назад +1

      りょーさんは風俗にも強いっていう概念

    • @akinaka7543
      @akinaka7543 3 месяца назад +8

      りょーさんと両さんをTransformerが区別してくれるから、きっと大丈夫です

  • @kemukemu8080
    @kemukemu8080 3 месяца назад +30

    6:05 フラットアーサー水野 爆誕の瞬間

  • @tamarind_kingdom
    @tamarind_kingdom 3 месяца назад +14

    ベクトルの話伸びてて草
    水野さんが高校数学だけやってあれだけドンピシャな抽象化してたとしたら天才すぎて怖い

  • @tsicsafjapan9371
    @tsicsafjapan9371 3 месяца назад +18

    17:50 我々が見ている二人はすでに何者かの手によって次元圧縮されている…

  • @lafit.9106
    @lafit.9106 3 месяца назад +1

    りょーさんの素のキュートさが楽しめて最高でした💛次も楽しみです!

  • @シャニル
    @シャニル 3 месяца назад +33

    28:35 りょーさんコラボ回で風俗に通いまくる人物の例として両さんの名を出すな

  • @よるのかわべ
    @よるのかわべ 3 месяца назад +32

    『風俗の虫』の話の原因、性的な話だからAiが勝手にフィクションにしてる可能性もありそう(ChatGPTはよくやる)

  • @jshxyxjens467
    @jshxyxjens467 3 месяца назад +7

    目ェバッキバキ陰謀論者水野さんが好きすぎてそこだけヘビロテ確定

  • @hiroyukippp7380
    @hiroyukippp7380 3 месяца назад +3

    15:00 あたりの水野さん(地球平面論者)の言語化能力がすごい!

  • @shomwoys
    @shomwoys 3 месяца назад +4

    「意味」というものは「単語という表現」に与えられるものではなく、コンテキストというフィルターによって確定する、ってのをちゃんとやった、ってことすね
    「空」がなにを「表す」かは、前に「青」が出ていれば「そら」である可能性が高く、「コップ」が出ていれば「から」である可能性が高く、「経典」であれば「くう」である可能性が高い
    逆に「青」が出た瞬間に、共起性の高い単語群…というか概念群の確率雲みたいなものがぼやーっとフィルターとしてかかっており、その中で「空」という文字列が出た瞬間に「マッチするのはそらだな」となる
    これはある意味「次に来るものの先行予測」であり、予測をそのまま出力するのが「生成」になる
    「私は」のあとに何が続くかはコンテキストがなければ予測しづらいけど、「ゆる言語学ラジオです。私が」というフィルターをかければ、「パーソナリティ」「堀元」「水野」などが「次にきそうな確率の雲」として浮かび上がる
    すごい量だし確率もうっすいけど、ニューラルネットの「層」はこれを並列に一気に行列計算できる

  • @hmtsite
    @hmtsite 3 месяца назад +3

    18:21 水野さんが話し始めた時堀本が体勢変えるのなんかいい

  • @よるのかわべ
    @よるのかわべ 3 месяца назад +21

    42:18 ブラックボックスなのはーー

  • @CielP_Channel
    @CielP_Channel 3 месяца назад +3

    いい感じで面白かったです!!

  • @産婦人科医ごっそ
    @産婦人科医ごっそ 3 месяца назад +16

    物理学が11次元でわけわからないのに、言語モデルの1000次元超えは、なんかええ感じに落ち着くのはしょうがないよね。

  • @TakamiChie
    @TakamiChie 3 месяца назад +4

    0:14 コアラあらざるものですべてもっていかれた
    12:42 猫×吸引が12出てるの、シャープの掃除機の話だけじゃなく猫吸いの話では?
    29:10 以前LISTENというポッドキャストプラットフォームの要約で、「野球の話は一切していないのに大谷さん(野球選手とは当然無関係の人)という人について言及しているから野球の話をしているエピソードとみなされてしまった」みたいな話題がありましたね。
    わたしはPCにそもそも疎い方をお話ししていることが多いので、ディープラーニングとは赤ちゃんにフラッシュ暗算をやらせるような行為、AIとはコンピューターになんとなくこれっていう直感を与える行為だと説明しています。意味を理解しているわけではないので常に正しい言葉を返してくれるとは限らないけど、あまりにもたくさんの事例を見ているのでなんとなくでそこそこ精度の高い情報をあげることができるというのがAIなのかなと。

  • @さた-m9l
    @さた-m9l 3 месяца назад +7

    三人とも仲良しだな

  • @mudaso-heavy-user
    @mudaso-heavy-user 3 месяца назад +15

    楽しみに待ってました

  • @maruneko35
    @maruneko35 3 месяца назад +45

    猫・吸引は猫吸い?

    • @kaz-jn7ro
      @kaz-jn7ro 3 месяца назад +3

      猫吸いかチュール

  • @hxhdiidid
    @hxhdiidid 3 месяца назад +3

    単語をノードとしたグラフを最適輸送で比較して、「日本語グラフの中の『リンゴ』という単語の位置」と「英語グラフの中の『Apple』という単語の位置」を比べることで言語間の単語の対応(≒翻訳)を行うっていう発表をしていた人が学会でいたな。単語ベクトルの話とかなり近そう。

  • @MMTT4567
    @MMTT4567 3 месяца назад +31

    2:03 りょーさんのビックリ顔
    6:05 水野さんのバッキバキ顔

  • @大河元-i2d
    @大河元-i2d 3 месяца назад

    水野さんと同じく文系で、ベクトル概念の解像度が水野さんと同じだった者です。
    GPT-4が出たての頃、ゲンロンのチャンネルで元ドワンゴの清水亮が内部の仕組みについて解説してたけど、
    「ベクトルの外積をひたすら重ねがけし続けることによって、重みづけが変わる」
    みたいなところでチンプンカンプンになり挫折したんで、改めて手前から説明してもらえて助かりました。
    外積すら知らなかったので「外積するということは、つまりどういうことなんだろう」とばかり考えていたが、おれがまず考えるべきだったのはベクトルの定義だったのが気づけてよかった。
    これでもうちょいなんとかなりそう。

  • @_tatibana1243
    @_tatibana1243 3 месяца назад +2

    いい感じにおもしろかったです

  • @tangenttikuwa
    @tangenttikuwa 3 месяца назад +3

    数字の組は直積集合の元のこと(順序対)のことであってベクトルのことではないですね
    ベクトルは体(実数や複素数など)上で和とスカラー倍の操作が出来てベクトル空間の公理を満たす集合の元のことなので

  • @Astro-Study
    @Astro-Study 3 месяца назад +4

    26:15 ChatGPTが人とヒトをうまいこと使い分けて話してくれるのはそういうことだったのか

  • @すももやし
    @すももやし 3 месяца назад +5

    『プロモーション:Notion AI』が概要欄にチラ見えする中でことラボとシャープの掃除機ダイマするの勇気がありすぎる

  • @tt-vp3po
    @tt-vp3po 3 месяца назад +2

    11:15 ハリスかファースかどっちかって言われた時の堀元さんの嬉しそうな顔よ

  • @araiguma6184
    @araiguma6184 3 месяца назад

    アナログど文系の私には、親近感が湧くシリーズです。専門家すら、なんかいい感じで纏めちゃって、人間がもはや解らないレベルが深層学習なんだー。と、そして意味を理解しようとする学者さんが居るのも面白いです。専門書は読めないけど、たまにchat GDP使うので裏側の仕組みをざっくり楽しく視聴しました。

  • @kamodomon0913
    @kamodomon0913 3 месяца назад +2

    「ベクトルとは複数の数字の組」ではなく「AIの話で使うベクトルとは複数の数字の組」ということですね。
    政略の話に出てくる「(腹に)いちもつ」と猥談の時に出てくる「いちもつ」で意味が違うのと同じですね!

  • @kt-ge6bw
    @kt-ge6bw 3 месяца назад +4

    27:30
    このメモ、中島敦の 文字禍 かと思ったら円城塔の 文字渦 ですね
    自分もよく間違いそうになるけどw

  • @はなまさきとう
    @はなまさきとう 3 месяца назад +10

    ルンバが掃除機よりペット寄りであることが値で見えるってことは非生物のアニマシー度合いが見えるようになりそうですね

  • @ゴブリン-r5q
    @ゴブリン-r5q 3 месяца назад +5

    フラットアースで目バキになる流れでクッソ笑った

  • @mudaso-heavy-user
    @mudaso-heavy-user 3 месяца назад +7

    14:37 SHARPのエアコン掃除しながらここ聞いてた

  • @knife-dp9le
    @knife-dp9le 3 месяца назад +11

    「ことらぼりょうさん」が居るのに、「こちかめりょうさん」の話しをするのは、今回の趣旨に合っているのだろう。

  • @tateren
    @tateren 3 месяца назад +1

    8:50 「これの何が嬉しいかというと」は理系方言という話を以前 X で見かけたのが印象に残ってたんだけど、言ってて嬉しくなっちゃった。(私もよく言う)

  • @yumeginamiki6721
    @yumeginamiki6721 3 месяца назад +3

    41:00 
    私は「数独パズルを解いてるみたいだなあ」という印象を受けました。
    確定でこれだという数字は入れられないけれど、仮置きでこのへんの数字が入りそうという予想メモだけ残しておく。という処理を頭からお尻までまずやる。
    そのあと、前回の予想メモを参照しながら仮置きの数字を置く処理をもう一度頭からお尻まで行なうと、予想メモの精度が上がる。
    予想メモの精度を上げ続けると、突如ある地点で数字が確定する。ある地点の数字が確定すると連鎖的に次の地点の数字も確定する。
    単語ベクトルも仮置きの予想メモの精度を高めると、ある段階で突如『確定する手掛かり』が見つかったりするのかな?

  • @octaviforta
    @octaviforta 3 месяца назад +1

    だいぶ前の、ゆる言語学ラジオで「単語とは、意味のプール上に浮かんだウキのようなもの」という表現と同じですね。
    意味のプールの上の一点を指し示すベクトルが、単語

  • @uwsc1
    @uwsc1 3 месяца назад +1

    Transformerは
    入力→エンコード→出力(デコード)
    だから、
    入力→出力というワンステップで考えると水野さんのような疑問が出てくるのかな?
    犬という単語ベクトルの初期値は入力段階ではどのような文章でも同じ値だけど
    エンコーダ部分を通すことで犬という単語とその文章中の他の全単語との関係性を計算して
    良い感じの値に更新するから出力部に渡す時には文章ごとに初期値の犬とは違う値になってる

  • @girokazu1505
    @girokazu1505 3 месяца назад +9

    6:23 初‼︎水野さんが動画上でしっかりとメガネを外した瞬間‼︎

  • @yukizokin
    @yukizokin 3 месяца назад

    りょーさんの方が適任そうという意見に、明るく上段で返す堀元さん。上手いね。秩序って大事だからね。いろいろミスが合って一番重要なところを的確にやってる感じ。

  • @alternative693
    @alternative693 3 месяца назад +7

    りょーさん大規模言語モデル回が終わってもずっと左上にいてほしい

  • @そらぞめ
    @そらぞめ 3 месяца назад +11

    2:31 クッソ似てるwww

  • @ステルスロック-s3s
    @ステルスロック-s3s 3 месяца назад +2

    水野さんと堀元さんを次元圧縮したのがりょーさん

  • @foxface120
    @foxface120 3 месяца назад

    37:15 単語の解釈を文脈に最適化する処理だと理解した。
    水野さんの疑問は「対象の単語の本質を見失うなうのでは?」だと解釈した。
    人間も単語の定義を詳らかにしなくても(ベクトルを完全に固定しなくても)会話出来るので、人間を再現したAIとしては妥当な振る舞いに思う。

  • @すぺしゃるのこはん
    @すぺしゃるのこはん 3 месяца назад

    篩を使って粉を分けると少し目が詰まったり歪んでしまうけど、何故かその方がいい感じに振り分けることができるイメージですかね、目が揃っていると2種類にしか分けられないが、色々な大きさの目があると小さいのから順に落ちるので使いやすい。
    何かいい感じといえばパイを捏ねる時ですかね。

  • @mathpromagy
    @mathpromagy 3 месяца назад +1

    組成意味論での対義語の話は
    空間ベクトルなら
    点対称で行うか、面対称で行うかの違いと同じですね。

  • @fobonu2ec
    @fobonu2ec 3 месяца назад +4

    堀元さんのベクトル理解、結局数ベクトルから逃れられて無いのにアップデートされた表現だと勘違いしてるの学部2年くらいのイキり理系大学生味が合って良い。
    なんなら水野さんの方が正しい理解。

  • @rubin8972
    @rubin8972 3 месяца назад +2

    ブラックボックスを解析しようとする試みもあるんだ……
    WIREDみたいなりょーさん待ってます!

  • @クラクラ-t9z
    @クラクラ-t9z 3 месяца назад +1

    21:10
    「大輪教授」っていう芸人さんのネタで
    構成要素を素因数分解して全然違うものが残るっていうのが大好きだったの思い出した

  • @minsk-km8qg
    @minsk-km8qg 3 месяца назад +5

    味付けの例えなのに調味料じゃなくて香辛料ばっかり使うの料理に対する認識の浅さが滲んでて好き

  • @doctorz7988
    @doctorz7988 2 месяца назад +1

    次元圧縮っていうのは、線形代数でやる固有ベクトルや固有空間の話なのかな。
    最初に仮定した1,000個の基底ベクトルが綺麗に独立していればそれ以上圧縮できないけど、重複する部分があれば固有ベクトルの数は減って、次元が落とせるってことかな?

  • @Mesubutamia
    @Mesubutamia 3 месяца назад +5

    水野さんそのままメガネ外した状態でゆる天の収録行って!
    今地球が丸いのが通説というか当たり前の事実ってのたまってるふたりがいるから!早く!

    • @keisukesugi5085
      @keisukesugi5085 3 месяца назад +3

      水野さんが丸顔すぎて球体説加速する可能性ありますよ!

  • @US-wb8yp
    @US-wb8yp 3 месяца назад +12

    なお線形代数を学んだ大学生ならベクトルとはベクトル空間の元でありベクトル空間とは環R上の加群のうちRが体の場合の、、、
    とか話し始めるはず

    • @0723おい
      @0723おい 3 месяца назад

      数学科なので同じく体の元による左からの演算が上手く定義された加群…と説明したくなりますが、非数学科でも線形代数で数ベクトルでないベクトルを扱うのでしょうか?

    • @天才の証明
      @天才の証明 3 месяца назад

      数学科だけやろ

    • @tangenttikuwa
      @tangenttikuwa 3 месяца назад

      まあ実ベクトル空間と一般のベクトル空間を混同してる節はあるよね

  • @WOOTHEFOUR
    @WOOTHEFOUR 3 месяца назад +2

    ベクトルはラテン語のvehere運ぶ 由来なので向きと量が本質であって、数字の組があればベクトル空間で分析ができるようになるというはなしでは…(迂闊なこと書かない方がいいかな…

  • @rose_miura
    @rose_miura 3 месяца назад +5

    博士号専門家「いい感じになります」

    • @マネコ社長
      @マネコ社長 3 месяца назад

      難しすぎておまじないとして「いい感じ」に使っているのかと言うと、学習した結果「いい感じ」に収まるって事で
      機械としては本質を捉えたけど人間には理解出来てないって事なんだよねぇ。

  • @heavyside-9s
    @heavyside-9s 3 месяца назад +5

    緯度経度を要素とする球座標系のベクトルの足し算は、半径を一定として簡単にすれば回転に対応して同じ領域内(球面上)で収まると直観的に思ったのですがどうなんでしょう?

    • @Mr-Naganegi
      @Mr-Naganegi 3 месяца назад

      矢印が地球の曲面に沿って曲がってて、それを繋げる演算って感じですかね?
      経度と緯度にこだわる場合は、緯度方向の平行移動によって矢印の大きさを変えないといけないので、これが「尺度」としてベクトルの第三成分になってしまうと思います(尺度は初期値座標に従属して緯度経度の双方に影響を与えるので2階テンソルと見ても良いかもしれません)。
      経度緯度にこだわらず、球面上の2方向(成す角が緯度により不変)であれば、複雑な仕掛け無しに接ベクトル空間として定義できそうです。

  • @spacelike4724
    @spacelike4724 3 месяца назад

    >「コップ」が出たら「から」、「青い」が出たら「そら」
    「この青いコップは空です」「このコップの青は空です(空の色)」

  • @kazukiyoshida9821
    @kazukiyoshida9821 3 месяца назад

    文脈化単語埋め込みについて
     空(そら)と空(くう)が同じラベルの別の単語として登録されていて、ラベルだけではどちらか分からないために、わざわざ総当たりを行って、隣接する単語と関連性が高い方を選択しているという認識でいいのだろうか。別の漢字を当てていればこんな苦労はしなかったのに。(漢文における「君」とかどう処理しているのだろうか。)
     そのような単語は、明瞭な単語に比べて計算量が単純に倍増するため、もし、AIがエネルギー事情をわきまえるようになったら、こういった単語を淘汰するかもしれない。その場合は煩わしい単語の多義性を駆逐するようになるため、詩的な文章をスクリーン上へ送り出す機会が減るのかもしれない。逆に考えると、人間は言語の煩わしさによって脳のエネルギーレベルが上がっているのかもしれない。(と思ったが、ミクロとマクロでエネルギー効率の逆転が起きそうな気がする。)

  • @renk1310
    @renk1310 3 месяца назад +1

    34:35 でも確かに、一口に「猫」と言っても、動物の猫を指してる時と、ぬいぐるみの猫を指してる時と、絵の猫を指してる時と、アニメとかに出てくるちょっと人間っぽい猫を指してる時とで扱いって微妙に変わるから、周りの単語から推測して、色々調整かけてるってことなのかな?
    絵画の猫と言ってもいろんなスタイルで描かれた猫があるし、猫のキャラクターだってリアルなものからほとんど人間みたいなのもあるわけで、それって全部ちょっとずつ意味合い変わってくるもんなぁ。
    動物の猫でも、ペット、野良猫、保護猫、家畜化、セレブの飾り物とか、色々な文脈で出てくるし、その全部でニュアンスを汲み取ってる感じなのかな……

  • @pama251
    @pama251 3 месяца назад +1

    28:31 りょーさんゲスト会に風俗の話でリアルりょーさん(恐らく両津勘吉)って言うのはまずいでしょwww

  • @wtb401
    @wtb401 3 месяца назад +21

    ベクトルについて、間違った理解の堀元さんが、正しい理解の水野さんを誤った方向に正していて、悲しいですね

  • @lonestar930
    @lonestar930 3 месяца назад

    自分を形作るのは外界との境界みたいなアイデンティティの考え方があるけど、単語を形成するのも周りの単語であるってことだな。
    その単語そのものの分析を深めてもナンセンスな感じがよい。

  • @Seiya_laugh
    @Seiya_laugh 3 месяца назад +1

    16:11 水野さん、ねこも散歩が必要だと思ってることが判明

  • @shal1457
    @shal1457 3 месяца назад +1

    人間を指して小規模言語モデルって言うのおもしろいw

  • @ねんネんころリ
    @ねんネんころリ 3 месяца назад

    毎回面白過ぎて慕い過ぎの結果、二人のイケメンっぷりに見惚れてしまい、理解の邪魔になる いい感じの味付けで学習した結果でしょうね

  • @shiraishi_iori
    @shiraishi_iori 2 месяца назад

    “言葉を定義するための言葉”を定義しようとするとマトリョーシカになっちゃうから、定義づけの代わりに数を与えて空間的計算を与えよう、ってことか〜。かしこ。

  • @shatemalno4392
    @shatemalno4392 3 месяца назад

    単語ベクトルのあたりで一緒に使われる単語の話があったが、このはなしでグーグルの検索エンジンの良い参照を出すためにループさせたり、一定確率でジャンプしたりするスキームが使えそうだと思った。

  • @まさぽこP
    @まさぽこP 3 месяца назад +1

    正しいラベル付けとか、イレギュラー因子へ追加ラベルするとか、学習結果への正誤判定みたいな途方もない作業だろうね

  • @Nerinen
    @Nerinen Месяц назад

    43:05 言語学を学んでいない多くの人類にとっては、単語の意味も文法も、他者との会話や読書を経て、経験の蓄積によって“いい感じに”習得している点で、AIと変わらないのでは?と思いました。

  • @さかなかわ
    @さかなかわ 3 месяца назад +1

    水野さんとりょーさんの声が似過ぎてPodcastでは混乱してこちらに

  • @Jinkei2016
    @Jinkei2016 3 месяца назад +21

    5:45 ここも間違ってる。実ベクトルを考えてるわけじゃなければk(a, b)=(ka, kb)が成り立たなくてもベクトル空間の公理自体は満たすから、「球面上のスカラー倍」が定義されていれば問題ない(マイナスの北緯が定義できれば水野さんの直観は極めて正しい)。ベクトル空間の定義を見れば分かる通り、数値の組で表されるからと言ってベクトルとは限らないし、ベクトルだからと言って何かしらの要素の組で表されるとは限らない。つまりベクトルにとって「数値の組で表されること」は全く本質的ではない。
    堀元さんやスタッフはレベルの低い教科書の導入として出てくる「実ベクトル」の性質に引っ張られているだけで、数学的なベクトルの定義を理解できていない。堀元さんよりも水野さんの方が理解が(どちらかといえば)正しいことを言っているのに無知な道化として扱われているのがグロテスク。堀元さんには、数学科の1年生が読むような線型代数学の教科書のベクトル(≠実ベクトル)の定義を読んでほしい。

    • @天才の証明
      @天才の証明 3 месяца назад +3

      ここで言うベクトルはベクトル空間じゃなくて、コンピューターサイエンスが良く扱うR^nの事だからそうなってると思う

    • @ssusp
      @ssusp 3 месяца назад +2

      数学とコンピュータサイエンスをごっちゃにしすぎないように慎重にならないとね

    • @Jinkei2016
      @Jinkei2016 3 месяца назад

      @@天才の証明 何言ってるんですか?R^nはベクトルではありませんよ。R^nはベクトルではなくベクトル空間の具体例の一種です。あなたは(i)ベクトルとベクトル空間を混同している,(ii)概念と具体例を混同している,という2つの勘違いをしています。

    • @Jinkei2016
      @Jinkei2016 3 месяца назад

      @@ssusp どういうことですか?

    • @天才の証明
      @天才の証明 3 месяца назад

      @@Jinkei2016
      分かってるよ
      ベクトル空間は多項式とか多種多様な物を含む事ぐらいね
      ただ、そこまで厳密にやるのは数学科だからであって、他の学部だとそこら辺良い加減で良いのも多い(物理学者がよくやる、全ての関数はテイラー展開出来るみたいなのと似た感じ)
      コンピューターサイエンスでは基本扱いやすいR^nで統一してる感じなのかも
      簡単に言うと、数学のノリは多分野で出すと偶に空気読めないと思われるからきを付けて

  • @gnwf47
    @gnwf47 3 месяца назад +3

    本動画のコメント欄における
    「堀」の遷移確率は
    元(57%)、本(43%)
    (n=7、本コメントは除く)
    ※2024年6月23日14時47分現在

    • @fourfiveone5968
      @fourfiveone5968 3 месяца назад +1

      儀が真をうわまわる!

    • @gnwf47
      @gnwf47 3 месяца назад

      @@fourfiveone5968データ数が増えて真が偽をうわまりました。

  • @tststs2222
    @tststs2222 2 месяца назад

    多義語の解釈につきましては、人間が前提知識なしに 電話の受話器からながれてくる講演会の説明音声をきいて、内容を判別理解するのに似てるのかもしれませんね。前後の内容から、あ、この同音異義語は、この意味で使ってるんだな、っていうのを前後の説明の範囲を段階的に広げていくことで正しく理解できる可能性を高める。みたいな。

  • @graph23
    @graph23 3 месяца назад

    Bitter Lesson か。
    むかし、カナダの国会の議事録(英語、フランス語両方で記述)をベースにした翻訳の事例
    (議事録上の単語を統計的に見ているだけで、辞書も文の構文解析にしていないのにうまい翻訳ができた)を聞いた後は、
    翻訳ソフト開発者の言で「あとは、辞書の整備ができれば、人間の通訳と同等となります」は、「やっぱりねぇ」と思った。

  • @user-up9ig2to3y
    @user-up9ig2to3y 3 месяца назад +5

    基底ベクトルの話を高校の話がどうって一蹴されてるのはちょっと

  • @kuhlyuvuy7404
    @kuhlyuvuy7404 3 месяца назад +34

    犬も猫も吸うが???幸せな匂いを吸いまくってるが???

    • @早川眠人
      @早川眠人 3 месяца назад +6

      犬を飼うまで犬は臭いという認識だったが、今は幸せな匂いという感覚に共感できる。

    • @kuhlyuvuy7404
      @kuhlyuvuy7404 3 месяца назад +2

      @@早川眠人 今家に生後3ヶ月の子と1歳の犬がいるんですけど、子犬、なぜか塩昆布の匂いがして1歳の方がいい匂して人間と真逆だなーと感じてます

  • @yukkkeefukkkaa4375
    @yukkkeefukkkaa4375 3 месяца назад +1

    りょうさんと次元圧縮された水野さんとのラジオも少し見てみたい

  • @ss-8099
    @ss-8099 3 месяца назад +2

    蛙鳴蝉噪-一瀉千里+把羅剔抉
    =無駄な表現が多く進行が遅く、短所のあらさがしをするもの
    ≒茶化し茄子...??

  • @術中hack
    @術中hack 3 месяца назад +1

    味付けのたとえのせいで正確性が影響を受けるくだり、ゆる学習学ラジオのドヒャー型ストラテジーを思い出した。

  • @Sasami1729_
    @Sasami1729_ 3 месяца назад +2

    最初りょーさんが手振ったあと表情変えないでちょっとだけ手振る水野さんめちゃくちゃかわいかった

  • @キキ-o2n5s
    @キキ-o2n5s 3 месяца назад

    りょーさんへの直接の質問を妨害する堀元さん、あちこちにいる謎の仲介業者みたいで好き

  • @レケム
    @レケム 3 месяца назад

    周りの情報をベクトルに混ぜる、これは非12平均律の音楽等における旋律や和声の音高(音程)の取り決めでも似たことをしていると思います
    直前周辺の音高からの関係性が重要だったりします
    音律もAIを使えればさらに洗練させられるんだろうなと思いました

  • @highjumptaka
    @highjumptaka 3 месяца назад +1

    神経回路を真似してみたら何故かはよく分からないけど「いい感じ」の出力が出たので活用している、というのがニューラルネットワークという理解でいいですか?

  • @中尾-n1y
    @中尾-n1y 3 месяца назад

    作った人も挙動が把握できてないのすごいですね。
    自分で作った物の挙動を自分で調べるのはエンジニアリングのどの分野でもありますが、それにしてもすごいですね。

  • @englishtreeabc
    @englishtreeabc 3 месяца назад +2

    猫吸いって言いますよね、猫のお腹のもふもふに顔を埋めて吸うの。

  • @United_sandglass
    @United_sandglass 3 месяца назад +6

    喋るだけで面白いりょーさん

  • @meikai3316
    @meikai3316 3 месяца назад

    12:10
    文章にするとやってる事エグくて笑いながら恐怖🫨

  • @tktk5656
    @tktk5656 3 месяца назад +1

    話聞けば聞くほど産まれてこのかた自分らの学習方法も大規模言語モデルと変わらないんじゃないかなって気がする。
    その人を形作るものもまた周囲の異なる人達との対比で成り立ってるうんぬんみたいな話と一緒か。