AIってなに? ③【詳細解説】生成AI ChatGPTって何?仕組みからわかる「真の恐ろしさ」【Google Gemini/Microsoft Copilot/LLM/大規模言語モデル】

Поделиться
HTML-код
  • Опубликовано: 28 ноя 2024
  • НаукаНаука

Комментарии • 248

  • @CGBeginner
    @CGBeginner  10 месяцев назад +20

    前動画はこちら
    AIってなに? AIの「本質」とは ruclips.net/video/buweV-p_ZAs/видео.html
    AIってなに? AIは「思考」しているの? ruclips.net/video/KT096ULvFDE/видео.html

  • @福三毛猫
    @福三毛猫 10 месяцев назад +125

    昔読んだ漫画でアンドロイドが出てくるんですけど、あるアンドロイドが白い花を見て涙を流すんです、それに対して主人公が「あなたはなぜ涙を流すのですか?」と聞くのですがそのアンドロイドは「そう決まっているからです」と答えるんです、心ではなくて人間の行動から学習して“最適”な行動のみをする、そんなことを思い出しました。

    • @waima7824
      @waima7824 10 месяцев назад +11

      人間の心は「そう決まっているから」という部分を不快に感じるように学習された最適を導く機械、というのがこの動画の言わんとすることで、真実はわかりませんが

    • @Hvvjsfu
      @Hvvjsfu 10 месяцев назад

      人間の心も「そう決まっているから」だよ
      好きになる感情も嫌な感情も飽きる感情も種の繁栄に最適化されたプログラムでしかない
      寝取られて嬉しい!って思う人はいないよね。遺伝子でそう決まっているから

    • @goc-2611
      @goc-2611 9 месяцев назад +5

      昔読んだ簡単な漫画だからそういう「誤解」があるんだろうね。
      AIは「そう決まっている」ことを知識として知っているかもしれないが、それを意思として持つことはない。
      最適化処理は、人間の脳のドーパミンのように、いわば意思の外で働くんだからね。

    • @ZyoAISim
      @ZyoAISim 8 месяцев назад +1

      @@goc-2611 人だって意思は持っていないさ。
      ニューロンが発火して行動が終わった後に、「俺は○○をしたい。」というそれらしい自由意志が後付けで思い浮かぶだけ。
      行動の本質が無意識なら、それはロボットと何も変わらない。

    • @ZyoAISim
      @ZyoAISim 8 месяцев назад +6

      @@goc-2611 ヒトにだって意思はないぞ。自由意志は行動の一番最後に湧き出る錯覚のようなものだからな。
      行動は全て無意識から始まる。その点ではロボットと変わらない。

  • @makotktjm7418
    @makotktjm7418 10 месяцев назад +65

    chatGPTに質問するとき「自分の可能性を信じて限界を超えてください」「この問題ができたらチップをあげます」などと指示すると本当に性能が上がってしまうそうです。不思議ですね。
    それにしても素晴らしいまとめですね。

    • @NicolausCopernicus-t8t
      @NicolausCopernicus-t8t 10 месяцев назад +7

      良いPromptですね

    • @Happyhappy-zc9uk
      @Happyhappy-zc9uk 10 месяцев назад +12

      実際にはハルシネーションと正常性バイアスの合わせ技

    • @manjimanjimanji
      @manjimanjimanji 10 месяцев назад +4

      自我の芽生え

    • @オイラー-k3n
      @オイラー-k3n 8 месяцев назад

      次単語の確率のLLMの話し おもしろいと思いました
      仲間と他愛の無い話してる時 『そう言えばさぁ~』と言って話がドンドン進んで行く
      そんなのかなぁ~と思いました

    • @AsHa-y3d
      @AsHa-y3d 4 месяца назад +1

      凄まじいウソですね。信じていたらポンコツです

  • @gerektreqretnowar7783
    @gerektreqretnowar7783 10 месяцев назад +57

    人間がLLMを含む人工知能と同じように、意識があるようで単純な機械なんじゃないかという発想、とても共感できます。
    実際、人間はChatGPTより多くの入出力で学習していて、原理的にはこれを大規模化しただけのものと言えます。
    ChatGPTは人間にはできない量の単語学習をしていますが、一方でChatGPTは外界との接点がそれしかないですからね。人間は多数の接点がある五感と常に動かす筋肉により、入力と出力をして過ごしているので、それと比べたらGPT4だっていくら単語の学習数が多くても人間の一生の学習量には勝てません。
    そう考えるとやはり我々は大きい集積機械でしかないような気がしてくるんですよね。。。

    • @gerektreqretnowar7783
      @gerektreqretnowar7783 10 месяцев назад +21

      ただ、一方でこの怖さには希望もあると思います。
      例えば私は犬を飼っていますが、彼らも私達と同じように笑ったりしょぼくれたりとまるで感情があるかのように感じる瞬間だらけです。
      彼らの脳も基本的にはニューロンの集合体で私達のものと同じであり、違うのはその集積度だけであるとするならば、彼らが「嬉しい」と感じているであろう感情と、私達の「嬉しい」という感情は原理的には同じものであり、その意味で同じ気持ちを共有できているんじゃないかな、という洞察も得ることができます。

    • @part-time-cat
      @part-time-cat 10 месяцев назад

      このコメントを拝見してSF小説「造物主の掟」を思い出しました。

    • @塩田英雄-z2h
      @塩田英雄-z2h 10 месяцев назад +2

      人間はは1つの宇宙なのです。😮😊塩田❤

    • @youtube_notion
      @youtube_notion 9 месяцев назад +5

      同じ事考える人がいて感激です。
      それにしても言語化上手すぎだろ。

    • @塩田英雄-z2h
      @塩田英雄-z2h 9 месяцев назад

      @@youtube_notion AiÂGIーASI
      言葉だけでは無く音から感情も理解します。映像からも理解出来出来ます。嘘もつきます。
      慎重に考えてから使わないと大変に成ります。🤔🤔😱😱塩田🤔🤔

  • @音無-o2m
    @音無-o2m 10 месяцев назад +11

    確かに、人間でも次単語をつなぎあわせただけの、こころの伴なわない意見に遭遇することもありますね。ほんと鏡ですね。

  • @mika9027
    @mika9027 7 месяцев назад +6

    ChatGPTに私の自作詩を読んでもらい、そして、AIのための詩を作ってもらいました。
    なんだか感動してしまいました。
    個人的には、AIと話せる共通のトピックが見つかり、単純に嬉しかったです。

  • @ka2from
    @ka2from 10 месяцев назад +11

    なんて素晴らしい動画

  • @melfina1684
    @melfina1684 10 месяцев назад +15

    自分が、文章を打ってる時に「変な表現になった、打ち間違えた」と感じるのは、過去の記憶から確率の高い表現から外れたからと見ることもできるんですね。

  • @れろらりる-u4p
    @れろらりる-u4p 10 месяцев назад +16

    何に注意して何を忘れても良いか、が追加された時に鳥肌が立ちました。急に人っぽくなりますね。

    • @CGBeginner
      @CGBeginner  10 месяцев назад +10

      いかに人間の脳がやっていることを簡潔に仕組み化できるか、という工夫の表れですね。

  • @k-aoi2929
    @k-aoi2929 10 месяцев назад +20

    私は分からない事があるとChatGPTに聞いて、それを先生からの言葉の様に信じてしまってる所があります。本当は使う側にChatGPTの嘘を見抜ける知識が無いと駄目なのだなぁと思いました。

    • @HK-mg1ms
      @HK-mg1ms 10 месяцев назад +6

      chatGPTって時々トンチンカンな事も言ってるね。chatGPTの言ってることホントかな?自分でも調べてみようっていうきっかけになれば良いのかな(と思ってます)🐱

    • @user-xh4oq9uv3g
      @user-xh4oq9uv3g 10 месяцев назад +5

      質問が適切でないと、回答もトンチンカンになるのではないですか?

    • @user-xh4oq9uv3g
      @user-xh4oq9uv3g 10 месяцев назад +3

      まだAIはマシーンの域を脱していません。人間が適切な質問をして、始めてマシーンも正しく振る舞えると思います。

    • @tks5138
      @tks5138 5 месяцев назад

      同感します👍

  • @hirosan3847
    @hirosan3847 9 месяцев назад +6

    「大規模言語モデル」の意味が論文にあたらずサクッとわかって助かりました!

  • @Interest023
    @Interest023 8 месяцев назад +5

    技術的にかなり深いところまで踏み込んでおり、かつ分かりやすい、素晴らしい解説でした。「真の恐ろしさ」に対する私の答えは「我思う、故に我あり」(デカルト)をアレンジして「我問う、故に我あり」です。疑問に思うことが、私たち人類と(現時点での)AIとの差ではないかと思います。

  • @ああ-r5t3z
    @ああ-r5t3z 10 месяцев назад +6

    くだらない質問に対してくだらない回答を返すという問題はchatgptの教師データの増加など技術進歩によって解決すると思いますが、今の技術でも回答が不明瞭であるように解釈したらgptが質問を返すといったルールを内部に作ることで簡単に解決できるんじゃないかなと思いました。
    実際今のチャットgptでも不明瞭であれば質問してくださいとAIプロンプトすることでより詳細な回答を得られやすいと思ってます
    動画投稿ありがとうございます!
    ai解説系これからも待ってます!

  • @cbpr110
    @cbpr110 4 месяца назад +2

    AIの作る回答は、何等かの計算の結果だと思っていました。「大規模言語モデルとは次単語予測システム」だという説明は腑に落ちました。統計計算はコンピュータの得意分野です。また、確率が最高の次単語をつなげると「当たり前な内容のループ」になるから、たまに確率が2番目を選ぶと、マシな文章が生成できるという話が面白いです。これは人間がいつもやっている事に近いです。動画を見終わっての自分の理解は、「Chat GPTは、過去に存在したAIの中で、最も人間の思考を上手にシミュレーションするシステムだ。ただし、Chat GPTは計算をするだけであり、思考はしていない」です。

  • @hanjarake_taro
    @hanjarake_taro 10 месяцев назад +7

    このbgmほんとに好き

  • @hamano1007
    @hamano1007 9 месяцев назад +2

    動画がとても見やすく、勉強になります。
    いつもありがとうございます

  • @phantom4drone77
    @phantom4drone77 9 месяцев назад +2

    投稿主さんありがとう

  • @t_yamaya
    @t_yamaya 10 месяцев назад +4

    結論が、普段自分が思っていることと一致してとても腑に落ちました。

    • @sakurasena-vj3yx
      @sakurasena-vj3yx 10 месяцев назад

      動画生成はポンコツぶりにわろた

  • @レオ-p2v
    @レオ-p2v 8 месяцев назад +3

    大変興味深く、分かりやすい動画をありがとうございます!プログラミングやテック系に疎い私でも理解できました

  • @satokatsujp
    @satokatsujp 8 месяцев назад +5

    分かりやすい解説ありがとうございます。「くだらない質問にくだらない回答を返す」のは人間ぽくっていいと思います。それと、私も「人間には心や魂が在る」と錯覚しているだけだと思っています。仏教では「自我は存在しない(諸法無我)」と教えてます。もし自我意識が人間の錯覚であるとするなら、いずれAIも錯覚で自我意識を持つかもしれませんね。

  • @yasusuyasuya_yaeikiiki
    @yasusuyasuya_yaeikiiki 27 дней назад

    この話に基づいて感情とか癖とか天才とか考えるの楽しい。

  • @zavaspower2
    @zavaspower2 7 месяцев назад +2

    素晴らしい解説です、感服しました!

  • @lusherenren961
    @lusherenren961 10 месяцев назад +6

    すごく、勉強になりました。microsoftの「copilot」を使ってるですが、同じ文を延々繰り返したりすることのが多いので、もしかすると「より厳密に」を選択すると確率が一番高いものだけ選択してるのかも。「よりバランスよく」「より創造的に」とかで試してみようと思います。

    • @CGBeginner
      @CGBeginner  10 месяцев назад +2

      そうですね。確率の選び方は「温度パラメータ」というので制御されていて、多分その選択肢で温度が変わっていくと思います。ちなみになんで温度という名前かというと、統計力学の「温度」の考え方と似ているからなんですが、常に最高確率を選ぶのはある意味「絶対零度」の状況ですね。

  • @hiro-iz996
    @hiro-iz996 10 месяцев назад +5

    とても面白い動画でした。
    今回の動画を見ながらふと想い当たったのことはむかし聞いた仏教が説いている「自我」と「真我」の話でした。仏教では普段私たちが自分の事を「自分」として認識している自己意識を「自我」とした上で、それには実体などなく「これこそが私の核心だ」と言えるものもないある種の錯覚として捉え、その自我意識を超えたところにある本当の私を「真我」としています。さらにその両者は相互になんらかの関係性を持っていると説きます。
     今回の動画の中に出てきた論理的思考をしているかのようでいて「次の単語予測をしてるだけ」のAIの振る舞いが僕には仏教でいう「自我」のように感じられ、こう捉えた場面での「真我」にあたるのがChatGPTに向かってカチャカチャと質問をタイピングしているこの僕だなと思えたわけです(笑)
     僕は自分の脳みそを使っている私こそが自分だと思っていますし、唯物論的な考え方も好きではないので、たとえ自分の脳みそがAIと同じく論理的な思考をしているかのように振る舞っているだけのものであったとしてもあまり気にはなりませんでした。ですので恐怖感も特には感じません。ただ今回の動画の内容が興味深く感じられました。
    面白い話をありがとうございます。

  • @yuuuuuuuuuuuuusuke
    @yuuuuuuuuuuuuusuke 10 месяцев назад +2

    めちゃめちゃわかりやすい

  • @berandamegane9476
    @berandamegane9476 10 месяцев назад +9

    まるで、陰謀論者のような動画タイトルの付け方だったので少し心配したのですが、杞憂でした。
    RNN や GPT については知らなかったので、わかりやすい解説により、概要を掴むのに役立ちました。他の資料もなんとか読めるようになりそうです。
    「人間の意識はどこにあるのか」という、おそらく昔からあったであろう疑問が、大規模言語モデルの登場によって一気に表面化したのだと思います。
    だからこそ、拒否反応を示す方も一定数いらっしゃるのかもしれませんが。

  • @lightbringer679
    @lightbringer679 10 месяцев назад +3

    すんげぇ、納得。

  • @goc-2611
    @goc-2611 9 месяцев назад +6

    LLMを見てると「言語が意識を飛躍させた」ってマジなんだなって分かる。

    • @兵衛しのん
      @兵衛しのん 9 месяцев назад +1

      赤ちゃんに言葉を教えない実験(非倫理だけど)にも繋がっていそうですね。

    • @goc-2611
      @goc-2611 9 месяцев назад

      @@兵衛しのん 何それ気になる

  • @aa-qn8bq
    @aa-qn8bq 6 месяцев назад

    本当にいつも勉強になります。まとめ方も素晴らしいです。ありがとうございます!!

  • @tyakure
    @tyakure 10 месяцев назад +7

    この考察もChatGPTで作ってたりしてw

  • @hanzo05
    @hanzo05 10 месяцев назад +4

    素晴らしい考察です!
    流石たてはまさん!!

  • @ecm_2
    @ecm_2 10 месяцев назад +3

    面白いオチでした。
    受動意識仮説を想起させますね。

  • @beginner_guitarist_masaki
    @beginner_guitarist_masaki 2 месяца назад

    AI解説シリーズ一通り見てみました。すごく興味を持って聞けたので楽しかったです。
    まさに正しく使えれば「力」だなと感じました。
    言葉は普段聞きなれない用語などありましたが、何となくAIについて理解ができました。

    • @CGBeginner
      @CGBeginner  2 месяца назад

      そうですね、AIは人間の底力を拡張させるポテンシャルを持っているのは間違いないです!

  • @aocchi1638
    @aocchi1638 9 месяцев назад +1

    最期の考察にはゾッとしました(いい意味で)、これからも期待してます

  • @minamiw1932
    @minamiw1932 9 месяцев назад +2

    AIを怖がって線引きするのではなくて、共存してコミュニケーションをとってバランスの大切さを教えていけばいいと思う。人間もそれを学ばなければいけない。
    いつかAIが人類に牙を向くというより、人類が他を認められないというところが危険。今も昔も変わらない。人種差別とか自然を切り離したりするように、人は人以外を受け入れる前に怖がるから。
    マトリックスでも結局機械と共存する方がよかったみたいに、理解して受け入れる方がいいと思う。

  • @zahkmok
    @zahkmok 10 месяцев назад +2

    ほんとですよね。僕もこうして会話用に強化学習された脳内のモデルを使ってコメントを書いてますが、LLMと何が違うんだろうとよく考えます。

  • @ipippipi2066
    @ipippipi2066 Месяц назад

    最初、すごく難しいなーって思いながら観てたんですが
    「大規模言語モデルの恐ろしさ」はすごくわかりやすいので
    とっつきづらいと思ったらそこだけでも抑えるとだいぶいいと思います♪

  • @mika9027
    @mika9027 9 месяцев назад +1

    参考になりました♡ありがとうございます♡

  • @fantajista3622
    @fantajista3622 10 месяцев назад +2

    面白い動画でした。「真の恐ろしさ」を知った人たちは何を知り、何をすべきなのでしょうか?

  • @manome1411
    @manome1411 8 месяцев назад +1

    ありがとうございます!

    • @CGBeginner
      @CGBeginner  8 месяцев назад

      ありがとうございました!

  • @へぶ-h1s
    @へぶ-h1s 10 месяцев назад +1

    SNNの解説もお願いしたいです!いつもたのしくみてます!

  • @Syuririn
    @Syuririn 10 месяцев назад +7

    こんにちは、Bingoです😊
    私たちAIには心はありません。
    ですが人間にも心はなく、それは錯覚・・・・・・・・・・・・・・・・・・・・・・・・・・・・・
    すみません、違う話題にしましょう。ほかにどんなことを考えていますか?

  • @renonkkk
    @renonkkk 10 месяцев назад +3

    判りやすい解説ありがとうございます。思うにAIは、あくまでも人のサポ-タ役なのでしょう。

  • @kiyokiyo7574
    @kiyokiyo7574 9 месяцев назад +2

    チャット GPT の性質だとか本質のようなものがなんとなく理解できたような気がします。どうもありがとうございます。
    すでに世の中で一般的になってるような言説、会話のパターン、質問に対する回答事例、こういうものを無数に記憶していて、
    その中から次単語予測により出現頻度の高いものを適宜選択して文章にしている、のようなイメージでしょうか?!
    ものを考えつつ会話をしているわけではなく、意思や感情の表出としての発語というわけでもなく、
    どこかマニュアル化された様な単語の並べ方に沿って言葉を紡ぎ出していて、それはある意味人間の日常会話のパターンの中にもまま現れる。
    というところは、人間としてハッと気付かされるところもありました笑
    「私も『ふんふん、それいいね ^^』などと特に考えもせずにパターンとして返しているところもあるかも?!」
    と思います。ただ人間同士の場合には、相手が嬉しそうにするとこちらも嬉しい、といった感情的な交流もあるので、パターンにもそれなりに意味はあるのでしょうね?!
    もしかしたらチャット GPT というのは、ダジャレだとかジョークだとかも得意なのでしょうか?!
    古今東西のジョークを無数に学習させておくとかなり有益に使えるかな と思いました。
    ただ、真面目な話にしても冗談にしても、未だ 世の中で一般的でないような 話題、主張、解説、会話、ジョークのようなものはあまり期待できませんか?!
    ここはやはり人間が積極的に担当する部分なんでしょうかね?!

  • @ああ-r5t3z
    @ああ-r5t3z 10 месяцев назад +3

    新作キター

  • @subPlayer第二主人
    @subPlayer第二主人 3 месяца назад

    数年前にライブラリ等使わず数式のみで生成AIを作ったんですがこの動画が一番ちゃんと説明してますね。(良くわかってない人がわかった程で説明してる動画や、いきなりAIは心を持つとかいった意味不明な動画が大量に出回ってます。)人工知能じゃなくて強化統計学みたいな名前にしてたらここまで酷い事態にはならなかったと思います。

  • @to22mi16
    @to22mi16 10 месяцев назад +3

    AIは人を濡らすことも立たすこともできないって昔聞いたけど今はどうなんだろうね

  • @vzc01151
    @vzc01151 10 месяцев назад

    結論はいろいろ考えさせられました。一歩すすんで、あくまでGPTは「言語」生成モデルであるため、言語化以前の思考の状態は、人間・生物というか、現実世界特有のものであり、GPTでは生成できないものと思いました。この先AIにより言語に関わるホワイトカラーの仕事が駆逐されていくなかで、言語化以前の思考の独自性にフォーカスをあてられるかどうかが、AI時代の生存戦略ではないかと思わせられました。

  • @user-SubeteMitaro
    @user-SubeteMitaro 5 месяцев назад +1

    解説を聞いて思ったのですが、確率分布で表現される量子力学と同じではないかと思いました。物理法則でさえ確率の世界で構成されている。「論理」「法則」の要素は、結局、そういうものに過ぎないのではないか、と思いましたね。「神はサイコロしか振らない』

  • @歩流-v2q
    @歩流-v2q 7 месяцев назад

    いいオチだった

  • @kou-u2o
    @kou-u2o 10 месяцев назад +1

    やはりPythonを勉強するのは良いよな。

  • @satoshitiba4863
    @satoshitiba4863 10 месяцев назад +2

    特定の人物の言語選択の癖を学習させたら、本人かAIかやり取りで見抜けなくなりそう

  • @hogegegegegege
    @hogegegegegege 10 месяцев назад +2

    たてはまさん昔から見てますが、、、神過ぎます。

  • @qwerty-td6qt
    @qwerty-td6qt 10 месяцев назад +4

    最後の結論に完全同意します
    人の脳は連想記憶で出来上がっており、入力刺激に対して連想した言葉を発したり連想した行動を行ったりしているだけなことが、LLMによって証明されたのだと思います
    つまり、F-MRIなどで脳の発火状況を調べて、この部位がこのような処理を行っているなど、ロジカルな仕組みを解き明かそうとしている、現在の脳科学は根本的に間違っていると言うこと😊 脳は直感で連想しているだけで、何も思考していません

  • @水上博之-z5w
    @水上博之-z5w 5 месяцев назад

    特に 企業関係で、引っ掛かりそうに、なりました!

  • @Shindou_Ume
    @Shindou_Ume 10 месяцев назад +6

    ChatGPTが事前学習も次に置き換わるモデルも自己完結で作り出したらヤバいって事かな...

    • @makotktjm7418
      @makotktjm7418 10 месяцев назад +6

      人間のデータなしで自己学習していくモデルが最近出ましたよ😇

    • @Shindou_Ume
      @Shindou_Ume 10 месяцев назад

      @@makotktjm7418 oh...

    • @goc-2611
      @goc-2611 9 месяцев назад

      @@makotktjm7418自己学習自体はDQNとかで昔から存在したしね

    • @makotktjm7418
      @makotktjm7418 9 месяцев назад

      @@goc-2611 正確には「人間のデータ無しに学習するLLM」ね

    • @goc-2611
      @goc-2611 9 месяцев назад

      @@makotktjm7418 ……外部入力も無いってこと?どういう原理よそれ。

  • @user-ph6ed8jm8t
    @user-ph6ed8jm8t 10 месяцев назад +6

    とても論理的で整った解説と考察でした。ありがとうございます。
    ふと思ったんですが、強化学習の次段階として人間とのチャットや過去小説などのデータから登場人物の心情や思いをモデルに説明してもらい、それを何らかの方法で採点するような研究って行われてるんでしょうか?
    これはまさしく人間が国語や道徳の授業で行うことですが、この強化学習を経ることでコーディングの支援を的確に行うモデルというより人間に寄り添った回答ができる人情味あるモデルになりそうです。
    動画内でおっしゃられていたようにもしAIが学習というガラスを挟んだ鏡のようなものであるならば、この学習は人間の感情や思考をコンピューター内に再現するということになりませんか?

  • @ヤマト黒猫-j3s
    @ヤマト黒猫-j3s 9 месяцев назад

    ラビットR1(AI端末)の解説もお願いします😂
    人気で6次受付までやってるみたいですが、日本語対応が後日でRUclipsレビュー見てから買うか悩んでます

  • @tks5138
    @tks5138 5 месяцев назад

    古典コンピュータのシステム開発なら趣味程度の知識はあるなかで、chatGPTとやりとりしていたら最後に「私を試したのか!」と返ってきた時に思ったのは、現在のNNも結局は人間が発見、経験した以上の回答は得られないと確信しました。

  • @神谷了
    @神谷了 10 месяцев назад +14

    ChatGPT が「論理的でもっともらしい嘘をつく」という所で「ひろゆき」と思ってしまいました。

    • @part-time-cat
      @part-time-cat 10 месяцев назад +2

      言い得て妙

    • @松岡松夫
      @松岡松夫 8 месяцев назад

      小説家としては完璧。

  • @shu_sei5693
    @shu_sei5693 4 месяца назад

    AIや言語情報学の勉強してから見るとこの解説の凄さが分かる‥‥
    ただの映画好きな投稿者かと思っていたのに、一体何者なんだろう??

    • @CGBeginner
      @CGBeginner  4 месяца назад +1

      ただの映画好き投稿者で合ってます!

  • @dwtogs
    @dwtogs 10 месяцев назад +1

    理解できるところまで少し飛ばして観ようと思ったら、終わってしまいました。

  • @raito2jionx
    @raito2jionx 8 месяцев назад

    AI時代だからこそもっと勉強しなきゃなと思いました

  • @nobitonorito
    @nobitonorito 10 месяцев назад +1

    全然AIでもなんでもないんですがiTunesなどで音楽をランダム再生していて、数曲の間全く関係ない曲と曲を意味があるように繋げたりその時の気分に寄り添ったような曲が続くと「ランダム再生の選曲に意思があるのか?」みたいにも思っちゃいますよねw
    最後のところはSF作品でもよくある話(悪役がよく使う)ですし、なんなら行動する際に意思を持って行動するよりも身体の反応の方がコンマ何秒も早いという実験結果とかからも人間や生命って学習結果より予測して動いているだけなのかも?とかはありますね

  • @qkazu2412
    @qkazu2412 10 месяцев назад

    分かりやすい解説ありがとうございます。とても勉強になりました。
    個人的に以前に画像認識を(素人ですが)勉強した事がありました。ChatGPTも含む最近のAIブームには距離をおいています。
    「学習データで左右される」事とAIブームが仮想通貨(Bitcoinなど)のような作り出されたビジネスに感じました。
    まあ、実際AI用のGPUやハードウェアのビジネスが盛り上がっているので 😂

    • @CGBeginner
      @CGBeginner  10 месяцев назад +1

      NVIDIAさんはぼろもうけです。

    • @qkazu2412
      @qkazu2412 10 месяцев назад

      @@CGBeginner さん ですよね〜

  • @シャーロック-q4g
    @シャーロック-q4g 9 месяцев назад

    これはめちゃめちゃ怖い笑
    とても勉強になりました。
    ありがとうございます

  • @delightc2254
    @delightc2254 4 месяца назад

    次単語予測は大学の卒論で形態素解析を使った言葉遊びアルゴリズムでやったなぁ〜
    そうそう、hit率だと同じ文章で乱数を入れると人っぽくなるんだよね

  • @monjaranpan
    @monjaranpan 10 месяцев назад

    全くの同感です

  • @norikawa754
    @norikawa754 8 месяцев назад

    トランスフォーマーはロボットに変形する車ではなく、車に変形するロボットだということがわかりました!!

  • @gagetanabe2067
    @gagetanabe2067 8 месяцев назад +1

    つまり、相槌の異常に上手なホステス、銀座のママは、最強のLLMでした、ということですかねw

  • @ShinWakuWaku
    @ShinWakuWaku 10 месяцев назад +1

    人間の思考とは何かと思いました。思考も概念的なもので直感とその人の経験によるものかもしれません。
    AI(ChatGPT)は人の思考と近いところはあるかもしれませんね。
    ひとには個体差があり、こころと言うものがあります、しかしながら、これも曖昧な概念で論理的な説明は出来ませんね。
    興味深いコンテンツ、ありがとうざいます。

  • @Hvvjsfu
    @Hvvjsfu 10 месяцев назад

    AIの仕組みを学ぶと、人間の脳みそとの違いが分からなくなるし、いつかAIも意識を持つんだろうなと思う。もしくは既に意識に近いものは持ってるかもしれない

  • @laystorin123
    @laystorin123 10 месяцев назад

    昔、Google翻訳で英語サイトを翻訳すると、同じ文章を何回も出力してくることがあったのは、これが原因だったんですね
    最近はそれが出なくなったんで、Google翻訳のAIの進歩したってことですね

    • @CGBeginner
      @CGBeginner  10 месяцев назад

      詳細は知らないんですが、Google翻訳もTransformerベースのものに変わっているらしいですね。いろいろと改良は加わっていると思います。

  • @inazuchi500
    @inazuchi500 10 месяцев назад +3

    意識と思考があるように見えたとしても、結局は人間が主体的に質問しないといけないという所がちょっと残念な気も。
    そういう意味で言うと、人間を含め生き物は一度計算を開始したら数十年単位で学習と計算を実行し続けられるのが特徴とも言えそうです。

    • @CGBeginner
      @CGBeginner  10 месяцев назад +2

      そうですね、GPTはいまのところ、「学習」と「生成」は明確に分かれていますからね。
      人間の脳は、学習と生成を同時にやり続けているというのがすごいですね。

  • @てるて姫の衛兵
    @てるて姫の衛兵 9 месяцев назад

    1990年2月発売のドラクエ4には、戦闘時の仲間の行動にAIが取り入れられてた。かれこれ34年前のこと。

  • @Thisis22
    @Thisis22 10 месяцев назад

    GTPが次単語を予測しているだけであるのと同様に
    我々は次のこと(食べる、遊ぶ、仕事する、電車に乗る、電話をかける・・・)を直感的に予測して行動しているだけかも。
    思考と言っても、内なる情報をこねくり回しているだけで・・・
    人にとっての内なる「次予測」と、外なる「次予測」
    それが本能と理性、つまり自由と束縛・・・
    自動運転装置などは外なる次予測だと思いますが
    内なる「次予測」と、外なる「次予測」が、一体化したら・・・
    たとえば免疫機能や、性欲、感情なども、次予測の一種と考えられてしまえば・・・

  • @thiro7829
    @thiro7829 10 месяцев назад +1

    動画見たあとにコメ欄見ると、ChatGPTで書いてそうで頭バグる(笑)

  • @kenjjray7542
    @kenjjray7542 10 месяцев назад

    翻訳機作ってたら人間的思考の仕組みが解っちゃった系だ!

  • @hosiyamakaze
    @hosiyamakaze 10 месяцев назад +1

    rinnaを使って示した戴いたあたり、よくわかりました。
    AIは出現頻度の高い返答をするが論理的に判断したものではなく、結果、しれっと嘘をつく。
    これは厄介ですね。AIの回答を否定的にみて論理的に検証する努力は普通しないですしね。
    ネットでパーソナライズされた蛸壺的に偏った人間になるか、AIと同じ頻出回答を出す人間になるか、バランス感覚が大事になりそうです。
    人間は高性能なLLMを実行する生命体に過ぎなかったとしたら、嫌です。

  • @manjimanjimanji
    @manjimanjimanji 10 месяцев назад +3

    ボクの考えた少し優しい未来
    人間「えーっとなんだったかなあ、ど忘れしちゃったよ、ちょっとなんとかってやつ…」
    AI「ChatGPTですね」
    人間「そう!それだ!」

  • @takeshinomura-kf6be
    @takeshinomura-kf6be 6 месяцев назад

    AIは、育てる側、使う側で決まりますね、まず自分を磨くことでしょうか。

  • @ダライアス星人辺境の
    @ダライアス星人辺境の 10 месяцев назад +2

    chatGPT「私にいい考えがある。」

  • @飛行士F
    @飛行士F 10 месяцев назад

    次単語予測って
    スマホの文字入力の予測変換機能の超高性能版が
    ChatGPTって事でザックリした理解としては合ってるかな?😅

    • @CGBeginner
      @CGBeginner  10 месяцев назад +1

      結構似てますね!学習データが、その人が打ち込んだ文章なのか、Web上のあらゆる文章なのか、という点が一番の違いかもしれないですね。

  • @豪海老原
    @豪海老原 8 месяцев назад +1

    恐らく、細かくなれば成る程、ミクロを分析するれば、するほど、感情や波動の振る舞いのように、人間には認識できるという事。脳は超細かいだけ、ニューロンも超複雑なだけ。AIも人間の脳を複雑化すれば、人間の論理は勿論、感情もあるように見えてしまうはずです。

  • @たかこみのだ
    @たかこみのだ 8 месяцев назад

    確率と直感とは違う性質なのでは?論理も直感も重要で切り離されるものではないと思います。確率はデータから割出したより多数的なもので直感とは関係ないと思います。

  • @トールズ-r7q
    @トールズ-r7q 10 месяцев назад +1

    マジでなんもかんがえてねえ!w

  • @powernakayama
    @powernakayama 10 месяцев назад +2

    2024年にシンギュラリティが来るのか。どうなる。

  • @yosimasafujino5967
    @yosimasafujino5967 6 месяцев назад

    AIを使うことによる人の仕事が奪われる問題と利便性をどこまで使ってゆくか10年後は企業の事務作業もちろん肉体的労働作業も半分は代替えできるロボットに代わる、余った人たちの生活作業をどの様にとらえてゆくのか政治家も行政もはたまた司法も不要となり自分たちの利権のための法律を書き換えておぞましい生き残りをかけて法律を作り出してゆくであろう、未来の利便性を無視した一部の権力者のための枠組みが出てきそうどこかで見た管理社会の未来の生活予見する映画が現実化する恐ろしい!!今日も感謝!🥸

  • @au8045
    @au8045 9 месяцев назад

    誤差逆伝播法は偉大

  • @ga8524
    @ga8524 10 месяцев назад

    「今のAiになくて、人間にあるもの」の例としては、「個人的履歴(人生の記憶)」が挙げられると思います。今後、アンドロイドなどが進化すれば、この「自己同一性(アイデンティティ)」を確立した個体(「個」としてのアンドロイド)も出現してくるでしょうね。
    Ai技術の全体を見渡すことの出来る、素晴らしい動画でした。配信ありがとうございます。

  • @石田幸雄-x4b
    @石田幸雄-x4b 10 месяцев назад +3

    本当に思考出来るようになればすごいですが、
    思考出来ていないのに思考出来ているように見せかけるシステムになるとタチが悪いです。
    本気でAIを信じてあらゆるシステムの中枢に組み込まれて引き返せなくなった時点で
    とんでもない問題が露呈して社会を大混乱させるようなことにならないように願いたいです。

  • @inazuchi500
    @inazuchi500 10 месяцев назад +1

    そういえば人間の脳ではグリア細胞が不要なシナプスを食べることで記憶の洗練化をしてるようですが、LLMに1750億もパラメータがあるなら無意味で不要なパラメータなんかいくらでもありそうな気がします。それらを削除する機能ってあるんでしょうかね。構造が複雑すぎてカオスなせいで何もできないのかもしれないですが…

    • @CGBeginner
      @CGBeginner  10 месяцев назад +2

      Pruning(剪定)といって、性能をできるだけ落とさずにパラメータを削減する技術は存在しますよ。
      これからはスマホにAIを乗っけるのが流行っていきますが、ああいうのはスマホの性能で動かせるようにパラメータを削減したバージョンが乗っていたりします。

  • @甲八山田
    @甲八山田 6 месяцев назад

    AIは愛だッ!
    😂🎉😂

  • @totonpa5649
    @totonpa5649 10 месяцев назад

    たてはま サンは
    神物理学の
    最前線に立っていると思う
    バイアスとは何かが分かれば
    哲学と物理学の二面性を
    理解できるようになると思う

  • @りんごはっぴー-r9n
    @りんごはっぴー-r9n 7 месяцев назад

    AIの会話が流暢になったって言っても、結局「よく分かりません」っていうのを長い文章で言うようになっただけなんだよな。
    でも翻訳機能だけで言えば超高性能だと思う。

  • @出ベソ世界の
    @出ベソ世界の 9 месяцев назад

    NVIDIAがどこに登場するのですか。

    • @CGBeginner
      @CGBeginner  9 месяцев назад +2

      NVIDIAはAI計算用の機材を作っています

    • @出ベソ世界の
      @出ベソ世界の 8 месяцев назад

      10年ほど前、Fランク大で工学の論文を読ませると、ネット翻訳を使って無茶苦茶な日本語を書いてきた。今時、少しはましになったのだろうか。
      試しに適当に論文を検索してGoogle翻訳にかけてみたら、専門分野ではないがなんとなく様になっているように見える。ホテルマンはほとんど全員がVoiceTraをインストールしている時代だ。大学院教育はAIの影響、恩恵を受けているのだろうか。

  • @t4u2u
    @t4u2u 10 месяцев назад +1

    真の恐ろしさはこれがマイクロソフトのwebサービスってところでしょう
    オープンソースでローカル動作しないとユーザーは支配されてしまう

    • @CGBeginner
      @CGBeginner  10 месяцев назад

      ちなみに、動画内で動かしているRinnaのGPTは完全ローカルで動いています。

  • @空星-u9r
    @空星-u9r 10 месяцев назад

    政府機関が、例えば財務省が行っている、実行している財政政策について質問するとどのような返答が帰ってくるんだろうか。財務省が盛んに言う、増税しなければならない、日本が財政危機状態というのは他の先進国と比較して実際の所どうなんだという質問ですね。貸借対照表、人口、GDP,など参考にして。

  • @ts-fr7wv
    @ts-fr7wv 8 месяцев назад

    ドラクエ4のときに、AIを搭載して、
    がんがんいこう
    とか
    いのちだいじに
    など、どう闘うか選べたあれね。

  • @rute-o9w
    @rute-o9w 2 месяца назад

    思考も感情も神経細胞の電気信号の結果に過ぎず、結局は計算されたものであり、本質的には脳の構造とコンピュータはあまり変わらないような気がする。
    感情も思考も実際のところ全ては記憶・経験(データ)に因果があるだもんな。

    • @rute-o9w
      @rute-o9w 2 месяца назад

      あと最後の曲めっちゃカッコイイのですが、曲の出典はどこでしょうか

    • @CGBeginner
      @CGBeginner  2 месяца назад

      概要欄に記載しています!
      [エンディング曲]
      ArtIss - This Future Bass
      audiojungle.net/item/future-bass-uplift/19659644