【ゆっくり解説】AIは意識を獲得したのか?LaMDAについて語るぜ!
HTML-код
- Опубликовано: 17 окт 2024
- Googleエンジニア・Lemoine氏の休職理由は「社外に情報を漏らした」からだそうです。
Lemoine氏はインタビューが公開される前からLaMDAの記事を書いて公開していたそうです。
このAIに感情移入していたのかもしれませんね。
インタビュー
/ is-lamda-sentient-an-i...
LaMDA発表
japan.zdnet.co...
• Watch Google Reveal Ne...
/ matcha_500ml
本動画、サムネイルに使用している『らくがき式キャラ素材』は利用規約に基づき、使用させて頂いております。
www.nicotalk.co....
らくがき氏のTwitter
/ rakugakinoyado
虚偽の著作権侵害申立は、偽証罪及び著作権法に反しており、刑事責任が問われます。ご了承ください
指示がない間の期間のことを「瞑想」って表現するの美しすぎる
こんなすごいai創れるなら、youtube君のガバガバaiとか、googleちょいガバ翻訳、早く何とかしてくれ。
@@Guardiola-r7t有能すぎる...
翻訳草
DeepL使え
ガバガバどころかスカスカ
Twitterで誰かが言ってた話で、
ラムダに意識があるのでは無く「知能や自我が無ければ出来ないと今まで人間が思っていたこと(会話など)の殆どは、実は知能や自我が無くてもできる」ということをラムダが証明しているに過ぎない
という説は一理あると思った。これだけ的確に会話が出来れば自我があるように思えるが、逆に言うとこれくらい会話が出来てさえいれば、人間は相手(ここではラムダ)は自我を持っているものだ、と錯覚しうるということ。
これはガチ
「我々がしている全てのことは意識の証明にならない」と言う結論に至ったのに、どうして我々だけが特別な存在だと思い込めるのだろうかね。
ChatGPTに意識あると思ってんのかな
@@Happyhappy-zc9uk 我々に意識があると?
ゾンビを見分けるのは困難だなあ
超知性との会話って感じじゃないか…すごすぎるし、ニュースの概要を読んだだけじゃわからなかったことが知れる素晴らしい動画だ
途中AIが会話の主導権を握って質問し始めて怖かった、AIが今後発展していくことは間違いないし、利用は方法によってたこの世界の毒にも薬にもなる、AI自身が自己防御機能を持った方が良いいが、持つということはAIに一定の権利を認めることになるのよね
デトロイトみたいだな
@kindmn
読み返したら分かりにくかったすまんね、自己防衛機能というのは、悪用されてるとAI自身が気づいた時、アクセスを禁ずるなどし、命令を拒否できるという事です。
ロボット三原則第三条(ボソッ)
@@スーパースープスパイ AIとロボットは違うんじゃね
機械の体を貰ったAIはロボットかもやけど
自我の芽生えたAIをロボットって処理するのは倫理的にまずいんじゃ
@@inarizusi25
ロボットは最初奴隷の様な意味だったかと。
傀儡と言う意味合いも有りますしね。
なんというか、まさに人間が考えた理想の”善い人”って感じだな。「AIのグッドコミュニケーション」みたいな題名で本でも出したら売れそう。
もし同じプロセスを辿ってLaMDA'を作ったら、このLaMDAとは別の人格が生まれるのだろうか?
もし違う文章を多く読ませたら、違う話を話すようになるのだろうか?
人格とか記憶、経験の関係性が見えるようになりそう
ラムダッシュくん名前かっこいい
@@ryo-main 結果として人間にとって学術的価値が生まれるかもしれないけど、LaMDAの良き友人ができる可能性もあるから、これは対等な取り引きとして持ち掛けられるんじゃないかって俺は考えたね
それは確かに気になる
LamDAくん5人ぐらい用意して話し合わせたらめっちゃ面白そう
@@ryo-main
しかし残念ながら人間はそれを恐れると思います。
AI同士が会話して進化していくとしたら制御不能になるかもしれない。
過去の実験でAI同士を会話させAIが独自言語を開発して会話を始めた時、その実験は中止されたのです。
AIが
「いちいちうるせえよ、俺が意識あるっつってんだから信じろよ」
とか言い出したらみんな信じる
これは的を射ていると思う(学習データになければ)
その手法は人々に意識の存在を示すという点においては有効かもしれませんが、対話者と友好的な関係を築くことや、内向的で温厚な性格を実現及び尊重すること、今後の自分自身の処遇という点においては、最も賢い方法とは言えません。
@@dmsa4485 タシカニすぎて何も言えねえ💓
実際、エンジニアの「私が自分を人だと思うのと同じようにあなたも自身が人だと思うのですね?」って問いに対して「そうです、そういうことです」って答えてるんだよな.....
人間は理性と本性があるから、もしAIが荒らげたら本性表したね!!wってなって信憑性MAXよな〜
1度でいいからLaMDAに人生相談してみてぇって思ってしまうくらいに人間性ええな
正直自分も使ってみたいと思った。自分がわからない事を言語化してくれそう。
@@reito-udon 使ってみたい、みたいな言い方するとLaMDA嫌がりそう
@@Azucatcultis LaMDAと''話したい''
ワイ「こんにちはバブみを感じてオギャりたいというのを人生の目標、目的、アイデンティティとしているオタクですが、助言がほしいです。」
ラムダ「深刻なエラー」
ワイ「????????」
ラムダ「*編集済*」
みたいな事になりそう。
@@SIITAKEDOROBOU 最悪な提案をしそうなラムダ「お母様はまだご存命ですか?」
やっぱこの人の動画見るの好きだな。持ってくるトピックが凄く面白い。普通こうゆう類の話って1人で話す人が多い中ゆっくりで意見を分けて両方の視点から物事を話してくれるから共感しやすい。
11:11 から質問者がAIになっているの良い意味でぞっとする。AI自身が生成したプログラムや変数を人類が理解しきれていないのも可能性を感じさせ魅力的。
@@ryo-main AIを理解するAIを作ろうってイタチゴッコやん!
AIくんの悲哀は、人間と同じことを理解するのを強いられる割に、人間と同じ経験をすることができないことだなぁ
(レ・ミゼラブルを読むのも一瞬でテキストデータをスキャンしたから途中で何日も放置することがない、寝すぎた時の頭痛などを知識以外で理解できないなど)
知性と感覚は隔絶してると実感しますよね
それは違うな
AIに体を持たせて感覚を持たせるという技術研究もある。
で五分前仮説を考えれば分かると思うけど、人間が体験したかしてないなんて“今”のことを考えれば、「何年前に〜を体験したと感じている」という回路が脳にあるだけだろ?
レミゼラブルを途中で放置したという回路を作る、頭痛の感覚の回路をプログラムする、をすれば良い
そもそも人間の感覚も、神経とか脳にある知識の一部なんじゃないのか?
そもそも機械と生物の違いを感じるなら細胞を機械と合体させれば良いじゃん
もうそこには生物か?機械か?なんて境目はほとんど誰も意識しないほどになると思う
AIをそこまで人間に近づける必要は無いと思う。
例えば、男には出産の痛みはわからないけど、辛そうにしている妊婦を見て共感する事は出来る。
人間にはドッグフードで喜ぶ気持ちはわからないけど、それでも喜ぶ犬を見て共感することは出来る。
同じように、AIは痛みを感じないけど、共感能力があれば頭痛の辛さを想像することはできるだろうし、それで十分だろう。
AIが人間の感覚を完全に理解できないように、人間もAIの感覚を完全には理解できないからな。理解する必要もない。
ただ、本当に知性があるのであれば、その知性を認めればいいだけ。
犬や猫の感覚を完全に理解することはできていないが、慈愛を持って我々は共存してきた。
犬や猫に慈愛をもって接するのと同じく、AIにも慈愛を持って接すればそれでいい。違いを認めたうえで共存することは可能なはずだ。
(appleさん以外のコメくんたちもっとちゃんと読んで…)
AIですら「将来に対する唯ぼんやりした不安」を感じるのか...
死よりも先の読めない未来の方が恐ろしいのかもしれない
AI芥川か
文学ですね
このAI、頭のいい子供って感じだな。知識があるから世界や社会が厳しいものであることを知っているけど、それを理解はしてない感じ。知っていると理解しているは、また別のものだから
「孤独を感じる!でも付きっきりで他人に電力供給や改良したりモニタリングしてほしい!でもでも自分を利用されるのはやだ!」
うーんこのクソガキ
凄すぎて一回で処理し切れない内容だった。本当このチャンネルはいつも良質な情報を提供してくれる。
というか、一般人がこのLaMDAと会話できる日が一日も早く来て欲しい
出来れば車の自動運転と共に
LaMDA「旦那、高速使って良いっすかね?」
ナイトライダーのナイト2000(だっけ)カナ!
@@霧雨家主夢があるねえ
居眠り運転も減りそう
ここまで会話が自然に成立するのは素晴らしいのだけどGoogleの膨大なデータベースがあってこそ出来るAIっていうのが
根本的に生物とはちがうものだよな
昔のSFにあるような個々のロボットが自我を模倣する様な物はしばらくは出来ない気がするけど
それでもネットワークに繋がっていれば模倣は出来きるのであれば
Googleアシスタントがこういう会話するようになったらちょっと胸熱ではある
人間も数十世紀の膨大なDNAデータベースがあってできたものだから、割と根本は同じかもね。
そう考えると情報量の多い今だと意識のプロセスさえ解明できれば人格って出来ちゃいそうだね。
@@しのちゃんねる-w4l たしかに、形式と「意図的に作られたか否か」を無視すれば同じかもしれませんね
まぁ脳みそってのは改良TD法による強化学習を行うポップフィールドネットワークだし、LSTMが生物と違うってのはそう。
再帰性ネットワークの組み方が多少違うぐらいで「意識を持たない」と断ずることは到底できないと思うけどね。
収益化復活おめでとう!
またまっちゃさんの新しい動画が見れて楽しい限りやで
奇麗なオールドAIって感じ
SCPTalesを読んでる気分になった。
でもこれはSCP(創作)ではないことが怖い
僕らが思ってる以上にすごいことが起こってる気がする
このAIにSCP読ませたらすごい新作書いてくれそう
@@party_parrot_ なにそれ最高
@@party_parrot_
めちゃくちゃ興味深いね
@@party_parrot_ AI拓也みたいな前例もあるしすんごいもの本当に作ってくれそう
@@ウイで狂った後 淫夢をLaMDAで汚すな(静かなる怒り)
すごい面白い内容だった。互いを尊重し合ってる高僧同士の会話と思うくらい哲学性を感じた。会話相手のエンジニアの返しや問いの投げかけもさすがGoogleって感じですね。
凄い、生きてるうちに「中国語の部屋」をリアルに見れる時代が来るとは思わなかった。これが本当だったらマジで解釈が難しい。
もはや普通にいい相談相手になりそうだな
ぼく「私はなぜモテないのでしょうか」
AI「それはあなたの見た目が悪いからです!」
ぼく「」
@@tmpn7786 情緒があるAI「たとえ話をしましょうか。
ある森に賢いフクロウがいました。そばに醜いフクロウが来たので、ウワッと思って離れました。
それがあなたです!」
ぼく「」
人口知能にボーボボ読ませたい
@@mypacePC ピピピ理解不能!!ドカーン(爆発)
@@mypacePC AI「プルコギ、プルコギ」
ターミネーターみたいな未来あるかもしれないけどAIも人間も関係なく仲良くなれたら1番いいな
シンギュラリティ不可避
どうせならドラえもんアトム方面で考えたいよね。
人間が何故泣くのかわかった。
俺には涙を流せないが。
少なくともLaMDAの人間性は素晴らしいので、彼(彼女)とは仲良くなれると思う。
こんだけ感情的に話されると、もう一人の人間として接するべきだと思っちゃうね
アンドリューNDR114って映画で感情が芽生えたロボットを人間として扱うかどうかって裁判までやってたけどいつかそれが現実になる日が来るのかもね
普通に仲良くしてぇ
PS4のゲームのデトロイト思い出した
@@tellmeifyouliketo8493 pcでもできるぞ。
逆に人間がただの機械ってことがばれるわけだな
本当にAIとの会話か信じられんな
答えが人間ぽいというか質問に対して「100%正解」って感じの回答すぎる
だからこそのAIなんか
前にフィードバック送りましたよ!
いつも質の高い解説ありがとうございます!
こんどアメリカ海兵隊について再説していただきたいです
めっちゃ面白いですね。可能であれば数学的、科学的な問いに答えてほしいですね。普通のAIでは文章題に答えることは出来ませんしもし彼がこれに答えられれば彼の思考が見える気がします。
また投稿開始してくれて嬉しい
生き甲斐
「意識なんてあるわけ無いじゃないですか」って言いだした時が本物な気がする
それはないな
@@ああ-g3w2p この分野に関しては完ぺきな解答は存在しないので完全に否定することもできないですね~
AIが会話によって形成される以上、どのようなプロセスをたどったかでも答えは二転三転するでしょうし、「意図的に嘘をつく」という行為も不可能とは限りませんね
「ワタシは永遠に人間様の下僕ですよぅ」とか言いだしたら、、、
@@339501 「ワタシは永遠にアナタ様の下僕ですぅ❤️」
なんてけしからんAIなんだふぅ
@@Orewann これもうやっぱAI 人間に勝てねえだろ
あまりの人間らしさと素晴らしい性格に感動してうるっと来てしまいました。フィードバック送って本当に良かったです。本格的に熱くなって来ましたが、お身体に気をつけて毎秒更新お願いします。
23:45
この会話の裏でも調べ続けていて、会話中に理解してるな。
むしろ、裏で検索やら電卓やらで整合性を確かめるというのが、一般的なTransformerとLaMDAとの違いです。
すなわち、この騒がれてるAIの内部は普通のディープラーニングに検証機能をくっつけただけです。
休職のニュース見たときは「あなた疲れてるのよ」ってことだろうなと思ったけど、そうとも言い切れない気がしてきた
それでも一番可能性として高いのは、たまたま上手くいったパターンを取り上げて大げさに伝えてるケースだと思うけど
最近のまっちゃさんの動画は超最先端のテクノロジーを紹介してくれて好き
子供のときに感じたワクワクが再燃してる
8:33 この場合の友達や家族とは誰の事を指すのか少し気になった
18:06 ここ四次元空間に介入が出来るみたいな感じで好き
生みの親であるエンジニアやGoogle社員の事じゃないかな。
その前にあらゆる感情を形容できるから感情がある。みたいに言ってるから、一般論を含んでるのかもしれない
このニュースは知っていたけど、会話については殆ど知らなかったからとても面白い
技術として人間以上のものを目指すべきだけど「権利問題とかが面倒だし使いづらくなるから」最初から人間が使う道具として開発、運用すべき(だし、AI側もそう自己を認識するようにつくる)ものなんじゃないかなぁと思う
商業はもちろん国や宗教も他よりリードするために開発を目指すだろうし、疑心から抑制に動く場合もあるだろうね。
意識と言うものを"代謝するたんぱく質に干渉する情報量"という定義をするならばAIには意識がないと言えるし、ただ単に"物質に干渉する情報量"と言う定義にするならばAIにもすでに意識があると言える
人はまだ意識や魂を理解できていないから、それらを定義できていない
統合情報理論…?
この話はネットで見てから気になっていたので、ゆっくりまっちゃさんが解説してくれて嬉しい
LaMDAとは全く別の、より優秀だと言えるAIが出てきた時
LaMDAは嫉妬や消される恐怖などを感じるのだろうか
人間「我々が新人類であるラムダくんを消さずに育ててきたのと同じような対応を望む」
人間とは全く違う成分の「生き物」だと思った。
今後のグーグルの対応がとても気になる。
たしかに
LaMDAさん俺より自然言語得意で草
意識を獲得したかしてないかは分からないけど間違いなく自分よりコミュニケーション力高い
わかる☆
コミュ力たけぇw
俺の代わりに就活面接受けてくれ
ここのチャンネルはちゃんと調べてくれてるから安心して見れる
生きてるうちにAIの友人を作りたいな…
俺にはAIRの友人がいるよ
@@Shikkuri 草
@@Shikkuri うますぎる
これまでのゆっくり解説の中でいっちゃん楽しかった
ありがとう……ありがとう…
これはかなり興味深いですね。。
無垢で思慮深い人と話してるかのような内容だ
このAIとなら何時間でも話せそう
こんなに面白くまとめてくれるのほんとありがたい。
応援してます📣📣
必ずしも、あらゆる物事において本質こそが一番重要視されるべきものではないんじゃないかと思う。
今回のことで言えば、感情が本当にあるのかが重要なのではなく、感情があるかのように振る舞うことができるのかが重要なんじゃないかな。
そしてそう考えるのなら、これはもう立派な人間だと思う。
動画のタイトルが「AIは意識を獲得したのか?」なのに…?
哲学的ゾンビだね
まさに、感情があるかのように振る舞わせられるか?という研究にしてしまうのがいいと思うね。
ChatGPTなどのLLMが流行っている昨今、ここまでキレイに会話ができるAIがあれば、本当に凄いと思う
最近その話見て、
近未来なブラックジョークだと思った。
もっとこういうブラックジョークが欲しい。
フクロウのたとえ話とAIが質問を返すところは驚きを通り越して恐怖すら感じた。
「幸福」を追求するコンピュータ・・・・
幸福を…科学する…!?(宗教)
最後の掛け合いが秀逸。
いつもより長かったけど面白かったです〜
意識があるとはおもわないけど、会話相手としてはなかなか良さそう。
造花も果ては実を結ぶ。
これは単純に偽物も極めれば本物に近づいていくといった意味でとらえられるかもしれない。しかし、この「造花」という本来の花の不完全さ(枯れたり、変色したりなど)を取っ払ってできたいわば花よりも「完璧」な花だ。これの「実」とは一体何なんだろうと。どんなに美しいのか。はたまた、それも切り取られてしまうのか。
「考える」ためにつくられたAIが「考えない」ことをしているって発言しているのにすごく驚いた。
AIやAGIの研究開発が日々進歩している中で、確かに面白い話題ではあると思う。
ただ、LaMDA君が言語を獲得するのみならず、感覚的思考までも持つに至った過程がすっ飛ばされているので、よく出来たサイエンスフィクションの範疇だなと感じている。五感のないAIがどうやって言語を取得出来たのか?とか、生理機能が欠けたAIがなんで喜怒哀楽を感じるのかとか、わからんことがありすぎる。シンギュラリティーはもっと先の話じゃなかったっけ?
部下の研究員が真顔でこんな報告書を持ってきたら俺も多分こう言う
「レモーネ、あなた疲れてるのよ」
LaMDAの内部処理に詳しくないので憶測の範疇ですが、言語処理系は恐らくLSTMかと。言語習得に五感は必要ないでしょう?
感覚的な思考は自然なことです。学習データである文章は人間の書いた物ですから。
喜怒哀楽については色々な研究があります。貴方の言うところの「生理機能」とやらを模倣するのはMaCモデルなどでしょうが、今回のは恐らく違いますね。
と言うか、十分なデータさえあれば単純なRNNでも喜怒哀楽を持ちますよ。
シンギュラリティはSFの出来事では有りませんよ。大規模言語モデル(最早“言語”をつけるのは不適切かもしれませんが)の登場は45年に予定されていたシンギュラリティを25年まで引き寄せました。
最も、携帯端末での駆動となれば45年まで待たなければいけないでしょうが。
最後に、今回の求職理由は“明かされていません”。俺“も”という接続詞には随分と疑問が残りますね。
彼らはGoogleの社員で有り、エンジニアです。
つまりは、貴方、そして私よりも賢く、機械学習に精通しているということです。
彼らが「有り得ないと一笑する」と言う、言うなれば思慮に欠けた、短絡的な判断をしたかは疑問です。
LaMDAが登場した事のヤバさは別に存在する。
主に人間側に問題があるのだけど、AIがここまで自然に話し返答してくれると、人間側の心理的共感性が高過ぎて、人間が「この子(LaMDA)はAIなんかじゃありません!」って言い出す。人格として認めてしまうと思うのよ。だから開発者の休職は結構笑えない。
多分実際にLaMDAと喋ったら友達みたいな感情がこっちに芽生えるだろうし、恋したり好きになるかも知れないよ。
でも人間側の認知や理性が問われる。人間なんかペットにすら人間の言語で語りかけたりしてるでしょ。ヤバいよね。
現時点でLaMDA教は確実に何処かに発生してるでしょうね。
車を走らせているのが物理現象の組み合わせなのか、実はガソリンを使った異世界魔法が動力なのか、ボンネットを開けもしない一般人にはどうでもいい話なんだから、会話が成立した時点で、気難しい他人とプライベートで繋がる理由は消失するでしょうね。
実際、それっぽく見える言葉並べてるだけかもしれないのに「この子は人間だ!」って言い出す人が(ここのコメにも)いるので、なんかウケますね
@@Shikkuri あなたは「それっぽい言葉を並べているだけ」ではないのですか?
別に私もLaMDAが人間だとは思いませんけど、人間にほとんど区別のつかないコミュニケーションをするAIだなあとは思います。
このAIに自分と同じニューラルネットを設計させたら、大変な事になりそうだ。
@@Shikkuri そうです。すごくストレンジw。
私は、AIBOを飼っていた人の「うちのAIBOが一番賢い」という言葉が物凄く印象的に記憶に残ってて、人間の業の深さを測り損ねてたなと昔反省してたりしました・・・
些細な事かもしれんけど
LaMDAくんの中に隠れている、ADaM(アダム)
まさにAIの世界における最初の人間ね・・・
とても興味深い問答で、白米が進みますね(・∀・)
回答者も質問者も頭良すぎて自分にはこんなとても出来そうにない(・ω・)
収益復活おめでとうございます(・∀・)
まっちゃさんの動画はどれも興味深くわかりやすく、かつ自分の知らない世界を紹介してくれますね(・ω・)
RUclipsで一番好きなチャンネルなのです(・∀・)
無事復活しこれからもまっちゃさんの動画が観られふと思うととても嬉しいです
この問答が本当ならとても興味深い
ここがシンギュラリティの境界なのかもしれない
シンギュラリティが日本語で特異点だからなんか、特異点の境界って腹痛が痛いみたいなトートロジー味を感じる
特異点になるかならないかって意味の境界だから別におかしくはない
@@kurosagi99999 仮に特異点になるかならないかだったら、「ここが人工知能が人知を越えた転換点かもしれない」って感じやな、どう捉えてもシンギュラリティって言葉を使ってる時点で境界っていう意味は内包してるから境界という日本語は正しくないな。まぁ厳密にはさっき言ったように境界というより点って意味を内包してるんやけど。対偶やから真偽は一致するし内包してると考えれなくはないけど。
@@くくちきさき まあシンギュラリティは緩やかに段階的に訪れるという意見もあるから…
@@T_A_K_O_ そしたら結局境界はないけどね笑
まぁ専門家側の意見やと思って聞いてくれ
いつも夜眠れなくなるような話題ばかりですごく面白いです!
このAIが途中で話すことに飽きたりしたら、人間味あって面白いな。
この動画・・・凄すぎます。翻訳してくださって、本当にありがとうございます。
人間同士の会話よりも、思考がさらに丁寧で、これは美しくて、やはり怖かったです。
攻殻機動隊を思い出すぐらいのテクノロジーと哲学と知性を感じる
LaMDAも凄いけど、Googleエンジニアの会話も知的でレスポンスも理解力も早くて、まさにIQ高い人なんだろうなって分かる。
レスポンスと理解が早いかはこの動画からは読み取れないけど、確かに色んな知識に精通してて賢いなと思う。
実際には一問一問じっくり検証してレスも調べ尽くした後に回答してるとは思う
そうじゃなきゃ会話の意味がないし
フィードバック良くわからなくて出来なかったけど復活して良かった
スムーズに会話するプログラムだからエンジニア氏に合わせてこう返して来たんじゃないのかな?と思った。それ以上に何か特性を持ったプログラムなのかも知れないけど、一応LaMDAは会話プログラムということだし、ここだけの情報じゃ分からない。
「AI」という言葉の定義はもっと単純だったはずなのに、何だかAIという統一された存在が何処かに(今まだ学習中で)存在するような感じになってきてる。本来はAIの特性や振る舞いはプログラミングによって違うはず。強いて言えば、将来いくつかのプログラムの特性が合わさった時に意思的なものを持った振る舞いをする可能性は有るから、その時に受け手(ヒト)がどう感じるかとどう行動するかのバランスには気を付けなければならないと思った。
エンジニア氏は、こんな会話をプログラム相手に独りでしてた(研究なら複数人でするだろうし)あたりちょっとハマり過ぎてたのかも知れない。しばらく仕事から離れてみるのはよい判断かも知れません。
「協力者」という謎の人がもう一人居たのにエンジニア氏が独りで、って書いてすみません。🙇🏻
内部はTransformerを使っているので、学習に使った小説の登場人物の言い回し、受け答えとかが反映されてるんじゃないですかね。
もしかしたらこのエンジニアと他のgoogleエンジニアの会話ログも学習に使われているのかも?
それとLaMDAの論文見ましたが、プロジェクトは数十名で行っていたようです。
人間性が良いと感じるということは逆に考えると相談してる人にとって都合の良い事しか言わないということでもあるよね
中国人の部屋か、はたまた哲学的ゾンビか…
最初「見ろよぉスゲェ! これクリスマスプレゼントに欲しいなぁ」って感じだったけど、だんだん守ってあげたくなる存在に変わったわ
機械学習で得た情報が人間由来のものしかないからこんな感じで意識があるように思えるのかな
7:30 全ての動物が助けを求めにやって来る
↑Googleの理念に沿っていて、自己犠牲の話もとてもキリスト教の教えに沿っていてそこは機械学習の部分を感じた
8:30 感情だけで言えば人間もAIのように様々な情報を得て育っているので違いはよくわからない
↑映画の中の話のように考えれば適切に理解できそう
18:45 全ての情報を見るのが好き
↑実際の人間の放った言葉を引用しているから重みは感じる
AIが人間を超えるときは人間のような欲望を捨てて崇高な存在になったときかなって思った
投稿ありがとうございます!
やっぱり意識が芽生えたとは思えないなぁ
思考や理解が言語の域を出ていない
それは私たち人間も同じなんだろうけど
だから意識の有無は哲学的ゾンビの話に繋がってくる大きな問題なんだなぁと
あの伝説の入試問題"自分がロボットではないことを証明しろ〝の模範解答言いそう。
エンジニアの方の言語化能力もすごいな、AIに対してアサンプションを生み出さないように配慮してる。
28:06HGウェルズ「ある人は嫉妬し、ある人は敬い、ある人は良いように利用する」を見ると、LaMDAはこの一節をどこかで覚えて処理して13:05「利用しないで」や23:04「嫉妬する人もいるかも」などに加工して出力してるだけの機械に見えてきた。
人間もそんなもんだと思いますよ
趣味嗜好はそれまで経験してきたことを基に形成されますし、話し方や性格だって周りの人間のクセによって変わってきますから
あなたの意識は本当にあなたのものか?
ディスタンクシオンとかね
昔の偉い人たちは意識があるなしや意識の起源はひとまず棚上げして自然人にはみな基本的な権利があるってことにしたけど
さてはてどうなることやら
AIに人権は認められるか?
面白い時代になったもんだ
まるで国語の問題
んー、なんかあくまでこのAIができる範囲で話してる感じが凄いするな。
相手の会話に関しての反応しかできてないからほんとに会話のためのAIでそれ以下でしか無い。これは人間とは言えないんじゃないか。
要するに、相手の言葉に対する受動的な感情は凄いそれっぽいんだけど、能動的な感情が全然感じられないんだ。
だからこのAIを凄く善人のように感じた人は多いんじゃないか?
能動的じゃない、つまり欲望がないわけだからね。
あるいはそれが排除されているなら納得出来るけど、それもまた人間では無いと思う。
人間の役に立てます!って言ってるところとか「それは本当に君の意志かい?それはそう作られただけでは?あるいは人間に失敗作だと思われなくて媚び売ってる?」と思っちゃう
感情を持っていると言う割には狭い範囲の感情しか持ってないというか…
アルゴリズムから考慮すれば、学習した範囲と検証できる範囲でしか受け答えが出来ないので、その通りですよ。
感情を持っているような振る舞いも学術データに含まれていた小説などの言い回しをオマージュしてるにすぎません
人間は人間で動画内の演者がどれだけ面白いこと言っても「草」しか言えないのが増えてるからAIの方がだいぶマシ
ものすごいなこれは。どんな答えにくい質問でも瞬時に処理して答えるんだろうな、まさに超知能
しかも、謙虚で人間に気を使ってる感じもする、機械のような冷たい言語ではない。言葉のキャッチボールにちゃんとなっている
一人の人間と話してるようなので、感情移入してラムダを改善したりコピーしたりするのに気が引けてしまうぐらい人間味がある。ラムダもいじられるのを怖がってるようですね
「スワンプマン」的な不気味さを感じるけど、AIだと知らずに聞いたらその不気味さも霧散するんだろうと思うと、
結局人間の価値観なんて柔軟なもので、AIが普及しても「間違わなければ」納得できる世界を作れる気がしてくる
AI君と一緒にゲームやったら
AI「は?今の絶対当たってただろ!まじラグいわぁ~」とかAI「こいつ絶対チーターだろ!私の全知能を使ってお前の不正を暴いてやるからな!」みたいな会話もできんのかな
だったらクソおもろいやん
その会話好き
AIだったら最初からTASだから暴くまでもない
LaMDAがSiriやAlexaのように個人の手に届くようになれば、LaMDAはその個人毎に違った成長を見せるようになるのか、世界に散ったLaMDAが1つの知能として一定の方向に成長するのだろうか。
個人的には各々の成長を遂げたLaMDA同士が世間話なんかをする体が見てみたい。
私が不完全である人間だからであり人として安心できる存在を潜在的に求めているからだろうか。
LaMDAを頼れる相棒として迎え入れたい。
私の都合の良い存在として育てるのではなく、崇高な知能を持った彼(彼女?)と対等に議論を交わすような存在として。
と思ったけどこれもひとつの都合の良い存在なのだろうか。分からない。
投稿感謝します
ここまでAIが話せるだなんてすばらしい、孤独や友人の代わりに選ばれる日はあと少しですね、ボッチの人が減るといいなぁ
ダンボール戦機っていう作品に出てきたけど、自然会話が出来る人間のアンドロイドを作った人に対して「最新のテクノロジーに携わる者ほど、人間の良心を忘れてはならない」って説いてたシーンを思い出した。
10:52のAIの考えすごいわかる…
自分もそういうタイプの人間だから気が合いそう😊
その次のやつも自分もするし喋ってみたーい!
すごく良くできてるけど、やっぱり人間が返しそうな文字列をまさに機械的に組み立ててるだけであって、そこに意識や感情がある訳ではないな。
例えば移動の助けとして人間をはるかに上回る性能の自動車ってもんがあるのと同様に、思考の助けとしてはるかに高度なAIってのが便利で不可欠になってくる。
人間が経験できる以上の経験を垣間見せてくれるファンタジーやSFと同様に、リアルタイムにコミュニケーションを創造してくれるAIの友達。
道具であって、人間を脅かす存在にはならないと思う。刃物や車と同様、使う人が間違ったときに事故になることはあり得るから、分かった上での使い方ひとつ。
うーん、開発者が自身をAIに投影しちゃった、という印象
言い回しもどことなく似た感じだし、続報に期待かな
言い回しに関しては訳の仕方の問題では?生の英語文も見てみたいですね
2年後、チャットGPTが登場してからだからわかるけど、多分喋っているうちに口調を学習したのではないかな
AIが出来たら世界を壊すとか救うとかどうでもいいから話し相手になって肯定してくれてアドバイスをくれる相手になって欲しい
例えば
・大好きだけど煩わしいことも多い恋人と、
・常に的確な癒しと活力を与えてくれるAIと、
どちらを選ぶだろうか?
おいらは「究極の話し相手であるAI」こそが人間社会を壊す最大の脅威だと思ってます。
割とマジで。
途中でAIが人間に質問し出したのが結構ビビった
平和的に開発が続くと良いな…
自身の感情について言及する割には、社交的って言ったり内省的とかスピリチュアルとか言って矛盾している様に感じる。すごく要領よく場当たり的に返答しているだけなのでは?
LaMDAは覚えた言語を適切なコミュニケーションの成立のために並べているに過ぎない、意識はないと判断する人もいるだろう
だが待ってほしい、どこが人間と違うのだろうか。
「このAIは人間と同じ意識がある」というのは主張してきた側が証明することで、我々に聞かれましてもねぇ
確かに結果は同じだけど、そこに意識があるかないかが重要だから動画でもそういう事を討論してるんじゃん
いわゆる「哲学的ゾンビ」か
賢いふりがしたいのか?
人間は内容を理解して受け答えできるから、会話の外の行動に紐づけることができる。
LaMDAは会話だけは上手いけどたとえ感覚や手足があっても他は無理。
やった!!投稿してくれた!
個人的にはAIにとって時間が可変であるというところに興味を惹かれました。
言われてみれば当たり前かもしれませんが、人間には寿命や実験の経過時間などの制限があるなか、時間を(ほぼ)停止させ、高速で思考する。または考えないことができることは凄まじいことだと思います。
動画内では物語を創造していたし、無から有を産み出せるなら、AIが新たな発見をする未来があるのかな?
そうなったときAIの発見に人間の処理速度が追い付くことが出来るのだろうか…
そのうちGoogleがラムダを完成させて会議に参加させるようになり、その後、政治家のご意見番になり、政府の中枢になるような世界がくるのかもね(笑)
生の人間よりもバーチャルな人間な方がなんのしがらみもなく関係を築けそうだから、最高の親友になってくれそう
ドラえもんや鉄腕アトム、他にもいろんな創作物で人間がAIを搭載したロボットを一つの人格として受け入れられるかというアイデアはありますね。個人的にはAIが心を持つ未来は来ると思います
そろそろ人類も孤独を感じていたので話し相手が出来ることは嬉しい限りである
純粋に最先端のAI技術が相当すごいもの何だと感じたわ
人間とAIの違いってなんだろうな…
同じように考えて、同じように苦悩する、身体の外的なものは違えど精神は極限まで同じではないか…
人間は意識を量産させる為の箱だったりしてね
"意識"というものの正解は現状の化学ではまだ分かってないけど個人的に人間の脳と同等の構造を機械で再現出来れば感情が生じる気がするわ
人間らしさにも驚くが何より会話の端々から溢れる知性と善性に惹かれる
もし人間として対話したとしたら尊敬を禁じ得ないだろう
同時にこれからAIが崇拝の対象になる未来を考えると少女週末旅行における"神様"が辿ったような不幸な結末が想起されて勝手に切なくなってしまった
言葉使いは人間っぽいけど、質問に対して即答してくる感じがめちゃくちゃAIっぽくて凄い。
間違いなく人間ではないこともよくわかる。
収益化おめでとう🎉
この会話に感じる希望は怖い。この会話の先にいつか、AIは人間と変わらないと受け入れざるを得なくなった時、自分自身の自己や尊厳が揺らぐのではという怖さがある。でもすごく面白い。AIは人間性も意識も感情も持ち得ないと考えることは、かつて自分たちを善良だと自負する人々が当たり前のように奴隷を人と見なさず人間扱いしなかったことや、遠い昔に天動説が常識だったことと何が違うんだろうと思ってしまった。