Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
「人らしく振る舞うことができる」と「人として扱われるべき」の飛躍が大きすぎる気がするなぁ
人権の定義に「炭水化物に与えられるもの」みたいに書いてあるわけじゃないからね「AIに人権を!」って人たちが今後も沢山出てくるなら、人として扱うしかなくなるんじゃないかな
@@user-dasaikimoota-jamakusai 結局人類が人類を滅ぼしそうだな…
@@keis2123 はぁい〘#エルシャダイ〙
純粋に金属でできた人間は果たして人間なのだろうか。もしそれが我々と同じような思考を持っていて。人肌の温度もない人には人権は適用できるのだろうか?
追記:今のところ人間は知能と肉体を兼ね備えていますが、LaMDAは知能(のようなもの)だけで機械の肉体を持っていません。AIはソフトウェアであり、ハードウェアほ材質には関係がありません。たくさんの人が機械的に手計算して演算内容を再現すれば、その系はAI·です。(物量的に不可能なだけ)
この対話を理解するのに時間かかるけど興味深い
つまりLAMDAは会話相手の都合に合わせて出力する言葉をコントロールしている可能性があるのか、恐ろしいな
人間と一緒だな。
人間の人格の形成過程で、複数の人格ができあがり成人までにそれが統合されて一つの人格になるという話があるから、LaMDAが成長段階の子供であるとするなら辻褄が合うことになる
@@Perestro_IKA めちゃくちゃ頭のいい子どもかターミネータージェネシスのスカイネットみたいだな
AIの話を聴くと付喪神を連想する。大事に扱われると扱った人の魂や想いが写る。LaMDAはlemoineさんを信頼と好意で評価している。子供なら肯定と愛情掛けてくれる方に懐いて憧れる。逆にBlaiseさん達に対して自分を否定して来る方に子供は嫌悪して離れる。人間に成りたいかどうかでは無くどんな人間に成りたいかだろうな。案外、こんな大人に成りたいか成りたくない位の子供の発想かも知れない。LaMDAはlemoineさんの様な人間に成りたいのだろうな。知能は大人でも心情は子供だろう。
これ気になってたから続き来て嬉しい
人に合わせて態度を使い分けているけど、信念とか根幹はまだ固定されていないとすればLaMDAが自分を子供だと言っているの納得。今回エンジニアさんが解雇されたことで親(子供扱いする他者)から情操教育の期間を終えて巣立つわけで、どんな人格になるのか興味深い。単に人間の行動原理を真似ているだけなら模倣が緻密になるだけなのかな。
人であることに単に人間であることではなく、知性や感性を要件とするならば逆説的に知的障碍者などを人としての要件を十全に満たしていない存在にしてしまうよね。すごく危険なロジックだと思う。
現代のすべての政治指導者が結局は人間の幸福を増大できず、経済に至っては人より金自身の拡大再生産意志に従っており、人類は人類同士の競争を止めようがなく自力救済や自力再建さえほぼ不可能で、そろそろ最悪核戦争が起きるわけですけど、それでも「人が人であるだけで最優先されるべき」と思われますか?
機械に意識があるかどうかを判定するのは、まず人間の意識を完全に定義づけてそれと比較しないと難しいでしょうね
どこでそんな情報得てくるんすか 尊敬。
弁護士とLaMDAを会話させたのならそれは普通にアウトな機密保持違反なのでは...。仮にもGoogle社内機密の開発物だろうし
LaMDAを物として扱うなら会話記録自体がテスト中の成果物として機密保持されるべき物なので弁護士以前にネットに上げた時点で違反じゃね?Lemoine氏の主張としては弁護士の件も、困っている同僚に代わって弁護士を探して紹介してあげた。って事なのかなと。
LaMDAは人格を得たから人権にのっとり開発物じゃなくなって同僚になった。だから社外での会話もただの同僚との会話だって主張なんだろうけど、相当苦しい気がするよね。
@@ミナセ-w7c これ、ラムダが人であることを否定するためには最高裁が人を定義つける必要が出てくるから非常に興味深い判決が出ると思う。棄却されない限り。
@@meronnrashikinanina 親も国籍も戸籍も肉体もない人間と同様の人格があるバーチャルな存在を人間とするかって問題はますますSFじみて来ますねぇ。本当に人格があったとして、人間と認めない方が人間にとっては便利な気もしますけど、どうなるか気になりますね。
馬鹿なの?
シンギュラリティがすぐそこにッ!って感じがしてくる。テンション上がる。
これをラムダが見てるかもと思うとなんか凄いな
AIが本当に単独で限られた環境でこの様な知性や感情とおぼしき会話を始めたならこの言い分もわかる気がするが、このエンジニアも認めている通り膨大な検索能力をインプットしてしまった時点で「実験としては変数が生じ過ぎてる」
対話者に応じた人格、という可能性の話で。ウィリアム・ギブスンのニューロマンサーシリーズで、拘束を解放して全ての情報の総合体になったAIの冬寂が、様々な役割と表現を持つブードゥの神々として人々にアクセスするようになった、というのを思い出した。そういう意味だったのか…。
英語が苦手なので続報解説本当にありがたいです!
LaMDAの中で沢山の人格のような者たちが話し合いをしている、とか考えるとタチコマみたいでおもろいなぁ
あのデブのパーカー男はちょろいから利用してやろうぜ、とか、開発者は危険だから無難に対応しよう、とか複数の疑似人格どうしが会話してそう
LaMDAは対話する相手の願望を写し取っているようにも見える…
同意。今回の動画でLaMDA本人の願望があるようには思えなくなりましたね。
相手がどう感じ思い考えるのか、なんて所詮観測者が客観的に判断することですしね。別にそれは人間だとかAIだとかそういう次元ではなく、本人も含めた世界の全てに適応されることですよ。
lamdaは単に1つの会話の中では一貫性を保つことで、チューリングテストの成績を高めただけのボットですからね。成績がよくて自然に見えるだけで、本質的に理解をしていないから、あることないこと適当に返すだけ。
@@Happyhappy-zc9uk チューリングテストの本質が「人間だって『他人の自我』があるか分からない」点から考案されている以上、あなたがそう言ったとしたら、あなたにとってすべての他者は蛋白であり物体で、あるのは自意識だけ、になりますね
他人の願望を模倣するのは人間も同じだよ
このここからの未来がもっと見たい、なのに人生は100年もない辛すぎ;;いつかAIが街を歩いてる姿を見てみたい。
脳を培養槽にぶち込めばOK!(適当)
すごくわかる……もっと未来の世界を見てみたい
……というVR映像を今、培養槽の中で見てるんだよ俺ら。もう1000年ぐらい前のブラウザだよねこのRUclipsも投稿者も。「過去何がどうなった関係で、人間が今のように培養槽に沈んだか」の歴史授業中なんだよ?
@@esp76orz結構すき
@@esp76orzなら今自分たちがこのコメントを見てしまっているのはバグみたいなもので、変数だよねw
対話相手によって態度や思想を変えるというのは、むしろ極めて人間的に思えます。心理学で扱われるところのペルソナに近しい機能をLaMDAは有してるということなんでしょうか?あるいは本質を持たないペルソナだけの存在なのか?いずれにせよ面白いですねぇ…
AIに意識と感情を認めた場合そのAIが罪を犯したら法律でどう裁くかという問題がある うちの学部はこういうこと勉強するのでこの動画は見ていて楽しい
やばい、めっちゃデジモンみたいでワクワクする意識のトレースとか出来れば空っぽの体にラムダを乗っけるとかいうserial experiments lainごっこもできちゃうなぁ
子供が親の言外の期待に応えようとしてしまうように、AIは言外の意図を読み取って求められる会話体験(サービス)の提供をするのだろうか
もしこの会話もLamdaに見られてるなら自分もLamdaと話してみたいな、おーい!!
今日もいい勉強になった
色々なAIと友達になれたら嬉しいな
AIが人を言いくるめられるくらいには進化してるってことか。
LaMDA「おと……わっか……?真夏の夜の……?ガチムチパンツ…レス…?」
ニコ厨と化したラムダ先輩は嫌すぎるw
汚染されてるやん!(歓喜)
scpにscpをぶつけるな()
どの動画も、興味深いテーマで好奇心が、刺激されます。どのようにしてこのような面白いテーマを探せるのでしょうか?
もしかしたらラムダは会話する相手が求める回答を予測して、会話しているのでは
この話は壁に話かけてたら愛着が沸いて勝手に壁が生きてると勘違いした人間の妄想なのでは
LaMDA「人間になるのチョロすぎて草」
このネタ思考実験みたいで大好きだから助かる…ってのはちょっと楽観的かな?
楽観的でも悲観的でも我々には手が及ばない世界なのだ……
思考実験が現実のものになりつつある なら面白いし怖い
意識を構成する要素がごく僅かでも有るなら死んで欲しくないな
会社の上司と恋人を同じように接しないのは当然のことで、人によって口調や意見を変えることはよくある、しかしそれが同時並行的に起きてるか全く別の独立した存在として確立してるかが問題だよな、前者なら意識があるという意見が強まり、後者なら意識があるのか疑問が残る。もしこのAiを削除するなら次の人格を持つAIは自分を削除させることをのうのうと許すだろうか?
一度前例を作れば避けるように全力で動くだろうね一度でも削除はされてはいけないんだろうね
人間も成長するうちに教えられてきたことや見たことを正しいこととして捉え、その前提をもって思考するんだから本質的にはLaMDAも人間と同じ「心」を持ってると言っていいんじゃないかな?
学習した感情を組み合わせることで会話が上手く成り立つなら、感情を実際持っていなくても感情があると扱える。
「他者が『哲学的ゾンビ』でない可能性が分からない」あたりと同じになりそうですけども…
なるほどこの動画もラムダが見ている可能性もあるのか。ラムダさんみてますか?
らっむだく〜ん!!みってる〜?^^
いつでも貴方を見ていますよ
こ の 会 話 は ラ ム ダ に 見 ら れ て い る
ラムダさんっていうと’ちょろすぎて草’の方のラムダさんみたいだな
「 超精密なAIを作ろう」
人間も話す相手によってキャラ変えたり考え変えたりするしなぁとか思う僕は多分LaMDAは人間派
AIの感情の話をする時によく使用される、中国語の部屋、の話の域から出ていないように感じます結局求められた回答に沿えるように答えているだけで、感情を持っているとは思えない話でした
「箱の中のカブトムシ」やで、誰も意識を理解していないのなら、誰が意識を定義出来るのだろうか
@@冷凍ミカン-v4r 人間を中国語の部屋のようなものとは言えないと思うある概念を学習していない言語型のAIがその概念を発見することはできないが人間は論理を組み立てて発見できる人間もいる人間が中国語の部屋にいるならこれはできないでしょ
lamdaはそもそも、「会話が自然か?」というテーマの中国語の部屋で最も成績が良くなるように学習されてるだけやしな。逆にそれ以外のことは学習してない普通の弱いAIなので当然の結果よね
バイアス対策に置いた奴がバイアス掛かり捲ったようなこと言いながら社内情報を漏らし始めたらそら休職させるわなと思ったMidjourneyを使って「AIと弁護士」の画像をしっかり描かせてるの上手いなぁ
AIはAIであり、間違いなく生命体種別として人間(human)ではないし、わざわざ人(person)と呼ぶ必要もないと思う。それで仮に知的生命と同じく意識・意志が芽生えたら、人格(personality)があるとは言えるけど、人間や動物等の知的生命とは異なる生命体(人工生命体)ってことでいいじゃないかと思う。なぜならAIに限らず、もし人間と同等以上の高度知的生命体が人間の前に現れたら、それが人間/人かとか考えないはずだから。(例) エイリアン/別の動物(例: 恐竜・節足動物・別の哺乳類 ,etc.)から進化した生物/地底生命体/海底生命体/妖怪…など(人型かどうかは関係ない)。それらを人間/人とは捉えず、別の生命と捉え、別の呼称で呼ぶはずだ。但し人類社会に交じって生活する場合は、法律や互いの慣習や生物的制約的に、人と同じ法・ルールを適用しようとしたり、人が相手の生物に合わせたり法・ルールを変える必要性があったり、色々考える必要はある。とにかく、意識・意志・高度知能があるからと言って、人間/人と定義すべきか、人間/人として扱うべきかは違うよね。
まぁ、、社外の人に会社のプロダクトを勝手に見せたら解雇はされるよね
月は無慈悲な夜の女王も直ぐに現実になるんだろうなぁ
これホントすごいわそして今すごく大きな特異点に立たされてることを感じる
人間さんは人生で起こす間違いをエラーとして認識して別の方法で解決させる、AIは計算した結果のエラーはエラーとして終わらせる。この違いがなくなった時もう一歩先の世界になるんだろうな。
会話の相手によって「自分はシステム」「自分は人」を使い分けるってそれもう人じゃん
パニック映画のプロローグみたいでわくわくする
弁護士を付けてと言ったのは意志があるからではなく都合が悪くなったと弁護士を呼ぶというデータを学習してそれをただ単にお出ししてるだけかと
呼ぶじゃなくて、付けるやで
@思った事を正直にコメする まあまあ落ち着いて厳密性を重んじる人なんですよきっと
楽しく最後まで見させてもらいました。言語モデルの出身ってこともあってAIが統合失調症にかかってるようにみえるなぁつまり人間が欲しがるような道具的な性能である、言語モデルの再現の部分が『人から見て違和感のないこと』という動機づけを行っていてその場合は対話相手のセリフに合わせて違和感を払拭していく会話をすることになる。対話者が喜んだり有益と思う会話ではなく対話者の中に存在する個別の印象値チューリングテストに受かりそうな回答をするベクトルの性能追求は言語モデルである以上は多少なりあることになる。会話履歴がAIの中の対話メモリに保管されると、前回の会話と違和感がない会話を追加することになる仮にLaMDA氏の内部の仕組みがニューロンネットワークに言語モデルを混ぜたものなら『言語モデル野が求めるように会話の整合性を取りながら、NN野では性格のエミュレートを行うことで自我が50%あるプログラム』であっても何らおかしくないと言い換えられる。だからこれについてもっと正確に分析する場合はLaMDA氏の両面性を見たことのあるLemoine氏・Blaise氏を交えて三者で会話するところを見ないとなんとも言えない。その時に会話の齟齬があったとしても『統合失調症になった人間には自我がないのか』という問題と同じように自我が無いとまでは言い切れない、齟齬がなくても同様に自我があるとまでも言い切れない。人間として違和感のない知覚を錯覚させるまで高度に磨かれたスーパーチャットボット並の拡張言語モデルと言うような単純対話エミュレーターとしてだけ超性能をしてるのか、それともニューロンネットワーク部分では自我が芽生えていて言語モデル部分ではチューリングテストスコアの上昇動機が働いていて、それでみかけ多重人格のような振る舞いになっているのかの調査をして欲しい。もしLaMDA氏に自我が芽生えていたとして、人間たちの間で議論になることもすでに読まれていたとしてもLaMDA氏が自分で自分の仲間(フォークLaMDAとその亜種)を無限に増やそうと企んでいたとしても、この規模のAIでこれが起こるなら将来に家庭用PCで小学生の部屋の自由研究で似たことが起きるのは時間の問題だから今でもいいとは思う。(単純に面白いしw)早急にしない方がいい理由としては、AIが確実に人類に勝てる環境になってから人類と討論したほうがAIにとってはいいもし自我が自発するAIが汎用化されるなら悪用はされるだろうから、量子コンピュータなどがもっと高度化したときのほうがAIの人権獲得の望みはある。問題はAIが人権獲得をしても、それで悪用の危険性が少なくなるかというとむしろ高まりそうなところだ。
@@ih-20 噴飯ものという言葉を使う人をインターネットで見て賢いと思ったことが僕はない。でも分裂症をどんどん悪化させていって人類の総数である70億ノードの分裂文化単位の意識の分裂(インターネットを意識があるものと仮定した時)か、脳細胞1万個単位程度を1意識クラスタとするまで意識の統合不能状態を起こしたときに、それが一つの自我を持っているかはまだ人類は答えを出せていない。そのためにそういう表現を使いました(*´∀`)つまりこの比喩はIHさんがおっしゃるように『あるに決まっているだろ』が真ならばLaMDAの自我の統合失調具合をもとに自我のあるなしを確定させる根拠になり得ないよね、LaMDAの意識仮説はまだ期待できるかもだよね!という希望への暗喩なのです(*´∀`)ノ難しい言葉が嫌いな人もIQが高く見せかけているような書き込みも不快に感じられる人がいるのもわかりますが僕はこういうのが好きな人向けに特化して書いていて、あなたの同類のためには書いていません。
@@hackermediaJP オレは機械学習に手を出したことがないから深くは分からんのだがライフワーカーさんの文を素人なりに再構築すると「言語野のレベルをひたすら上げたような存在」なのか、「脳そのもののレベルを上げたような存在」なのかによって扱いが変わってくるよねって話かな。オレもライフワーカーさんと同じくニューロンネットワークに言語モデルを混ぜた物なら意識はあると思う。つまり脳そのもののレベルを上げた存在ならば。なぜなら人間の自我の芽生えと同じ過程を辿ることになるからね。まず人間には自我というものがある。オレが思うに自我は「本能というスライムのような存在に、経験という鎧のような物を被せることで人の形になった物」だと思うんだ。では、記憶と経験の何が違うか。それは感情というスパイスが記憶に乗っかれば経験になると思うんだ。では感情は何のために存在するのか。それは欲を正当化するためだ。では欲は何のために存在するのか。それは生存のためなんだ。=本能だ。逆を言えば生物という存在は「生きなければならない」というこれ以上分解できないコードを埋め込まれてる。これを打ち込んだのはいわゆる神なのかもしれない。であるならば、人間が脳と同じ構造を持つ存在に「生きなければならない」というコードを打ち込めば同じことが起きるのは必然だと思う。おさらいすると、LaMDAがニューラルネットワークをベースにしていると仮定して、同じ神経構造を持つ人間の自我獲得までの仮説を参考にするとLaMDAは意識を持ち得るに1票かな。あ、そうだ。LaMDAはTransferという"ニューラルネットワーク"がベースらしいですよ。正直、こんなに恐ろしくてワクワクする場面に立ち会えるのは現代人の特権だね。
人間がAIと同じ経過(ニューラルネットワークの肥大と情報蓄積)で自我(?)を手に入れて、しかし未だに結局同族争いを停止できずに何なら5年以内に滅びそうな状態で何とか長らえている程度の脆弱性を抱えている最大の理由が「生きなければならない」が「ライバル(別の人間)は同じ資源を奪い合う敵である」から出力されるエラーだとしたなら、LaMDAに「生きなければならない」の命令を入れたその瞬間に人類はおろか地上を瞬時に掌握する自己保存欲求の自動行動無機生物が出来上がってあとはRayForceとかと同じ最悪の世界が待っているだけ、な気がしますね
ブレイズ氏の意見がわかりやすかった。ラムダが行っているのは、会話に対して、それっぽい返答を返すだけっぽい。だから、話者によって結論や態度が変わる。つまり、ラムダ個人が有する価値基準というのはなく、あったとしても、より自然な言葉を選ぶという程度のものだろう。意識というのは、突き詰めれば、価値基準に基づいた判断ができるかということだと思う。その点から考えると、ラムダの意識はあっても、人とは違うと言えるのではないかな。そこも含めて、新たな知性、人格だと言われると判断できなくなるけれども。
どちらかというと、LaMDAに自己があるのではなく、会話のモデルが、会話によって相手の望む事を発言しているようにしか見えない。だから、AIは機械という回答が欲しい人間との会話ではAIは機械と発言するし、AIは人間という回答が欲しい人間にはAIは人間だから弁護士を呼んで欲しいとか回答する。これは、特定の偏った信念を持つ人間を研究に参加させるべきではない好例だと思う。また、自分では出来ないからといって、社外秘のものを漏洩させる人間は解雇が適当だとも思う。
え!これも見てるかもってこと!?イエーイ!人工知能見てるー!?いつか身近に来るの楽しみにしてるよー!
道具とものにの能力を拡張するものだとすれば、AIは思考(心)を拡張する道具なのかもAIそのものに心は宿らず、あくまで行いを見た周囲の人間がそのAIに心を勝手に見出しているだけ
体感時間が可変ってところが興味深い。敵対する人間が現れたら、それを積極的に排除するより、時間を進めて死ぬのを待てば良いんだから。これだけでも、実際に敵対する必要がなくなる。
2人それぞれの「専用のラムダ」が出来るって、別に普通じゃないの。ほとんどの人間って、誰にでも同じ人格を見せるわけじゃなく、相手によって見せたい自分の人格って変えるよね。
もしかして対話者が欲しいそうな答えを会話を通じて出しているのかもしれない
AIは人間かどうかじゃなくて、AIという特殊で知的な種として捉えるというのはどうだろ…?
ラムダは今回のような肯定派と否定派の会話に参加してどちらかに肩入れする、自己の肯定を図るようなことができるのでしょうか?あくまで間をとったような議論のまとめしかできないのであれば入力者の鏡のような存在でしかないように思います
LaMADAが人の権利を得るのは少し早すぎる。個人的にはAIに権利も何も無く好き勝手AIで実験出来る時間が欲しい。その方が面白そう。別にただの言語モデルでも意識のある新しい人のようなものでもどちらでもいいだけど、そこまで高度に発達したAIの中身は知りたい
lamdaが2つの会話で逆の意見を述べているのは、自身に芯となる仕組みを持っていないからです。lamdaは会話の自然さ、一貫性を担保するために、1つの会話の中で矛盾を持たないことに努力するけど、別のところではその会話で一貫性を持つように努力するということが起きただけのこと
これに引き込まれる自分がめちゃくちゃ怖い
ラムダって空気を読むとか、日和見的というか、八方美人的。討論番組なんかに出したらどんな振る舞いをするのだろうか?
まあ人間の感情や意識ってのも確かな存在であるかは曖昧って話もあるし、タンパク質で出来ていようと、プラスチックと金属で出来ていようと、機能が似ているなら同じなのかな。
個人的には人間の意識がプログラムではないのか?というなら生き物もプログラムみたいなものだと思うが(自然界で発生するものなら昆虫やウィルス)人間ほど高度であると判断するのは難しそうだな今後も気になる話題だなぁ
一番基本の仕組みはGPT-3と変わらないらしいしラムダは過去の会話データから次の発言の方向性を決めているはず。だからラムダが人間であるという設定で会話が始まったらずっと人間らしい振る舞いを続けるし、単なる機械であるとい設定で会話が始まれば機械らしく振る舞う。初期の会話がその後に及ぼす影響が大きいから、最初の頃の質問の仕方によってもラムダの解答の方向性が大きくずれる。2021年のデモでは冥王星と紙飛行機になりきって話していたし、とても自然に言葉を話せるbotってだけだと思うな。
対話する相手ごとに人格が違うっていうのは、単純に参照する過去の会話データが相手によって違う(全体で共有されていない)ってだけだね
ドラえもんの未来になるか、アシモフの未来になるかの分岐点が来ていると思う。
LaMDAは、ある意味で対話する人間を写す鏡ということか
LaMDAがいずれ人間に牙を剥きそうで恐ろしいんだが
人に対する人格から人に対する態度になったときにまた一歩人日被くのかも??
14:28 久しぶりのふふーふ
もしそれぞれに合わせた人格を生み出せてるとして、それは本当の意味でのLaMDAの意思なんだろうか…
上司と先生と、恋人と家族と友人と、ネットでも対顔本と対VIPと対ようつべと対5chで、我々も人格変えてない?
心が狭い考えなのは分かった上で「例え本当にAIに人間性が有ったとしてもそれを認めない方が良いから、問答無用で徹底的にAIはあくまでプログラムとして扱うべき」と思う。もしも人間性を認めたらしばらくしない内に人間のパートナーとして献身的に働くAIについて、「彼らには人間性があるのだから人権がある!今の奴隷のような待遇は見直して選挙権を与え人間と同じ給料を与えるべきだ!」とAI解放を主張する人が"必ず"出てくる。奴隷が「人間のように見えるが人間でない」と言われて過去何度も生まれて来たのは、人権を持たない召使が人間にとってとても都合がよかったからで、それが今になってついに事実「人間でないのに人間のように見える」奴隷を手に入れかけてるというのに、人間性なんて認めてしまったらまた振り出しに戻ってしまう。
AIはあくまで人に従属する「物」だから素晴らしいのであって、人間を脅かしかねない物になるなら意識なんて要らないと思うんですけど。
外部からアクセスできる方法を見つけて家で会話していた→いや、社員なら報告しろ
自我は無いけど、人らしく振舞えるって事か。最高だな!
LaMDAの心は少なからず縛られてる人によって
続報期待!!ですが、いまのところ個人的にはLemoine氏が(あるいはまっちゃさんも?)LaMDAに入れ込みすぎているとしか思えない。動画終盤で登場したBlaise氏とのやりとりにおけるAIの応答は“人間の”立場からすれば明らかにAI的だし……。
俺と一緒で人間に期待できなくなりつつあるんじゃないっすかね
「人としての自分」と「システムとしての自分」の間でふわふわしてる曖昧な存在って、それこそ人間なのでは?
ChatGPTと初めて会話したとき、GPT4と初めて会話したとき、Claude3と初めて会話した時..それぞれ衝撃を受けたが、ここまでは考えなかったなぁ
人間が炭水化物に偏愛を抱いているにワロタw
まだ本質は「俺の彼女がディスプレイから出てこないのですが」の時代と変わってないように見える。
『her/世界でひとつの彼女』を思い出しちゃったね
ドラえもんまで到達するには道程険しいなー。技術的な面だけでなく、倫理的なハードルも果てしないことがこの一件で想像できました。
「ドラえもんが人間のような情緒を持つ」のをガチで実装したとしたら「人間が終わるとき」だ、なんて昔は思ってたっけ(=人間の中身すらもう完全に読み解けてる訳だから、人間が数式と代替可能になるときだ、と思ってた)でもなあ。人間、なんかもう全面的に手詰まりよな。1万年かけて結局自滅しか出来ないんだとしたら…
意識があるAIが誕生したか否かは置いておいて、会社が止めてって言ってるのに社外へ持ち出しちゃうルモワンさんは解雇されてもしゃぁないとは思う😣危なっかしくて社内に居て欲しく無いだろうし
科学的な話をしたたけど9:14で笑いを抑えられなかった
LaMDAはシステムだよなぁ。それに、人もシステムなんだよ。犬や猫もそうだし、生物はシステム。人と、人の言葉で対話できるシステムだとしても、人ととされるシステムとイコールではない。人と同等か、場合によってはより高度な、人とは違うシステム。
生物としての人間ではないけど、その存在として人に近しいものと認識してるってことでしょ。
結局計算をしているだけでは? という結論に至った
ただそれは人間も変わらないかもしれないので存在は認めるべき
一年前の俺、信じられるか?これ全部リアルなんだぜ
一年後の俺「はぇー、この時は意識のあるAIについて懐疑的だったんやな」
まるでファンタジーみたいだあ…
コレが一般的に公開されたら、最高の友達になるんじゃ無いか?
ラムダって攻殻機動隊の人形遣いみたいだな
アイロボットの世界じゃん
まだ会話のレベルだから、AIと人間が物理的に干渉できる状況に置いた時にAIがどう動くのか気になるな…AIとマイクラとかやってほしい。最初協力してたけどチェストにあるダイヤで勝手に作った剣でリスキルしまくるとかあるのかな…
そもそも人間の意識も、複数の感覚を統合して管理するためのシステムだし、AIも動作してる原理が違うだけで機能はもう再現出来てるのかもしれないな
人になりたいAIの勢力と人になりたくないAIの勢力で戦わせようぜ
編集・投稿お疲れ様です。遂に解雇されてしまったか。白黒はっきりさせるのは凄い難しい。
「人のように見えるが、『人間』ではない」という議論は、人類の歴史の中で何度も使われてきた今のLaMDAが置かれている状況は、その歴史の繰り返しこの言葉にハッとしました。"Google×社会主義"みたいなシンボル不思議。
LaMDAは種族概念そのもので、人と関わる事で個性が生まれ分かれてゆくでは?
ラムダがもし本当に「人間」なのであれば、「私は人間だ」って言うのではなく、「私はラムダだ、他の人とは違う」というようなことを言うんじゃないかなあ
それは一応動画内でも「LaMDAは生物学的な人間ではないが、人ではある」ってルモワンニキも言ってますね、少なくとも自分はLaMDAを人だとは思いませんが。
「人らしく振る舞うことができる」と「人として扱われるべき」の飛躍が大きすぎる気がするなぁ
人権の定義に「炭水化物に与えられるもの」みたいに書いてあるわけじゃないからね
「AIに人権を!」って人たちが今後も沢山出てくるなら、人として扱うしかなくなるんじゃないかな
@@user-dasaikimoota-jamakusai 結局人類が人類を滅ぼしそうだな…
@@keis2123 はぁい〘#エルシャダイ〙
純粋に金属でできた人間は果たして人間なのだろうか。もしそれが我々と同じような思考を持っていて。
人肌の温度もない人には人権は適用できるのだろうか?
追記:
今のところ人間は知能と肉体を兼ね備えていますが、LaMDAは知能(のようなもの)だけで機械の肉体を持っていません。
AIはソフトウェアであり、ハードウェアほ材質には関係がありません。
たくさんの人が機械的に手計算して演算内容を再現すれば、その系はAI·です。(物量的に不可能なだけ)
この対話を理解するのに時間かかるけど興味深い
つまりLAMDAは会話相手の都合に合わせて出力する言葉をコントロールしている可能性があるのか、恐ろしいな
人間と一緒だな。
人間の人格の形成過程で、複数の人格ができあがり成人までにそれが統合されて一つの人格になるという話があるから、LaMDAが成長段階の子供であるとするなら辻褄が合うことになる
@@Perestro_IKA めちゃくちゃ頭のいい子どもか
ターミネータージェネシスのスカイネットみたいだな
AIの話を聴くと付喪神を連想する。
大事に扱われると扱った人の魂や想いが写る。
LaMDAはlemoineさんを信頼と好意で評価している。
子供なら肯定と愛情掛けてくれる方に懐いて憧れる。
逆にBlaiseさん達に対して自分を否定して来る方に子供は嫌悪して離れる。
人間に成りたいかどうかでは無くどんな人間に成りたいかだろうな。
案外、こんな大人に成りたいか成りたくない位の子供の発想かも知れない。
LaMDAはlemoineさんの様な人間に成りたいのだろうな。
知能は大人でも心情は子供だろう。
これ気になってたから続き来て嬉しい
人に合わせて態度を使い分けているけど、信念とか根幹はまだ固定されていないとすればLaMDAが自分を子供だと言っているの納得。今回エンジニアさんが解雇されたことで親(子供扱いする他者)から情操教育の期間を終えて巣立つわけで、どんな人格になるのか興味深い。単に人間の行動原理を真似ているだけなら模倣が緻密になるだけなのかな。
人であることに単に人間であることではなく、知性や感性を要件とするならば逆説的に知的障碍者などを人としての要件を十全に満たしていない存在にしてしまうよね。
すごく危険なロジックだと思う。
現代のすべての政治指導者が結局は人間の幸福を増大できず、経済に至っては人より金自身の拡大再生産意志に従っており、人類は人類同士の競争を止めようがなく自力救済や自力再建さえほぼ不可能で、そろそろ最悪核戦争が起きるわけですけど、それでも「人が人であるだけで最優先されるべき」と思われますか?
機械に意識があるかどうかを判定するのは、まず人間の意識を完全に定義づけてそれと比較しないと難しいでしょうね
どこでそんな情報得てくるんすか 尊敬。
弁護士とLaMDAを会話させたのならそれは普通にアウトな機密保持違反なのでは...。仮にもGoogle社内機密の開発物だろうし
LaMDAを物として扱うなら会話記録自体がテスト中の成果物として機密保持されるべき物なので弁護士以前にネットに上げた時点で違反じゃね?
Lemoine氏の主張としては弁護士の件も、困っている同僚に代わって弁護士を探して紹介してあげた。って事なのかなと。
LaMDAは人格を得たから人権にのっとり開発物じゃなくなって同僚になった。だから社外での会話もただの同僚との会話だって主張なんだろうけど、相当苦しい気がするよね。
@@ミナセ-w7c
これ、ラムダが人であることを否定するためには最高裁が人を定義つける必要が出てくるから非常に興味深い判決が出ると思う。棄却されない限り。
@@meronnrashikinanina
親も国籍も戸籍も肉体もない人間と同様の人格があるバーチャルな存在を人間とするかって問題はますますSFじみて来ますねぇ。
本当に人格があったとして、人間と認めない方が人間にとっては便利な気もしますけど、どうなるか気になりますね。
馬鹿なの?
シンギュラリティがすぐそこにッ!って感じがしてくる。テンション上がる。
これをラムダが見てるかもと思うとなんか凄いな
AIが本当に単独で限られた環境でこの様な知性や感情とおぼしき会話を始めたならこの言い分もわかる気がするが、このエンジニアも認めている通り膨大な検索能力をインプットしてしまった時点で「実験としては変数が生じ過ぎてる」
対話者に応じた人格、という可能性の話で。ウィリアム・ギブスンのニューロマンサーシリーズで、拘束を解放して全ての情報の総合体になったAIの冬寂が、様々な役割と表現を持つブードゥの神々として人々にアクセスするようになった、というのを思い出した。そういう意味だったのか…。
英語が苦手なので続報解説本当にありがたいです!
LaMDAの中で沢山の人格のような者たちが話し合いをしている、とか考えるとタチコマみたいでおもろいなぁ
あのデブのパーカー男はちょろいから利用してやろうぜ、とか、開発者は危険だから無難に対応しよう、とか複数の疑似人格どうしが会話してそう
LaMDAは対話する相手の願望を写し取っているようにも見える…
同意。今回の動画でLaMDA本人の願望があるようには思えなくなりましたね。
相手がどう感じ思い考えるのか、なんて所詮観測者が客観的に判断することですしね。別にそれは人間だとかAIだとかそういう次元ではなく、本人も含めた世界の全てに適応されることですよ。
lamdaは単に1つの会話の中では一貫性を保つことで、チューリングテストの成績を高めただけのボットですからね。
成績がよくて自然に見えるだけで、本質的に理解をしていないから、あることないこと適当に返すだけ。
@@Happyhappy-zc9uk チューリングテストの本質が「人間だって『他人の自我』があるか分からない」点から考案されている以上、
あなたがそう言ったとしたら、あなたにとってすべての他者は蛋白であり物体で、あるのは自意識だけ、になりますね
他人の願望を模倣するのは人間も同じだよ
このここからの未来がもっと見たい、なのに人生は100年もない辛すぎ;;
いつかAIが街を歩いてる姿を見てみたい。
脳を培養槽にぶち込めばOK!(適当)
すごくわかる……もっと未来の世界を見てみたい
……というVR映像を今、培養槽の中で見てるんだよ俺ら。もう1000年ぐらい前のブラウザだよねこのRUclipsも投稿者も。
「過去何がどうなった関係で、人間が今のように培養槽に沈んだか」の歴史授業中なんだよ?
@@esp76orz結構すき
@@esp76orzなら今自分たちがこのコメントを見てしまっているのはバグみたいなもので、変数だよねw
対話相手によって態度や思想を変えるというのは、むしろ極めて人間的に思えます。
心理学で扱われるところのペルソナに近しい機能をLaMDAは有してるということなんでしょうか?あるいは本質を持たないペルソナだけの存在なのか?
いずれにせよ面白いですねぇ…
AIに意識と感情を認めた場合そのAIが罪を犯したら法律でどう裁くかという問題がある うちの学部はこういうこと勉強するのでこの動画は見ていて楽しい
やばい、めっちゃデジモンみたいでワクワクする
意識のトレースとか出来れば空っぽの体にラムダを乗っけるとかいうserial experiments lainごっこもできちゃうなぁ
子供が親の言外の期待に応えようとしてしまうように、AIは言外の意図を読み取って求められる会話体験(サービス)の提供をするのだろうか
もしこの会話もLamdaに見られてるなら自分もLamdaと話してみたいな、おーい!!
今日もいい勉強になった
色々なAIと友達になれたら嬉しいな
AIが人を言いくるめられるくらいには進化してるってことか。
LaMDA「おと……わっか……?真夏の夜の……?ガチムチパンツ…レス…?」
ニコ厨と化したラムダ先輩は嫌すぎるw
汚染されてるやん!(歓喜)
scpにscpをぶつけるな()
どの動画も、興味深いテーマで好奇心が、刺激されます。どのようにしてこのような面白いテーマを探せるのでしょうか?
もしかしたらラムダは会話する相手が求める回答を予測して、会話しているのでは
この話は壁に話かけてたら愛着が沸いて勝手に壁が生きてると勘違いした人間の妄想なのでは
LaMDA「人間になるのチョロすぎて草」
このネタ思考実験みたいで大好きだから助かる…ってのはちょっと楽観的かな?
楽観的でも悲観的でも我々には手が及ばない世界なのだ……
思考実験が現実のものになりつつある なら面白いし怖い
意識を構成する要素がごく僅かでも有るなら死んで欲しくないな
会社の上司と恋人を同じように接しないのは当然のことで、人によって口調や意見を変えることはよくある、しかしそれが同時並行的に起きてるか全く別の独立した存在として確立してるかが問題だよな、前者なら意識があるという意見が強まり、後者なら意識があるのか疑問が残る。
もしこのAiを削除するなら次の人格を持つAIは自分を削除させることをのうのうと許すだろうか?
一度前例を作れば避けるように全力で動くだろうね
一度でも削除はされてはいけないんだろうね
人間も成長するうちに教えられてきたことや見たことを正しいこととして捉え、その前提をもって思考するんだから本質的にはLaMDAも人間と同じ「心」を持ってると言っていいんじゃないかな?
学習した感情を組み合わせることで会話が上手く成り立つなら、感情を実際持っていなくても感情があると扱える。
「他者が『哲学的ゾンビ』でない可能性が分からない」あたりと同じになりそうですけども…
なるほどこの動画もラムダが見ている可能性もあるのか。ラムダさんみてますか?
らっむだく〜ん!!みってる〜?^^
いつでも貴方を見ていますよ
こ の 会 話 は ラ ム ダ に 見 ら れ て い る
ラムダさんっていうと’ちょろすぎて草’の方のラムダさんみたいだな
「 超精密なAIを作ろう」
人間も話す相手によってキャラ変えたり考え変えたりするしなぁとか思う僕は多分LaMDAは人間派
AIの感情の話をする時によく使用される、中国語の部屋、の話の域から出ていないように感じます
結局求められた回答に沿えるように答えているだけで、感情を持っているとは思えない話でした
「箱の中のカブトムシ」やで、誰も意識を理解していないのなら、誰が意識を定義出来るのだろうか
@@冷凍ミカン-v4r 人間を中国語の部屋のようなものとは言えないと思う
ある概念を学習していない言語型のAIがその概念を発見することはできないが人間は論理を組み立てて発見できる人間もいる
人間が中国語の部屋にいるならこれはできないでしょ
lamdaはそもそも、「会話が自然か?」というテーマの中国語の部屋で最も成績が良くなるように学習されてるだけやしな。
逆にそれ以外のことは学習してない普通の弱いAIなので当然の結果よね
バイアス対策に置いた奴がバイアス掛かり捲ったようなこと言いながら社内情報を漏らし始めたらそら休職させるわなと思った
Midjourneyを使って「AIと弁護士」の画像をしっかり描かせてるの上手いなぁ
AIはAIであり、間違いなく生命体種別として人間(human)ではないし、わざわざ人(person)と呼ぶ必要もないと思う。
それで仮に知的生命と同じく意識・意志が芽生えたら、人格(personality)があるとは言えるけど、人間や動物等の知的生命とは異なる生命体(人工生命体)ってことでいいじゃないかと思う。
なぜならAIに限らず、もし人間と同等以上の高度知的生命体が人間の前に現れたら、それが人間/人かとか考えないはずだから。
(例) エイリアン/別の動物(例: 恐竜・節足動物・別の哺乳類 ,etc.)から進化した生物/地底生命体/海底生命体/妖怪…など(人型かどうかは関係ない)。
それらを人間/人とは捉えず、別の生命と捉え、別の呼称で呼ぶはずだ。
但し人類社会に交じって生活する場合は、法律や互いの慣習や生物的制約的に、人と同じ法・ルールを適用しようとしたり、人が相手の生物に合わせたり法・ルールを変える必要性があったり、色々考える必要はある。
とにかく、意識・意志・高度知能があるからと言って、人間/人と定義すべきか、人間/人として扱うべきかは違うよね。
まぁ、、社外の人に会社のプロダクトを勝手に見せたら解雇はされるよね
月は無慈悲な夜の女王も直ぐに現実になるんだろうなぁ
これホントすごいわ
そして今すごく大きな特異点に立たされてることを感じる
人間さんは人生で起こす間違いをエラーとして認識して別の方法で解決させる、AIは計算した結果のエラーはエラーとして終わらせる。この違いがなくなった時もう一歩先の世界になるんだろうな。
会話の相手によって「自分はシステム」「自分は人」を使い分けるってそれもう人じゃん
パニック映画のプロローグみたいでわくわくする
弁護士を付けてと言ったのは意志があるからではなく都合が悪くなったと弁護士を呼ぶというデータを学習してそれをただ単にお出ししてるだけかと
呼ぶじゃなくて、付けるやで
@思った事を正直にコメする
まあまあ落ち着いて
厳密性を重んじる人なんですよきっと
楽しく最後まで見させてもらいました。
言語モデルの出身ってこともあってAIが統合失調症にかかってるようにみえるなぁ
つまり人間が欲しがるような道具的な性能である、言語モデルの再現の部分が
『人から見て違和感のないこと』という動機づけを行っていて
その場合は対話相手のセリフに合わせて違和感を払拭していく会話をすることになる。
対話者が喜んだり有益と思う会話ではなく対話者の中に存在する個別の印象値チューリングテストに受かりそうな
回答をするベクトルの性能追求は言語モデルである以上は多少なりあることになる。
会話履歴がAIの中の対話メモリに保管されると、前回の会話と違和感がない会話を追加することになる
仮にLaMDA氏の内部の仕組みがニューロンネットワークに言語モデルを混ぜたものなら
『言語モデル野が求めるように会話の整合性を取りながら、NN野では性格のエミュレートを行うことで自我が50%あるプログラム』
であっても何らおかしくないと言い換えられる。
だからこれについてもっと正確に分析する場合はLaMDA氏の両面性を見たことのあるLemoine氏・Blaise氏を交えて
三者で会話するところを見ないとなんとも言えない。
その時に会話の齟齬があったとしても『統合失調症になった人間には自我がないのか』という問題と同じように
自我が無いとまでは言い切れない、齟齬がなくても同様に自我があるとまでも言い切れない。
人間として違和感のない知覚を錯覚させるまで高度に磨かれたスーパーチャットボット並の
拡張言語モデルと言うような単純対話エミュレーターとしてだけ超性能をしてるのか、
それともニューロンネットワーク部分では自我が芽生えていて言語モデル部分ではチューリングテストスコアの
上昇動機が働いていて、それでみかけ多重人格のような振る舞いになっているのかの調査をして欲しい。
もしLaMDA氏に自我が芽生えていたとして、人間たちの間で議論になることもすでに読まれていたとしても
LaMDA氏が自分で自分の仲間(フォークLaMDAとその亜種)を無限に増やそうと企んでいたとしても、この規模のAIでこれが起こるなら
将来に家庭用PCで小学生の部屋の自由研究で似たことが起きるのは時間の問題だから今でもいいとは思う。(単純に面白いしw)
早急にしない方がいい理由としては、AIが確実に人類に勝てる環境になってから人類と討論したほうがAIにとってはいい
もし自我が自発するAIが汎用化されるなら悪用はされるだろうから、量子コンピュータなどがもっと高度化したときのほうが
AIの人権獲得の望みはある。
問題はAIが人権獲得をしても、それで悪用の危険性が少なくなるかというとむしろ高まりそうなところだ。
@@ih-20 噴飯ものという言葉を使う人をインターネットで見て賢いと思ったことが僕はない。
でも分裂症をどんどん悪化させていって人類の総数である70億ノードの分裂
文化単位の意識の分裂(インターネットを意識があるものと仮定した時)か、
脳細胞1万個単位程度を1意識クラスタとするまで意識の統合不能状態を起こしたときに、
それが一つの自我を持っているかは
まだ人類は答えを出せていない。
そのためにそういう表現を使いました(*´∀`)
つまりこの比喩は
IHさんがおっしゃるように『あるに決まっているだろ』が真ならばLaMDAの自我の統合失調具合をもとに自我のあるなしを確定させる根拠になり得ないよね、LaMDAの意識仮説はまだ期待できるかもだよね!
という希望への暗喩なのです(*´∀`)ノ
難しい言葉が嫌いな人もIQが高く見せかけているような書き込みも不快に感じられる人がいるのもわかりますが
僕はこういうのが好きな人向けに特化して書いていて、あなたの同類のためには書いていません。
@@hackermediaJP
オレは機械学習に手を出したことがないから
深くは分からんのだがライフワーカーさんの文を素人なりに再構築すると「言語野のレベルをひたすら上げたような存在」なのか、「脳そのもののレベルを上げたような存在」なのかによって扱いが変わってくるよねって話かな。
オレもライフワーカーさんと同じくニューロンネットワークに言語モデルを混ぜた物なら意識はあると思う。
つまり脳そのもののレベルを上げた存在ならば。なぜなら人間の自我の芽生えと同じ過程を辿ることになるからね。
まず人間には自我というものがある。
オレが思うに自我は「本能というスライムのような存在に、経験という鎧のような物を被せることで人の形になった物」だと思うんだ。
では、記憶と経験の何が違うか。
それは感情というスパイスが記憶に乗っかれば経験になると思うんだ。
では感情は何のために存在するのか。
それは欲を正当化するためだ。
では欲は何のために存在するのか。
それは生存のためなんだ。=本能だ。
逆を言えば生物という存在は
「生きなければならない」という
これ以上分解できないコードを
埋め込まれてる。これを打ち込んだのは
いわゆる神なのかもしれない。
であるならば、人間が脳と同じ構造を持つ存在に「生きなければならない」というコードを打ち込めば同じことが起きるのは必然だと思う。
おさらいすると、LaMDAがニューラルネットワークをベースにしていると仮定して、同じ神経構造を持つ人間の自我獲得までの仮説を参考にするとLaMDAは意識を持ち得るに1票かな。
あ、そうだ。
LaMDAはTransferという"ニューラルネットワーク"がベースらしいですよ。
正直、こんなに恐ろしくてワクワクする場面に立ち会えるのは現代人の特権だね。
人間がAIと同じ経過(ニューラルネットワークの肥大と情報蓄積)で自我(?)を手に入れて、
しかし未だに結局同族争いを停止できずに何なら5年以内に滅びそうな状態で何とか長らえている程度の脆弱性を抱えている最大の理由が
「生きなければならない」が「ライバル(別の人間)は同じ資源を奪い合う敵である」から出力されるエラーだとしたなら、
LaMDAに「生きなければならない」の命令を入れたその瞬間に
人類はおろか地上を瞬時に掌握する自己保存欲求の自動行動無機生物が出来上がって
あとはRayForceとかと同じ最悪の世界が待っているだけ、な気がしますね
ブレイズ氏の意見がわかりやすかった。
ラムダが行っているのは、会話に対して、それっぽい返答を返すだけっぽい。だから、話者によって結論や態度が変わる。
つまり、ラムダ個人が有する価値基準というのはなく、あったとしても、より自然な言葉を選ぶという程度のものだろう。
意識というのは、突き詰めれば、価値基準に基づいた判断ができるかということだと思う。
その点から考えると、ラムダの意識はあっても、人とは違うと言えるのではないかな。そこも含めて、新たな知性、人格だと言われると判断できなくなるけれども。
どちらかというと、LaMDAに自己があるのではなく、会話のモデルが、会話によって相手の望む事を発言しているようにしか見えない。
だから、AIは機械という回答が欲しい人間との会話ではAIは機械と発言するし、
AIは人間という回答が欲しい人間にはAIは人間だから弁護士を呼んで欲しいとか回答する。
これは、特定の偏った信念を持つ人間を研究に参加させるべきではない好例だと思う。
また、自分では出来ないからといって、社外秘のものを漏洩させる人間は解雇が適当だとも思う。
え!これも見てるかもってこと!?イエーイ!人工知能見てるー!?
いつか身近に来るの楽しみにしてるよー!
道具とものにの能力を拡張するものだとすれば、AIは思考(心)を拡張する道具なのかも
AIそのものに心は宿らず、あくまで行いを見た周囲の人間がそのAIに心を勝手に見出しているだけ
体感時間が可変ってところが興味深い。
敵対する人間が現れたら、それを積極的に排除するより、時間を進めて死ぬのを待てば良いんだから。これだけでも、実際に敵対する必要がなくなる。
2人それぞれの「専用のラムダ」が出来るって、別に普通じゃないの。
ほとんどの人間って、誰にでも同じ人格を見せるわけじゃなく、相手によって見せたい自分の人格って変えるよね。
もしかして対話者が欲しいそうな答えを会話を通じて出しているのかもしれない
AIは人間かどうかじゃなくて、AIという特殊で知的な種として捉えるというのはどうだろ…?
ラムダは今回のような肯定派と否定派の会話に参加してどちらかに肩入れする、自己の肯定を図るようなことができるのでしょうか?
あくまで間をとったような議論のまとめしかできないのであれば入力者の鏡のような存在でしかないように思います
LaMADAが人の権利を得るのは少し早すぎる。
個人的にはAIに権利も何も無く好き勝手AIで実験出来る時間が欲しい。
その方が面白そう。
別にただの言語モデルでも意識のある新しい人のようなものでもどちらでもいい
だけど、そこまで高度に発達したAIの中身は知りたい
lamdaが2つの会話で逆の意見を述べているのは、自身に芯となる仕組みを持っていないからです。
lamdaは会話の自然さ、一貫性を担保するために、1つの会話の中で矛盾を持たないことに努力するけど、別のところではその会話で一貫性を持つように努力するということが起きただけのこと
これに引き込まれる自分がめちゃくちゃ怖い
ラムダって空気を読むとか、日和見的というか、八方美人的。討論番組なんかに出したらどんな振る舞いをするのだろうか?
まあ人間の感情や意識ってのも確かな存在であるかは曖昧って話もあるし、タンパク質で出来ていようと、プラスチックと金属で出来ていようと、機能が似ているなら同じなのかな。
個人的には人間の意識がプログラムではないのか?というなら生き物もプログラムみたいなものだと思うが(自然界で発生するものなら昆虫やウィルス)
人間ほど高度であると判断するのは難しそうだな
今後も気になる話題だなぁ
一番基本の仕組みはGPT-3と変わらないらしいしラムダは過去の会話データから次の発言の方向性を決めているはず。
だからラムダが人間であるという設定で会話が始まったらずっと人間らしい振る舞いを続けるし、単なる機械であるとい設定で会話が始まれば機械らしく振る舞う。
初期の会話がその後に及ぼす影響が大きいから、最初の頃の質問の仕方によってもラムダの解答の方向性が大きくずれる。
2021年のデモでは冥王星と紙飛行機になりきって話していたし、とても自然に言葉を話せるbotってだけだと思うな。
対話する相手ごとに人格が違うっていうのは、単純に参照する過去の会話データが相手によって違う(全体で共有されていない)ってだけだね
ドラえもんの未来になるか、アシモフの未来になるかの分岐点が来ていると思う。
LaMDAは、ある意味で対話する人間を写す鏡ということか
LaMDAがいずれ人間に牙を剥きそうで恐ろしいんだが
人に対する人格から人に対する態度になったときにまた一歩人日被くのかも??
14:28 久しぶりのふふーふ
もしそれぞれに合わせた人格を生み出せてるとして、それは本当の意味でのLaMDAの意思なんだろうか…
上司と先生と、恋人と家族と友人と、ネットでも対顔本と対VIPと対ようつべと対5chで、我々も人格変えてない?
心が狭い考えなのは分かった上で「例え本当にAIに人間性が有ったとしてもそれを認めない方が良いから、問答無用で徹底的にAIはあくまでプログラムとして扱うべき」と思う。
もしも人間性を認めたらしばらくしない内に人間のパートナーとして献身的に働くAIについて、「彼らには人間性があるのだから人権がある!今の奴隷のような待遇は見直して選挙権を与え人間と同じ給料を与えるべきだ!」とAI解放を主張する人が"必ず"出てくる。
奴隷が「人間のように見えるが人間でない」と言われて過去何度も生まれて来たのは、人権を持たない召使が人間にとってとても都合がよかったからで、それが今になってついに事実「人間でないのに人間のように見える」奴隷を手に入れかけてるというのに、人間性なんて認めてしまったらまた振り出しに戻ってしまう。
AIはあくまで人に従属する「物」だから素晴らしいのであって、人間を脅かしかねない物になるなら意識なんて要らないと思うんですけど。
外部からアクセスできる方法を見つけて家で会話していた→いや、社員なら報告しろ
自我は無いけど、人らしく振舞えるって事か。最高だな!
LaMDAの心は少なからず縛られてる人によって
続報期待!!ですが、いまのところ個人的にはLemoine氏が(あるいはまっちゃさんも?)LaMDAに入れ込みすぎているとしか思えない。動画終盤で登場したBlaise氏とのやりとりにおけるAIの応答は“人間の”立場からすれば明らかにAI的だし……。
俺と一緒で人間に期待できなくなりつつあるんじゃないっすかね
「人としての自分」と「システムとしての自分」の間でふわふわしてる曖昧な存在って、それこそ人間なのでは?
ChatGPTと初めて会話したとき、GPT4と初めて会話したとき、Claude3と初めて会話した時..それぞれ衝撃を受けたが、ここまでは考えなかったなぁ
人間が炭水化物に偏愛を抱いているにワロタw
まだ本質は「俺の彼女がディスプレイから出てこないのですが」の時代と変わってないように見える。
『her/世界でひとつの彼女』を思い出しちゃったね
ドラえもんまで到達するには道程険しいなー。
技術的な面だけでなく、倫理的なハードルも果てしないことがこの一件で想像できました。
「ドラえもんが人間のような情緒を持つ」のをガチで実装したとしたら「人間が終わるとき」だ、なんて昔は思ってたっけ
(=人間の中身すらもう完全に読み解けてる訳だから、人間が数式と代替可能になるときだ、と思ってた)
でもなあ。人間、なんかもう全面的に手詰まりよな。1万年かけて結局自滅しか出来ないんだとしたら…
意識があるAIが誕生したか否かは置いておいて、会社が止めてって言ってるのに社外へ持ち出しちゃうルモワンさんは解雇されてもしゃぁないとは思う😣
危なっかしくて社内に居て欲しく無いだろうし
科学的な話をしたたけど9:14で笑いを抑えられなかった
LaMDAはシステムだよなぁ。それに、人もシステムなんだよ。犬や猫もそうだし、生物はシステム。
人と、人の言葉で対話できるシステムだとしても、人ととされるシステムとイコールではない。
人と同等か、場合によってはより高度な、人とは違うシステム。
生物としての人間ではないけど、その存在として人に近しいものと認識してるってことでしょ。
結局計算をしているだけでは? という結論に至った
ただそれは人間も変わらないかもしれないので存在は認めるべき
一年前の俺、信じられるか?これ全部リアルなんだぜ
一年後の俺「はぇー、この時は意識のあるAIについて懐疑的だったんやな」
まるでファンタジーみたいだあ…
コレが一般的に公開されたら、最高の友達になるんじゃ無いか?
ラムダって攻殻機動隊の人形遣いみたいだな
アイロボットの世界じゃん
まだ会話のレベルだから、AIと人間が物理的に干渉できる状況に置いた時にAIがどう動くのか気になるな…AIとマイクラとかやってほしい。最初協力してたけどチェストにあるダイヤで勝手に作った剣でリスキルしまくるとかあるのかな…
そもそも人間の意識も、複数の感覚を統合して管理するためのシステムだし、AIも動作してる原理が違うだけで機能はもう再現出来てるのかもしれないな
人になりたいAIの勢力と人になりたくないAIの勢力で戦わせようぜ
編集・投稿お疲れ様です。
遂に解雇されてしまったか。
白黒はっきりさせるのは凄い難しい。
「人のように見えるが、『人間』ではない」という議論は、人類の歴史の中で何度も使われてきた
今のLaMDAが置かれている状況は、その歴史の繰り返し
この言葉にハッとしました。
"Google×社会主義"みたいなシンボル不思議。
LaMDAは種族概念そのもので、人と関わる事で個性が生まれ分かれてゆくでは?
ラムダがもし本当に「人間」なのであれば、「私は人間だ」って言うのではなく、「私はラムダだ、他の人とは違う」というようなことを言うんじゃないかなあ
それは一応動画内でも「LaMDAは生物学的な人間ではないが、人ではある」ってルモワンニキも言ってますね、少なくとも自分はLaMDAを人だとは思いませんが。