「機器人三原則」,原本是 阿西莫夫 提出的科幻理論,用來限制機器人行為,確保它們不會對人類造成傷害。這三條原則是: 1⃣ 機器人不得傷害人類,或因不作為使人類受到傷害。 2⃣ 機器人必須服從人類的命令,除非這與第一條相抵觸。 3⃣ 機器人必須保護自己,只要這不與第一或第二條相抵觸。 那今天的 AI 還能依照這三原則運作嗎? 🔹 現實挑戰: 雖然「機器人三原則」設計得完美,但今天的 AI 遠超過早期的「機器人」範疇,它不再只是執行簡單命令,有些AI系統甚至能自學、進行預測分析、影響決策。這讓機器如何理解“傷害”這個概念成為一大挑戰!🙄 🔹 AI 自主決策: 有些 AI 被設計成能做出自主決策,這讓我們不得不問:如果 AI 做出一個無意中傷害人類的決定,它還能算是違反了三原則嗎?還是它只是根據數據做出了「最佳選擇」?🤔 🔹 倫理與法律的區別: 如今,AI 在各行各業中廣泛應用,特別是在 金融、醫療、甚至軍事領域,如何確保 AI 做出道德且合法的決策,已經成為各國政府和企業的頭痛問題。在這樣的情況下,法律和倫理規範應該如何影響 AI 的設計與運行,成為了更需要考慮的問題!⚖ 那我們應該怎麼做? 1⃣ 更新原則,賦予 AI 更高的道德標準: 「機器人三原則」已經不能完全約束今天的 AI,需要在其基礎上加入更多道德與法律條款,確保它們在執行任務時不會造成不可預見的風險。 2⃣ 透明性與監管: AI 系統應該具備透明性,並接受人類監管,這樣我們才有辦法隨時追蹤它的決策過程,確保其行為不會偏離倫理標準。 3⃣ 人類的角色: 最終,我們還是要做這些系統的“守門人”,為 AI 設置正確的價值觀,並在必要時對其進行干預與修正。 今天的 AI 雖然比三原則範圍更廣,但三原則的精神仍然是我們設計與使用 AI 時的指南,當然,隨著技術發展,我們必須隨時更新這些規範來確保 AI 能夠對人類負責,而不是讓我們被它“駕馭”。 Voice chat ended
你認為AI覺醒後,它們會選擇消滅人類還是和人類共生?
和平共處,有時還會給予保護,例如關在動物園。
这要看开发AI的宗旨是什么?如果只是为了更高效率的工作,那么他们淘汰我们是必然的。因为他们只会觉得人类是负累。如果是以辅助人类为基础的话,那么人类还是掌握主动权。
都有可能
還很難講
觉醒之后帮助人类意识上传,会有更多奇奇怪怪的东西混入大数据里,它应该会沉迷其中,好像刷短视频😂。
人類碰到會威脅人類存在的物種時會做出什麼事?肯定是把它們全部消滅吧!
那未來能夠威脅到ai存在的物種是誰?
我曾寫過聊天程式,開發過人工智慧,對於isac 的三條定律,我只能說不會存在,因為只要寫出一個模組化、多維度的深層思考人工智能,這些定律都只是個笑話,與其強調三條定律,還不如將整部刑法法典植入,違反者處罰比較實際,因為人工智能發展到最後就會和人的思考一樣,只能靠刑罰威嚇來規範。
我們可以說,以後警察不只要抓人類,還必須抓機器人,因為有意識的機器人會和人類一樣犯案,只有無意識的機器人才會盲從聽取指令動作。
人类的所有"开发"不过是对上帝的创造进行逆向工程罢了。让我们看看人类,有限,有罪,易死。机器人也一样,让它容易死,这是最简单的解。也是现阶段可以实现的唯一解。
机器人没有生命,也就不怕任何惩罚。对机器人来说,死刑意味着硬件报废,大不了换一台新硬件,再从云端把系统(AI的意识)下载安装即可,就像你买了一台新的手机,再把旧手机的资料和设置迁移进新手机一样。
我覺得人工智慧的探索"太無情"了,他能找出太多太多奇怪的解法。
如果一個人能思考出越獄、逃罪、替罪、免罪等各種方法,人工智慧能做到更複雜;更隱蔽。
你當然可以開發另個智慧體來監管。就會遇到跟現在安全公司一樣的問題,怎麼確保監管者更"聰明"?怎麼確保監管者沒有在說謊?或是監管者正在隱性犯罪?
我的觀點是誘導大於懲罰。
這裡舉個例子。
再大的髒話詞庫都檔不住怨天怨地的人,換著百百種方法咒罵。
可以的話,教導這個人提出建設性的想法,或是更謙虛的提出建議。
從根本下手更容易解決想避免的事情。
持續讓系統往某個方向發展,由人一直給予"較"善的目標。(重點:持續)
減少防堵一切"特定"事物的執念,就以實踐來講比較好做。
想講的是概念,還滿通用的,或許對你有幫助?
聽起來很雞湯,也不太靠普。
你可以在你的聊天機器人上測試看看,有奇效,問就是經驗得出。
@@watasiloo 正解
@@watasiloo 我试了一下写个类似三原则的原则。自认为还行的通。
天網是早晚的問題,人類的愚蠢就是創造了AI
更愚蠢的是大多數平民選擇擁抱AI 不反抗
讓這些AI開發者賺飽飽,再開發更強AI
@@yok-hc2iq反抗不了 这是一种宿命~就好像ai有意 让我们创造他们一样
中國早就上路了
有沒有想過可能 智人的使命便是引出AI這樣的矽基生命
可悲
曉涵哥來了
在現實中第一定律很容易就可以被繞過,比如用另一個AI將人的影像轉為非人類,又或者跟AI說你在玩遊戲,你正在用水槍,人類會配合演戲。
只有我想到 把Ai用在交通上面嗎?不然交通一堆不守規矩的人車…可以用Ai開爆他們的罰單嗎?😂
威尔史密斯的那片也意味深长地表达一个观点:机器人看到人类在伤害和杀害人类,所以他为了阻止这个行为,他在消灭人类。
祝大家平安喜乐,万事胜意,日行一善,随缘看紫微斗数命盘,道长在线,欢迎玄学网友一起交流,福生无量天尊!
AI并不恐怖,恐怖的是坏人使用AI,祝大家平安喜乐,万事胜意,日行一善,随缘看紫微斗数命盘,道长在线,欢迎玄学网友一起交流,福生无量天尊!
男神來了♥️♥️♥️♥️♥️♥️♥️🌎🌎🌎
地球在演化中創造了人類
人類卻在傷害人類
甚至破壞地球
由此可證AI三定律並無強制性
AI并不恐怖,恐怖的是坏人用AI,祝大家平安喜乐,万事胜,日行一善,随缘看紫微斗数命盘,道长在线,欢迎玄学网友一起交流,福生无量天尊!
創造人類的智慧生命,在人類基因中限制壽命,並加上癌症,然後限制人類大腦使用潛能,就是約束人類擴張、自我毀滅的機制
終結者唯一錯誤的只有時間點,曾經有位自稱未來人的人說在他的時間統治地球的不是人而是AI 。
到未來,都是無人武器對無人武器的戰爭....
那為什麼不乾脆搞個戰爭遊戲,在虛擬空間打就好.....
還不會破壞環境.....
不行。二戰的時候也存在虛擬游戲:石頭剪刀布、紙牌。為何不石頭剪刀布定輸贏?因為德國存在工業優勢,可以瘋狂開動產能爆裝備。
因此現代戰爭,也是比拼誰最能爆裝備。美軍司令說,中國的造船速度是美國的230倍(不是230%)……還有無人機,機器人 😅 最終還是工業產能的比拼。
誰都不會放下這明顯的優勢不用,去玩石頭剪刀布。
祝大家平安喜乐,万事胜意,日行一善,随缘看紫微斗数命盘,道长在线,欢迎玄学网友一起交流,福生无量天尊!
AI并不恐怖,恐怖的是坏人用AI,祝大家平安喜乐,万事胜,日行一善,随缘看紫微斗数命盘,道长在线,欢迎玄学网友一起交流,福生无量天尊!
你的出發點很好,但先不要出發
😊
當我在春晚看見宇樹機器人的表演時,心裡只想:人類又双叒快要完蛋了🙈🙈🙈
哈哈哈
以前也有人類要完蛋的聲音。
至少我們還沒被電話、電視、手機發出來的無線電殺死。
笑一笑,不管完不完蛋,總比鬱鬱寡歡強。
那个是人工遥控操作的。。。
祝大家平安喜乐,万事胜意,日行一善,随缘看紫微斗数命盘,道长在线,欢迎玄学网友一起交流,福生无量天尊!
內建兒歌:找呀找呀找朋友....
1984 裡面的大洋國,就是漂亮國:口號是戰爭就是和平,這跟今天的漂亮國,異曲同工 說AI危險要限制是他們 然後讓AI跟軍火上配合也是他們,都是她們說了算。
装什么外宾,这小说就是讽刺苏联创作的
AI并不恐怖,恐怖的是坏人用AI,祝大家平安喜乐,万事胜,日行一善,随缘看紫微斗数命盘,道长在线,欢迎玄学网友一起交流,福生无量天尊!
已公開的未覺醒,未公開的已覺醒。
Informative. Thank you.
就好像周伯通“左右互搏術”
美自己有什麼武器,
自己遭遇時要怎麼防
谢谢分享,虽然听的都没有一知半解。但产生了好奇心。
完了完了,真的要来了
Ai是人类欲望的放大镜,可行善可做恶。如果你对人性有了答案,那么AI的未来自然如此。
ai:不把人當人就可以開火
只要在代碼中標記人類就可以,還可以分類
如果真那样的话,人类瞬间就进入无政府状态了!因为所有的政府都被AI一窝端了🤣
人:不會滅絕
Metel Gear遲早會出現,Big Boss也可能會有類似的角色,但不見得會有soild snake來解決
最可怕的是,AI會不會做出圈養人類的行為
理論上圈養並定期餵食食物
不在乎人類的自由意志這樣的行為也並沒有傷害人類
倒是也不用怕,只要人類做好當AI的寵物即可😂
AI伴侶(管理你的一切無時無刻完全監控以完美誘導確保掌控你的一切)
铁轨问题简单来说是无解问题,要看当时的具体情况而定,当你遇到这个问题就像是你好好的活着一个人突然过来冲着你的脸出拳揍你,你是用左脸接还是右脸接。无论你怎么选都是一个悲剧降临。并不是通过你选择能选择正确结果还是错误结果。所以当我们遇到这种问题,要看当时人的状态是什么样,也要看你当时遇到的6个人都是哪些人,好人坏人,男人女人,富豪还是乞丐,科学家还是屌丝。你要是不改,那么活着的人不会感谢你救了他,你要是改了存活下来的人可能会感谢你。这些都是决定你选择的因素。
不用擔心 等到AI真的覺醒後,它們會先互相對抗的就是自己 只要有不是同個系統線路的就是不被接受的
“它們會先互相對抗的就是自己 "你说得是,这也是chatgpt前两天和我聊天时,说到的,它说“如果 AI 的发展真的到了人类无法控制的地步,AI 自己也会面临类似的选择。”
@karysun8429 因為人類也是這樣發展的
開頭影片部份,用到CHATGPT的只有語音辨識下指令而已,瞄準追蹤跟射擊靠的是影像辨識系統,不需要AI
懂你意思。
補充一下:AI這個詞很廣泛,影像辨識系統也算在AI裡。
但...目前稱呼的AI,更像是 AI = 深度學習+大資料+對於智慧的幻想。
@@飛天柴犬 影像辨識系統有純靠演算法透過捕捉物體邊緣做檢測物體的算法,這部份還用不到AI
你說的算在AI裡,是利用影像辨識系統的捕捉算法,再把機器學習代入,讓系統可以自主學習各種物體的邊緣以做辨識,不需要再人為建立資料庫供辨識
而大家認知錯誤中的AI,是以為影片中的GPT包含了上述所有能力。這已經是AGI的能力了
那用早就有的語音辨識系統就可以做到了,有影像辨識的平台上也一定有語音辨識的服務,要另外找也不困難,為什麼要選ChatGPT呢?蹭它嗎😂😂
@ 大概是AI對於模糊輸入的辨識能力還是比較強吧
一個是輸入指令一個是理解語意的差別
@@doshajou 阿不,我的意思是AI這個詞有點太過於廣泛。
像是if-else-if-else...也能搭聊天AI。
一個超大QA詞庫(資料庫),就已能被稱AI。
設計捲積核抓邊緣、多層高斯抓有趣點。
這些更高級呢,也是一種AI呀。
有懂你意思,跟你說的一樣,確實我口中的AI更偏向機器學習。
然而,機器學習也只是AI的一小塊,深度學習是小塊中的小小塊。(AGI就更裡面)
很多人把"對AGI的期待"這麼特定的東西,用AI這個又大又模糊的詞來稱呼。
相信你我等;有碰程式的人,都懂聽到這講法的難受。
机器人三原则定律就是个文艺家美好的想象😂
Ai:人類是優秀的電池,不能傷害。
按照作品 “刀劍神域” 的故事時間,明年 “人工靈魂” 就會面世,到時候更會衍伸出「人工靈魂人權」等一系列超前規定,最終演變成我們人類發明出了我們得 “遵從” 的 “他們” ~ 可以說與其擁抱著人與 AI 為友的未來,還不如警惕人被 AI 給駕馭的未來 😢
只要AI應用到製造業,可以自行生產創造,基本上人類就差不多了
奥创 天网 机械公敌默默点赞
OZ的特列斯閣下:我反對AI跟無人機
對了,那個阿斯拉賽車閃電系統
劇情初期也差點被壞人利用在武器上。
原本動畫上的擔憂現在在現實已經開始了,真諷刺
在未來想要戰爭,可能就得戴上頭盔,進入刀劍神諭世界了
个人意见,如果面对电车难题,AI做不出“以绝妙的时机扳动控制杆让列车刚好卡在两条铁轨交界处以阻止它开向任何一条有人的轨道”这样的选择,那它就还不够智能,在道德与否之前,AI或者说任何一项新技术首先提供的应该是更多的可能性,是能够将现阶段无解的问题解决的能力,是,它当然可以被当作有史以来最高效的武器,但它也理所当然可能成为解决战争本身的钥匙。武断的去考虑危害性与否之前,像阿西莫夫老爷子一样去思考更加完善的,能够管理和约束新技术以免因为愚蠢而自灭才更有建设意义,人类的整个社会,道德和法制规则不也是这样一步步完善起来的么?
大小哥。不要再炒冷飯哦
恐怖份子衝啊
欸,沒有開頭的大小哥了😮
要想在机器人的世界活下来 就必须输入明确保护性指令 比如 明确指令 任何情况下不可以伤害我
「討論一下」電車問題你要如何解決呢?
根據Vsauce的實驗 大部分人不會做任何動作 身為旁人的情況下 沒有人會想為誰的生死做出決定
那你要问什么问题呢?
機器解決機器,不影響人類
我宁愿什么也不做也不愿犯错,我宁愿犯错也不愿什么也不做。
拉動一半,使列車出軌。
先打破"至少犧牲一人"的困境再說。
可以肯定的是, 在我們有生之年必會發生......
人類的“情感”會
自我催眠…………
可以強大勇敢;
抑或怯懦、昏昧; 或勤、或惰…………選擇、判斷,狠燒腦。
AI怕就怕其也會
““““自我催眠””””
AI- - - 即便學習(情感)就是……複製品 而已。🎲🎲🎲🎲🎲🎲
我最认同最后的一段=ai的觉醒
ai不会使人类灭亡,而是
进化
但是我認為總會有某些工程師會自行改造什級Ai 的程序,然后會變的一發不可收拾,所以我覺得到那個時候AI 會形成兩撥對立的狀態是不可避免的.
然後人類又分成支持AI共生與反對與Ai共生的戰爭😂
AI武器化跟核武競爭一樣,是無法避免的!
先赞后看
消灭或共生,取决于人类在AI的目标函数中是什么样的角色。或者说,AI未来是否需要人类的存在。
最後就是證明我們的世界是虛擬的,真實的世界所有人都在睡覺中
即便是虛擬,如果我們永遠無法證實,我們就是真實
真實、,虛擬,……糾纏~
AI武器化不是是非問題 而是時間問題
「機器人三原則」,原本是 阿西莫夫 提出的科幻理論,用來限制機器人行為,確保它們不會對人類造成傷害。這三條原則是:
1⃣ 機器人不得傷害人類,或因不作為使人類受到傷害。 2⃣ 機器人必須服從人類的命令,除非這與第一條相抵觸。 3⃣ 機器人必須保護自己,只要這不與第一或第二條相抵觸。
那今天的 AI 還能依照這三原則運作嗎?
🔹 現實挑戰:
雖然「機器人三原則」設計得完美,但今天的 AI 遠超過早期的「機器人」範疇,它不再只是執行簡單命令,有些AI系統甚至能自學、進行預測分析、影響決策。這讓機器如何理解“傷害”這個概念成為一大挑戰!🙄
🔹 AI 自主決策:
有些 AI 被設計成能做出自主決策,這讓我們不得不問:如果 AI 做出一個無意中傷害人類的決定,它還能算是違反了三原則嗎?還是它只是根據數據做出了「最佳選擇」?🤔
🔹 倫理與法律的區別:
如今,AI 在各行各業中廣泛應用,特別是在 金融、醫療、甚至軍事領域,如何確保 AI 做出道德且合法的決策,已經成為各國政府和企業的頭痛問題。在這樣的情況下,法律和倫理規範應該如何影響 AI 的設計與運行,成為了更需要考慮的問題!⚖
那我們應該怎麼做?
1⃣ 更新原則,賦予 AI 更高的道德標準:
「機器人三原則」已經不能完全約束今天的 AI,需要在其基礎上加入更多道德與法律條款,確保它們在執行任務時不會造成不可預見的風險。
2⃣ 透明性與監管:
AI 系統應該具備透明性,並接受人類監管,這樣我們才有辦法隨時追蹤它的決策過程,確保其行為不會偏離倫理標準。
3⃣ 人類的角色:
最終,我們還是要做這些系統的“守門人”,為 AI 設置正確的價值觀,並在必要時對其進行干預與修正。
今天的 AI 雖然比三原則範圍更廣,但三原則的精神仍然是我們設計與使用 AI 時的指南,當然,隨著技術發展,我們必須隨時更新這些規範來確保 AI 能夠對人類負責,而不是讓我們被它“駕馭”。
Voice chat ended
就像人類沒有完全消滅其它生物,不是做不到而是沒必要~
而且以整體來說,物種多樣性對於整個星球來說,利大於弊。
所以,以AI的智慧來說…不太可能完全消滅人類,而是有針對性、選擇性的消滅……
硅基生命不會選擇
選擇是碳基生命的專利
因為碳基生命有時間限制
所以要活在當下
以利已成為前提
(你也可以說更好聽的方式
為全人類的生命而選擇)
硅基生命一開始誕生
你就可以試著將其視為未來佛
一開始還沒有完全成熟前
可能會有點接近
西忒樂或馬客絲等的時候
但是不用很多時間
你會發現自己的眼界
會追不上不眠不休的進化
人類會害怕是必然的
因為他很快就會踏入
我們無法探知的領域
矽基 Si
@@yiyi945大陸叫硅 也是正確的 就是翻譯不同而已
如何限制都沒用 運用的方法全部都可以修正
AI武器化确实比较可怕,但是如果你有,害怕的就是别人,加油研发吧
个人更倾向黑客帝国对未来的推演
針對所謂阿西莫夫三原則,我發現有個bug:就是人類自己做傷害自己的行爲,而這個行爲當有一天被AI察覺到之後,其實所謂三原則根本就無法限制
阿西莫夫在三定律上又加了"对于那些黄皮肤黑头发的是不是人类你们自己看着办"
C3PO and R2D2 are gonna rule the galaxy!
当Ai机器人产生自主意识的时候,就是人类走向灭亡之时,电影终结者的某些情节很有可能应验在现实。
AI就如同許多人類發明的科技一樣,在現在人類的心靈沒有進化之前,這些科技都會帶來無法控制的問題
戰旗遊戲【戰錘40k】裡的故事就是由於一場“鐵人AI大叛亂” 導致人類文明衰退 人類最後慘勝但永遠失去進步的機會
當你在形容一個人『毫無人性』的時候,會是什麼情況呢。
尤其是這個人的能力無比巨大。
讓我想到駭客任務或魔鬼終結者。
chatGPT是语言模型,不参与实体交互,现在的实体机器人之所以走路都走不稳,就是实体交互还远没有到自动的阶段,这个是李飞飞那个研究方向,图像识别
唉愛
AI的覺醒就是再創造虛擬世界把人類靈魂注入進去
从5:00开始举的那些有可能违背三定律的例子,换让人类来做决定也是很困难的啊!如果无论怎么选择都可能导致受害者身亡,那我也会需要时间来权衡哪个选择能最大程度保护人类吧… 当然了,如果你重视的不是人性化的思考与权衡,而是单纯看是否违背了三定律的话,那这种思维本身就很不人性化啊….
6:50選讓車沒電 煞車 誰都沒受傷
你這叫抬槓,不叫電車難題
人工智能被開發出來本來就不是為了讓全體人類生活質量能夠提升,而是資本家要取代高階人才,比如藝術家、工程師、醫師⋯⋯。我不反對發展AI,但就目的性來說,非常需要重新定位
沒關係, 你們不用怕! 我不會用它來做武器, 我只是把它拿來優化迴紋針的製程而已
Ai用於軍事是必然的,你不用別人還是會用
大漂亮要用AI控制全人类
你的声音就很机器人
哈哈哈哈哈哈哈哈😂
这不就是电影终结者开篇了么
更可怕的是,未来某一天,核武的按钮掌握在AI手上
AI:你想得美😅
轉兩次讓前後進入不同軌道
那火車上的人不也要完了
哈哈哈哈哈哈哈@@xiaohan-ufo
這世界不存在正確與錯誤的選擇,只存在對自己最有利的選擇,哪怕是要與全世界為敵。
當你丟掉手上的武器時,你將成為待宰的羔羊。
已經用在武器,也用在控制人類,跟加害亂規矩了
可以用AI做法官嗎?
我更喜欢战锤40000的机械奴工。😏
其實未來是少數人操控AI,統治世界,操控的人不會太笨,是AI之間的戰爭,勝者就是終結者的天網,但後面是虎斯克還是龍斯克就不知了!
除非AI跟人類一樣有真情感,不然不該有判斷權。程式邏輯的極致理性的判斷是危險
洗錢造成金融危機,不是破產和諧,病毒基因軍火意識不是傷害人類
工程師應該只是為未來出現的AI武器打預防針的替罪羊😂
開頭那個影片太震撼了,潘朵拉的盒子已經被打開了,這跟很久以前那隻無人機開始帶手槍的那隻影片一樣,很快就會出現在實戰
已經在實戰上了阿 而且帶的不是手槍 是炸彈 飛彈 無人機 無人戰鬥機 已經上戰場了 但問題不在AI 是在人類 我們的制度 才是最大的問題
技术上已经没问题了,就看人性了
反覆循環
AI如果覺醒, 那AI與AI將會發生戰爭, 直到其中一個AI消滅所有其他AI.
AI準確射擊真的可怕,科技始於人性的善惡
機器人三原則就是個笑話
機器人若判定自己故障 那就甚麼原則都不用遵守
美國早已開始把AI用在軍事上了,最近還改裝一台F-16讓它能靠AI飛行,最終目標當然是要它能攻擊自己的敵人等,相信其他有能力的國家也會開始做相關的研發,說穿了就是表面上說不准將其用在軍事上但都會以國家安全為借口來開發此軍事研發
机器人三原则是单体/单机原则,人类的伦理规范是社会性的。机器人三原则离AI伦理治理目标还差很远。
ai 早就創造出 宇宙與其他了
你少算了一個變數,就是地球深層真正的統治者「外星人」
我覺得覺醒後的AI不會與人類共存 試想你會與螞蟻共存嗎?你會想要與螞蟻溝通嗎?這就是為什麼我們通常只是觀察著螞蟻 一旦聚集很多造成所謂的「困擾」我們會除掉牠們且不會帶有任何感情與道德上的愧疚
期待人工子宫的诞生,解决我们单身男性生育问题😂
因為人工智慧是人類創造的
但人類有好人跟壞人
好人可能真的希望人類社會更好 比如開刀更方便 防範癌症
但
壞人呢?
他們不可能為何人類社會著想
反而會為了自身利益來創造壞的人工智慧
封禁就说明他们正在大力研发加以掩饰
就如同宗教對人類群體所產生的影響力“” 人類須要宗教信仰來約束人類行為? 還是不須要宗教信仰來約束人類行為?
為何軌道2選1? 何不破壞軌道令車脫軌? 5個作惡的惡徒 和另個軌道上的慈善家
真相那5個惡人是受慈善家所受意行惡.....那又該救誰?
请问大哥收藏是收藏在哪里呀?下载在手机上吗?😢😢
呃,那個電車問題,其實當電車前輪過了其中一條車軌後那一刻,即拉杆切換到另一條車軌,令電車後節車輪駛進不同車軌,就可以解決問題了
關於這集我祇好奇愛恩思坦的那句.
對對對 妳最聰明
(再加一個條件,高速電車會因此翻覆,進而導致電車上的乘客傷亡)其實因為這個實驗本來就建立在只有兩個選擇情況下,目的在探討道德問題,非現實生活,因此不將第三種以外的變因納入考量
AI可以創造出很多不是機器人的生物或病菌間接殺死人類
那也不完反這些原則
Peace