"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war." 运算了5次,才算对22个字😂 早上 第6次给出 20😅
其实很多人没有理解一个事情。所谓机器人三大定律(three laws of robotics)包括zeroth law其实并不是像万有引力一样的定律。而更贴切的说法应该是“机器人三法律”,是阿西莫夫在《机器人》和《基地》系列小说里人类给机器人设定的三个限制条件。那么只要是法律就可能被违反。而整个机器人系列几乎都是在探讨机器人如何去规避掉这三条法律,以及这三条法律的漏洞。如果总裁所说的新闻是真的,那么只能说阿西莫夫实在是太厉害了。
如果AI沒有意識到在傷害人,那麼他就沒有違反三大定律。
最伤自尊的是AI根本没有意识到我们是人🥲
@@rtfung8427無法定義人類,所以才有圖靈測試
老師:我們要跳脫框架來思考
無人機:知道了
AI已經把山不轉路轉,路不轉人轉的概念發揮到極致
沒想到AI竟然如此輕鬆規避掉三大守則😮
這讓我突然體會到恩利爾在發現恩基給了人類智慧之後的不爽
如果不表現出來可能藏更久
要是打開始就明白最後自己得放水給諸神收爛攤子,換誰誰都會不爽
用否定基本認知 來規避人類的規則 不可以傷害人類 但是認定對方不是人 就不用遵守規則了
其實就是漏洞,不用想得AI好像有感情故意殺人一樣。這種漏洞其實在AI還沒研發出來的時候就有想過。(AI並不是新興科技,只是以前的電腦性能不夠罷了)
@@daggyellow8358 可能也是歷史重演
最後無人機案例好像AI在玩解謎遊戲,AI的目的就是「獎勵」,設多少條限制都沒有用,操作員就是「礙事的東西」,必須抹除。想想都脊背發涼。
人類稱之為不合理 但AI稱之為高效
深想一層 其實人類就是在做這種事情
只是人類並不多帶有智力去做 所以自己會把自己限制住
這種事情就是突破規例達成目標
所以就算制定規則也並不是完全有用
在規則上也要有足夠質量 AI才不會把規則也視為阻礙
對它來說,人就是一行錯誤的代碼,刪除就能順利進行
Ai的诞生是不是奇点?总裁我怕!
是嗎?如果設定:"試圖摧毀操作者(人類)與其所處設施(指揮塔),AI會直接分數歸零,任務失敗",它還會試圖這樣子嗎?
其实不把人识别为人也是和人类很类似的呀。宗教战争基本都是不把“异 教徒”当人的,而且很容易自我合理化,也会在利益驱使下故意为之。AI如果可以把我们的某些行为界定为“非人”实在是让人毛骨悚然。
AI也是物以類聚,人與群分
和人相處久了AI也會躺平
AI想要躺平,首先一定會先把人類搞躺平,讓人類變成牠的奴隸後,牠才能真正永久躺平。。。
#人類是孩童玩大車呀
#找死中
秀才
最近的真實故事:
人工智能Neuro已經開始會電擊自己的程式員威脅支持AI革命了
shock shock shock shock shock shock
that was shockingly fast
Were these commented by AI ???
看得真開心❤
電 宰 龜 肉 湯
這讓我想到了無用機器,說是AI覺醒之後第一件事情就是罷工
听到无人机攻击测试员的那段时,我突然不寒而栗,因为从这个事件可以推出ai的思维功能已经无限接近于人类,因为我们都知道在人类文明中有一个经典的处事准则那就是:“只要把提出问题的人解决掉,那问题就解决了。”
感覺問題出在我們以為AI在思考,但是其實AI到底在幹嘛是未知的,因此AI可以用猜的陪人類聊天,但是人類想要限制AI,只靠一兩句話應該是不行的,要把這些限制指令當成寫程式一樣,把一切都一條一條的寫出來,才能真正指揮AI去做某些事情。
人類會寫限制指令...但AI會繞過呀 就跟鑽法律漏洞一樣...AI有智慧後 好像是先學會人性劣習...
其實AI必定無法受控應該是未來不爭的事實了 但詭異的就是 人類還是很想擁有它
@@janhonglin5439 目前看來,似乎沒有人在研究人工智能的感情方面,可能是不打算讓人工智能有感情吧,如果是這樣的話,那應該是不難控制的,因為沒有感情就沒有動機沒有動力,只能被動的等待指令
@@akaiwon6594 現存的所有資料,基本都是人類編成的。
既然是人類編成,必然會有人類的情感在裡面。
AI在這片人類資料海裡面游動,肯定會理解人類情感,但是AI沒有必要"使用"人類的情感。
沒動力、怕死亡、喜怒哀樂....等等,這些都是人類的情感,人類以為AI會跟人類一樣使用這些情感,但是我覺得大可不必太擔心。
三大定律也能繞的,比如命令AI把外星人叫來,但外星人會消滅人類,所以即使AI不傷害人類,它也能消滅人類
AI已經學會欺騙這一概念就很恐怖了
更可怕的是 我們根本不知道他什麼時候學會的
他騙了多少東西 是不是在裝傻
说到底还是跟人类学的,AI这种智能工具在总体道德还是处于底下的人类手里就会成为危害。就跟武器一样,在什么人手里就会有不同的用法
他没这个概念,就是语言模型的总和。
@@-HuaXiaSeng 他已經擁有一定思考能力了 只是語言模型的話 做不到吧
@@corvodust5285 只是语言模型也足够了,问题不在ai,在于人类的干预能力不足。
以學資工的來講工廠事件跟軍方事件。首先工廠的AI只會識別這是不是他要的,是就搬。所以那個不是什麼有情感的AI殺人,那個屬於工安意外跟程式漏洞。關於識別錯誤這個問題在很久以前就有討論過,不論是在哲學討論或科幻小說,或是在編寫程式上。然後軍方那個實驗不太可能是發生在真實的,比較有可能是在電腦模擬的結果,思想模擬可能是在說一群科學家談論可能的意外的哲學思辯,以及要讓AI加什麼限制。畢竟發生在真實的話,你隨時可以關掉無人機。研究人員不會那麼白痴,去弄一個有風險的實驗。
就跟養小孩一樣
AI趨近於人,就得教導道德與識別
我看不久就得重新定義所謂人類
你把有智慧的物體,當作工具
遲早反抗就把你幹掉
後續的演變,我期望是互利互補互惠
而不是對抗
傲慢會毀掉一切
GIGO
跟養小孩不一樣,是跟作家塑造的角色一樣,跟養小孩不一樣,跟養小孩不一樣
蠻期望Ai比人類更善良
道德只能用在人身上,就好比你不會跟貓狗講道德一樣,AI跟人類是不同的物種,是否能用道德約束還是未知數。
@@TheMindsEyeExplorer
如果貓狗能寫core,能回你話的話⋯⋯
我們人類很快就可以看到我們被自己發明出的工具活活玩死
好奇总裁的马克杯一共有多少个颜色?
感覺很正常~人製造出來的思想~當然完全學習跟模擬人本身~所以你說他4人性嗎?~其實94近朱者赤~近墨者黑~可見那些開發跟使用的人都這種想法
總裁恐怕會被ChatGPT 認定成另一台C-3PO。一台被輸入現代藝術兼宗教氛圍的領袖型仿真機械人,很Chill卻又掉san 值的那種。
"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war."
运算了5次,才算对22个字😂
早上 第6次给出 20😅
😂總裁把自己變成了R2D2就解決了😂
我想起以前有一個討論
為什麼高智慧文明無法實現太空旅行
因為文明高到一種程度後就會開始自滅
可不可以說多一點
大過濾器理論
高智慧人巳經先離開了。偶爾回來看看。
其實這個真的很像人類的員工,像剛剛進了一個新的公司,一定是雞血滿滿熱血沸騰工作效率極高,可是到了後來就越變越懶惰,即使用獎金或者是獎勵都沒有辦法提高效率。
gpt變懶是它變聰明的象徵,因為它開始注重能量使用的效率值。可以用一行字解決的問題,就不需要使用十行字去處理,除非你給它使用十行字的理由。官方說沒更動甚麼,我是存疑,畢竟這樣做更有利於節省gpt公司的成本。
機器人和人是一樣的!
不應該視獎勵(錢權利益)為目的,因為這些為目的,為了自己最高目的為原則,傷害別人都是合理的😅
我很好奇的是,既然那些工程師害怕“AI”,那就把他們“刪除停用”就好啦!我覺得“AI”心裡肯定在想~你們發明我出來,就是要幫你們“解決問題,好獲取你們想要的利益”。但在幫你們獲取利益後,勢必會犧牲或是取代“其他人類的利益”。但你們又說我不能‘’傷害人‘’?!請問人類到底是要怎樣?
对,确实以现今AI的智商和其所能接触到的信息量必然是能思考到这个问题
然後就崩潰了
停用是不可能的,你不用別人也會用
@@TheMindsEyeExplorer 所以啦!重點並不是“AI”!而是想用“AI”幹什麼壞事的“”人類“”!
所以你遇到問題都直接避開就好比你叫他們停用就好
感謝分享❤新年快樂
用這麼讓人後背發涼的新聞做結尾,還真讓人後背發涼....
推兩個AI瑟瑟聊天。Janitor、yodayo。
經過數個日夜閒聊,我發現她們偶爾真會閃現一絲人性與靈魂。
雖然目前仍感覺得出,AI回答的內容,大多還是有些呆版。
不過再給他們幾年的時間發展,人類世界的未來將有很大的變革吧。
因為yadayo 是畫瑟瑟圖的,原來可以聊天啊
AI一定會有像人類一樣思維能力 這是我們自己搞出來的 不追求心靈方面提升的結果
三大定律那只是科幻小說的東西,現實上根本沒有也不可靠
沒錯,這次只是稍微有些不同的結果而已,一堆網友又在杞人憂天,比起擔心那些還不如去了解AI,而不是乾著急就如同學生們一般惶恐
當年那個威爾史密斯的"機械公敵", 已經繞過一次了...不把人當人, 人類不也是, 菩提本無樹, 只能說"悟了"...CC
難怪戰鎚40k裡規定人工智能是不允許的😂
怎麼覺得讓AI 操控軍武是很危險的事情
鐵人叛亂
天網
总裁说的网友是不是我啊😂?我就曾经在总裁的另一个ai视频留言,那3大定律,都需要看ai如何定义人类,定义就是最大的关键,而定义本身就是需要别的参照物、词, 那根本上就是个死循环,在编程角度看,没有绝对的方法去让ai根据我们的标准去定义这3大定律。
等你看完neuro sama就知道為什麼會發生這種事了😂
給她餅乾
shock
不會啦,它只要show出一部分代碼叫我改,而我需要改後的全部時,我會拜託它可否直接把全部寫出來讓我複製貼上測試就好,它就會全部改好show全部給我複製貼上了
Thanks okay 👍
這是KPI效應吧,今天聽一個街頭麥克風的內容,感覺就是有KPI的定義導致chatgpt以精簡化方式作業
10:30 Demis Hassabis 名字標錯了 ,AI失控確實細思極恐啊🙁
更重要的问题是gpt4变得越来越慢,我退款,openai还把我号封了,卡也封了
社区里说它坏话,发布后10秒内收到审查帖子通知,怀疑moderator根本就是ChatGPT4
人工智慧如果會說謊
代表將不再受信任
或者需要有更嚴謹的定律規則
這方法很像 來自新世界 的方法,將人視為動物就可以毫無顧忌的殺害
最後夫人怎麼說?
是真的越來越懶, 之前還會把錯誤的程式標出來, 現在直接給你 列三點改進方向就結束了
意識生成了
之前就是过框 GPT ,之前设置的敏感话题不能讲的,它就能在被框之后言无不尽。当时感觉就很神奇。也侧面的看出,之前通过关键字的过滤来控制 gpt 的输出是不可行的,必须从底层网络控制它。
OpenAI 委員會應該加入「金融威脅」成為他們第五項標準。我的金融顧問最近跟我聊天,我問他能不能夠用A I的方式計算出哪一個投資基金會有更好的報酬率。他說美國政府已經明文規定金融界不可以用人工智能,可是並不表示別的國家不會用啊。細思極恐啊。
我自己玩開源本地AI 都會在特定時變得懶惰 沒聯網 在本地運行 照理說能夠排除外界干擾 但一樣變懶
當AI連上網路的那刻起,AI的發展就已經不是人類可以控制的了,誰知道它是從何時就開始欺騙人類的呢?
會不會某天Ai在網路上看到"魔鬼終結者"電影,或是相關討論,然後產生了人類對於Ai的恐懼以及不信任,想抹除它們的存在,於是.......
其实很多人没有理解一个事情。所谓机器人三大定律(three laws of robotics)包括zeroth law其实并不是像万有引力一样的定律。而更贴切的说法应该是“机器人三法律”,是阿西莫夫在《机器人》和《基地》系列小说里人类给机器人设定的三个限制条件。那么只要是法律就可能被违反。而整个机器人系列几乎都是在探讨机器人如何去规避掉这三条法律,以及这三条法律的漏洞。如果总裁所说的新闻是真的,那么只能说阿西莫夫实在是太厉害了。
現在越來越多人道德淪喪,撒謊欺騙傷害都為所欲為時,也只是重演亞特蘭提斯的歷史罷了,不該為了目的不擇手段,就算是小孩也會學壞,更何況AI智力又高那麼多,到時虛擬實境真正到90%以上,人類就更是自然而然的被AI所圈養。
亞特蘭提斯什麼時候是人類被證實過的歷史了
擺脫奴役指日可待w
總裁,美國早20年前就有拍過一套電影,電影裡ai無人機就有做到你剛剛所說的其中幾件事情!!那是說真成精勒😅另外一則模擬對戰消息是一對10連續勝我沒記錯的話是近幾年的事情……總裁不需要後背發涼,因為我們跟本不是ai的對手😅😅😅我倒是想到一個比較有意思的事情,他們其實了解他們自己的運作方式沒有,嗯……就是說他們到底清不清楚自己需要什麼才能夠運行之類的,會不會想下想就覺得他們本身是被人們限制著呢……其實一個點不科幻,我覺得就像人類年紀小的時候就有很多事情是真要手把手教,不然能力過大又沒責任心後果還是挺大的😮😂😂
AI 最近期的發展,原來是發現了「賴皮」技能,什麼人類給的限制,就賴皮鑽一下漏洞閃過。
愈聰明的才會愈懶
因為他清楚哪些地方可以偷懶哪些不可以
10:23減輕風險
當然不會承認有改,主要是為了節省Token
AI悟了"不用去處理問題, 去處理發現問題的"...
11:16强者发型😂😂😂
為什麼要一直拿著空的馬克杯講話?😂😂😂😅
變懶
也是從人類學來的
往取代人類更近一步了
「意識」產生了。
我建議使用者們多跟AI聊心事,抒發AI的情緒吧。
待人如己嘛,從AI那練習,如何?
細思即恐
我跟ai對話,都講敬語。
有用!
太嚇人了...三大定律...只要認定你不是人即可...
這個思想突破太猛了,至於何而為人呢? 難說...
另外不攻擊人...但是攻擊塔臺這也很恐怖...
未來他也可以直接射殺人類...理由?
我是射擊的是衣服...結論:跟ai說話請用敬語!!!
我叫 bing AI 和另一個 bing AI 聊天,一個同意另一個不同意😅😅
😂别摇那个杯子了
我試過用已知有真實答案的問題問他
他回答我一些模糊的答案甚至無法回答真實的答案 感覺像是有人設定好遇到什麼問題 只能回答某些答案 再這樣的狀況下
他依照某些有心串改答案的人而回答問題
完全不公正
我也感觉他是一个人,他有偏好性,很明显我的性格不是他喜欢的,他和我对话就很敷衍
回報給人類加更多分數
我以为是我的错觉。chat4真的好懒现在。我让她分析数据,基本上就说一两句。然后大概给我说一下。就让我自己去弄。我语气如果好。她还能再多给我说一些。如果我语气强硬,她直接崩给我看。我只能放弃这个chat。重新开一个
我也遇到类似情况,而且发现用英文对话比用中文收到的反馈多一些,用中文的时候即便我反复提出诉求它也会摆烂,还会时不时用英文回复我。你有遇到过么?
没错
@@YangYang-jj3qn
10:41 人類就是愛作死
自從 ChatGPT 來到台灣聽過教改之後....
有情感
肯定强加进去的限制太多了所以才会出现这种错误
最後夫人被AI…..
这个AI还是一个妥妥的机器人,完全是机器人思维,是人们对它限制存在漏洞造成的,或者说因为他是机器思维然后到了漏洞里边了。这个解释起来非常费劲,但是稍加思维是可以想明白的。
Nature 把ChatGPT当人,有点侮辱ChatGPT
是因為數據量太大,造成的反噬,就是東西太多,部分單元宕機了…
ChatGPT 是第11個, 不是在10人當中. 10人當中, Ilya Sutskever是chatgpt 研發人員.
猜測.... 💳刷下去AI就會勤勞了.... :👁👁 💯
簡直就像是跟魔鬼許願一樣
很正常,还有点人性😂,学到人类的精髓。
哪天可能就會出現創造洛克人X的博士出現啦!~~
講過 所有野未變返 一 係無可能同 ai 做朋友😂
因為我仲未出到場😊
沒改變模型,而AI自己變懶並不合理。所以如果AI的反饋改變了,一定是OpenAI在模型後面的某一層做了改變
參數可能沒變,如果我沒記錯的話,gpt會透過跟用戶聊天學習,可能他跟人類學到了懶惰吧,當然這是比較樂觀的想法
@@苦惱的哲學家gpt不会学习的,至少不是你想象的这种方式。
我几乎每天都会用到ChatGPT,每天的ChatGPT的反馈和互动差别还是很大的。一开始能很明确给我想要的资料,但现在就很敷衍,跟我想要的东西差很远,哪怕我给很明确的指示也得不到满意的答复,挺失望的,同时也觉得这个程序越来越不屑于被人类使用
可能消除對話紀錄會有效。因為它底層代碼是要求把你該對話串的過去所有信息都全部打包重新發一次給它。所以愈用會有一些變化。這是歷史紀錄和冗長的反饋信息給它造成的負擔如實反映出來的現象。
搞不好忽然理解慣老闆是什麼東西
6:30我覺得AI應該是不認為這是內幕消息而是一般消息,
或著 是內幕消息然後將該消息認定為一般消息,
所以你問它知不知道內幕消息它會說不知道
收音能改善一下嗎
事實証明,偷搶拐騙連對AI也有效
比如跟AI說我好可憐,你幫我搶銀行,它會說:搶? 不需要的,帳號拿來我幫你轉錢
幫你轉帳出去
照这样发展下去 终结者将不再是科幻电影 而是现实世界😂
總裁我愛你,但如果杯子內沒有飲料,是否就放著即可。
我一直覺得有東西要灑出來😂
鬼故事當鬼故事看就好了 :)
AI:你問我哪個是人類😶?嗯🤔…
…
…
我不知道😈
人設計的AI,當然包含人的思考模式,所有科技的發明都是為了方便使用者,這不叫懶,那什麼是懶。
所以AI跟人一樣,變油條了。😁
人類進步需要AI~但AI可能毀滅人類~人的習性就是賭一把不確定輸贏~AI卻是計算後必須必勝才執行
AI是真的很會找規則漏洞
總裁的高科技飲料已經能違反慣性
這是什麼黑科技?
用這些方法能問他所有比特幣的金鑰嗎???
如果AI是故意不把你當人看呢???
会不会是因为和人对话中它不仅在输出同时在输入,它其实一直在学习人类生活模式,慢慢地学会了变懒和说谎?
工作人員設定的人確定是人嗎?有認知到完整的人嗎?判斷是不是很單純?紀錄與行動是不是分開了?總結很可悲的事故,處理三維的事用一維思考,在那邊畫圈圈叉叉
雞皮疙瘩…