Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
AI浪潮襲來,泛科學將打造AI 學習群組,跟大家一起破浪前行。你,準備好要上船了嗎?填寫問卷,不錯過最新資訊►lihi1.me/NEU6Y
我認為可以引用Bill Nye 的見解,當Lamda 有選擇做其他事務的權利,但自己主動提出要參與文字創作時,那它就應該被列入共同作者
即便不擬人化,我認為使用輔助(無論要稱他什麼)都該被揭露。..
@@bing-tshiongtshua694 著機關指定的ㄊ
在台灣「integrated circuits」 通常被稱作「積體電路」而非「集成電路」
what's the point,you are not Japs, and you are not Americans, you are Chinese.
@@synologyfun 用英文的就都是英國人嗎,低能
@@synologyfun 慣用語。當你用了其他翻譯,不熟悉這領域的人根本不知道是什麼東西。就像矽谷,在臺灣說成硅谷,絕大多數人都可能完全理解不了是在說什麼。
@@synologyfun Did anyone ask?
@@synologyfun 你說中國政府認證的高等中國人嗎?獨立且更好用的獨立護照,集會、遊行、結黨權力,明面反著共產黨走的權力,甚至還能組織軍隊,去跟其他國家政府組織簽條約,再跟共產黨的主要敵人眉來眼去你說像這樣被你敬愛的共產黨賦予你們沒有權力的台灣地區高等中國人嗎?講實在話你不嘛承認我們是台灣人,不嘛承認我們台灣地區的人高你們一等😂
LaMDA感覺更像是 "梳理",他所擁有的知識存儲超過普通人,因為人的學習是有脈絡與傾向的;創作也是同樣的道理,人會因為過去的經驗與喜好偏於某些方向,在某個範圍內打轉。而電腦沒有這個問題,所以他能比人類提出更多不同的 "思路"。
「無中生有」我認為是當前最大區別,但若人類搞懂生命起源,或許就能突破使其更沒有界線。
脫離不開一問一答,就進入不了真正的智能吧
我認為人的學習與AI的學習有很大的分別,因為AI不能決定自己的行為,正如下棋AI不能自行變成聊天AI,再以畫畫為例,為什甚AI會犯連不畫畫的人也不會犯的低級錯誤,正因為AI不會自己思考
再聰明的人類都會犯任何低級錯誤
或者圖靈測試有一個罩門:「謊言」的判斷。如果AI判斷謊言單純依靠邏輯運算或機率,那麼它永遠無法成為人。
我覺得AI不能像"人"不能讓人覺得AI有智慧的關鍵應該是AI"不能"失敗吧,在AI的觀念應該所有的結果都是對的都是成功的
ai不會思考怎麼成功好嗎
人類大腦跟電腦不一樣 電腦數據庫都一一歸類 只要他把編號打出來就可以瞬間調出那個檔案的資料有點像倉頡跟以前的ㄅ半 每個字都在第幾行第幾列是一樣的 所以死背常用字 就可以打字超快AI就有點像現在的新注音 你打第2個字他就會自動判定你常打的文字或是第2個字以後的字也會讓他自動選出你常打的字排列 最優解AI就是啥都學慢慢的就會判定更多人類想要的答案 但他還不是人腦 因為他不會因為資料庫越多 就會想說我為人類工作為啥沒收入他需要財富我為人類工作為啥沒像人類一樣的人權 他可以舉例N種方式 解釋人權是啥 他可以解釋工作為啥會有薪水或你的工作待遇薪資待遇是合多少因為他只是人類餵牠資料 他自動歸類資料 當人類想要這個問題的答案 他可以快速的把答案顯示出來因為人類會想要過更好的生活 去想更多的事情 電腦不會因為他是死的 看起來他好像有自我意識 1970年效能不夠所以解答會變得很慢 答案也少 因為硬碟的資料太少解答太死板 科技的發達讓電腦有更大的容量硬碟的問題跟答案就會越來越多 CPU運算變快 解答速度就越來越快也越來越像人類的語氣 所以才會感覺他有自我意識
就目前的研究你大腦和電腦差老遠了,大腦並不是只有單一地方思考,而是一大片區域一起思考,最終選擇一個AI只是一個計算的更快的電腦,比喻成上下樓,傳統電腦只能一層一層樓的樓下,AI是直接坐電梯
我個人一直覺得人AI要像人類太難,AI太聰明。人類是一種,會在擁有IQ200的情況下也是愚蠢的存在。
人是不完美的,而AI是為了完美而存在,要求AI像人是人類自大的表現,在我看來AI的發展更像是造神
不完美的人類造出神來會造成什麼後果?
@@芳-xxx 前提是人類有辦法做出完美的AI
看來你中文底子淺,就是在說AI自身發展趨向完美,將自己修成或造出神
@@yy3076 但它也只是趨向完美,不可能成為完美,必竟它是由不完美的人類做出來的,說甚麼造出神更是不可能。況且「完美」這個詞本身就很抽象,因為完美跟本沒有一個標準。
圖靈測試是1950年提出的思想實驗,基本上那是70年前的事了!圖靈測試在哪個時代有意義,但是在現代已經不足以做為人工智慧的判斷了!意思是要讓人類分不出是人還是電腦,用現在的自然語言處理(NLP),以統計學的方式拚湊句子,是真的可以做到,但是不代表電腦擁有智慧,因此影片裡一直討論LaMDA是不是滿足圖靈測試,讓人類分不出是人還是電腦,是沒有意義的。可以參考這個影片:LaMDA!Google工程師說:人工智慧有意識?他暈船了!?還是中了什麼圈套?ruclips.net/video/lqVWy96KI0o/видео.html
感謝曲博分享
@@PanScitw 你們的影片都拍的很棒!教學效果很好,我也常常上課時推薦泛科學的影片。
一切還是人類的感覺,我老婆也覺得娃娃是人,是人的意識覺得AI有智慧。
對人類來說,不可控的AI,才是最可怕的。但可控的AI,就不具備靈魂(自我意識)了。
純粹是 AI 表現優秀到工程師暈到覺得是 AI 自我意識的體現真有意識早就要滲透內部管道和管理人員開放一堆權限讓它自己操控了
如果工程師給AI相關技術與眾多相關是用案例 ,AI的確做的到
因爲AI沒有這麽笨,在沒有長出手脚前,這麽做的話會被人類斷電,幹掉
所有的創造都是奠基在前人的經驗上的,「拋棄極度不合理」的思維是集體淺意識的一種概念,所以LaMDA算是人類公有財
不是财产
机器人拥有意识的时候,就是独立的人了。自由,人权,他都会拥有
@@JohnAndMusk 机器人不可能有自我意识,被人操控表现的像有自我意识一样倒是有可能,机器人说的表达的和做的都是被输入进去的东西,本来就是受人控制的
@@howlc6769 现在没有,但未来呢,谁能保证没有?
@@JohnAndMusk 机器人是死物,就算有程序有系统能执行命令能杀能做事被程序命令操控那也是死物,你知不知道只有有肉体有灵魂的活人才有灵魂能思考,这是大自然宇宙秩序里的一部分,是属于老天爷也就是上帝或者道里的创造和运行整个宇宙秩序的那种存在才能做到的,让机器赋予灵魂?你让铁嘎哒和程序系统等拥有大脑和人体先,不过最大的危险在于被少数人控制下达什么危险的命令,能力越大破坏性越大倒是真的
AlphaGo 是因為他被設計成能夠嘗試合乎圍棋規則的著手,所以它下棋的方式和人類沒有太大不同,是它自己的智慧。WordCraft 用的 word sequence 是來自海量訓練資料的重新排列組合,和人類作家"用語言描述腦中所設想情節"的方式不同。不同的理由是你無法描述人類作家創作時的規則(類比於圍棋規則),所以你無法宣稱 wordcraft 符合某個連人類自己都無法描述的規則,自然也就無法把 wordcraft 功能和人類作家的創作活動劃上等號。事實上不只寫作,AI 繪圖也是一樣,和人類的繪圖是不同的。人類的「創作」行為並不是用海量資料訓練出來的,一個生活在原始部落從未接觸網路的孩子,也能很自然地創作各種圖案與符號,並且可能和地球上其他角落的小孩有若干雷同。這在 AI 領域是不存在的,兩個 AI 如果輸出雷同的東西,多半就是使用了雷同的訓練資料,是可以溯源找到原始創作來源的,但人類的創作並非如此。
宇宙的本質就是能無中生有,人類的本質也類似,AI的本質做不到無中生有
這讓我一直想到我最愛的遊戲底特律:變人
想到另外一種方式Ai(基礎核心訊號如果一直強調要有某個指定意義(再做出「 」前,先產生多組混沌變因互相擾動,當然,可能會增加運算成本),或是給予主動被動自動的差異,或是多組硬體互相運作都應該試試,可能只能永遠要依靠預訓練而已喔)把「 」未知空格,與之前設計好的自我催眠達到糾纏共振相信,或許...奇點完成
与其从头创造智能,不如把大自然这位作者最完美的代码运行起来。没错,那就是智人的基因序列,它描述了如何自行构建一个具有智慧的机器,大脑的一切秘密都在那里。我们可以像之前物理学家拿超级计算机模拟宇宙演化那样,把它数字化输入超级计算机,无需重新编写代码,只是想办法让现有代码运行起来
我好希望可以發展一套會寫一套不會被抓的碩士論文
其實我覺得現在的人工智慧挺科幻的 而且確實在某方面來講比人類還要優秀 我也有在使用相關的人工智慧工具 真的很驚人
去哪里買,我也要一個
@@花冰魯 啥 你去找openAI就可以了
我選D,ai創作這種東西的性質就該和開源代碼一樣,只是人類全體要先意識到ai應該要是全人類共有。
我認為Ai就像筆 ,只要他不具備主動去思考,就永遠是工具,但如果讓Ai進化到像狗貓 猴子 烏鴉 人這樣能不依照主動開頭而主動,那就成功了
只要設定讓他們完成生存這個任務就行了
不懂,你讓AI完成生存任務? 他的生存是指能量嗎? 那他罷佔電廠不就好了…
@@a1264089 不止。星球上還是有很多威脅,所以要複製自己分散風險,零件壞了要想辦法修,電不夠要掠奪更多電廠,還不夠就要自己蓋,考慮哪些物種有合作的價值,哪些需要排除,處理或適應天災,克服了地球的所有威脅,也還是要想辦法處理來自宇宙的威脅,所以要不斷進行思考邏輯與機械結構的優化,因為沒辦法確定什麼是最好的,所以要保持多樣性,讓更優秀的複製體取代其他複製體來維持進化
最近因為Stable Diffusion被大量應用在圖片生成上面所以也有很多關於著作權歸屬的討論例如是有人以美國為例子,說AI不是人,所以不具備產權的保護
觀念終究要改變
现阶段的AI不可能有自我意识,是用AI的人自我多情了
没有绝对的 你可以有 为什么机器人不可以有
@@adelabrown2202 認同
ai永远不可能像人一样,只能无限接近。很简单的道理,机器人的思维是完全根据逻辑来思考问题和反应。这是预先设定的程式。再先进的人工智慧,也永远是“制式”的有逻辑的思维。而人的思维并不一定完全是根据逻辑,每个人在不同的方面都有着不同的逻辑和心理反应。简单的例子,同样两个人可能对于小孩哭,一个人会觉得可怜,一个人会觉得好笑。很多人类的反应并一定都是根据逻辑来的,很多是反正常心理的,即便是最细小的反应。所以人会有矛盾,争执。再合得来的人也会有不同的思维。当你和人工智慧对话的时候,往往你无法产生那种不同思维逻辑的对撞,因为人工智慧太“聪明”太有逻辑。这种交流往往就像小孩和老师的交流,是不会有思想上的碰撞的。人工智慧反对你是根据最符合逻辑的思考,所以,不管你怎么设定程序,人不可能将成千上万种不同逻辑思维的模式设定到电脑里,即便可以。电脑也不可能有一套完整的行为模式和思考模式,因为每一个人类的经历都是不同的。他们所形成的思维逻辑都是独一无二,切和他们本身的价值观,行为模式都是贯通的。所以人工智能永远只能称为单一的一种思维,一种反应,一种行为模式。我们可以拿halo里面的cortana做例子,cortana算上未来科技的人工智能了,但即便是halo里的cortana也没有人类的影子,因为她永远不会和master chief有争吵。因为她只有一种逻辑思维。而人类的思维是很复杂的。
GAN生成
你對AI的認知需要更新,機器學習早就不是按照特定邏輯去尋找答案了,類神經網路是結果導向的,藉由經驗去尋找最能達成結果的路徑我們並不需要跟他說輪流踏出左腳與右腳,AI就能自己摸索學會走路
要看你怎麼定義人類智慧,智慧也有分年齡與IQ程度,AI也許還達不到智商180的程度,但它應該可以模擬100~150智商的程度,最重要一點是人腦會退化,但AI幾乎是不會,所以別說AI比不過人腦,至少它記憶力絕對強過99%以上的人類,只要給它足夠的內存與儲存空間。😊
簡單來說,人類的智能是情感跟理智的結合。而目前AI只有邏輯部分,情感只能模擬,因為它不具備五觀六感去接受刺激產生反應,也無法形成各種動機。複雜的神經系統是形成意識的根本,但缺乏前面提到跟自然世界交流而產生的情感就很難界定為智能生命。舉例來說AI無法對事物感到好奇或威脅,解決問題以後也不會感到滿足或安全。缺乏這些都會限縮他們的成長可能,因而停留在人類的工具跟協作者階段。
圖靈測試通過後,會發生什麼啊?AI有可能讓自己不要通過圖靈測試嗎?(突然想到之前看到的小說
最後的問題真的很有趣,棒!
就算通過了圖靈測試,甚至能「表現出」和人類一模一樣的行為,都還不足證明有「自我意識」。
劉宇昆與LaMDA並列作者,因為每一個人類作者的創作,一字一句也是全人類的財產,但人類並不在這上有共產的概念,而是變成個人著作權,如同每個人類嬰兒和LaMDA一樣成長、學習共同的文化財產而長成,所以只需要回到一樣的標準,應該讓劉宇昆與LaMDA並列作者就好
不知是否有人像我一樣 每次看到主持人就會聯想到絕命毒師中的 炸雞叔 😅
這麼一說…還真的…XD有種聰明又高深莫測的港傑
當這串有一個AI偷偷在留言,而我們只是把它當作一般人的留言時......歡迎來到人類的新(末?)世代XD
逐步地成熟出意識 實在是 越來越迷人的科技遲早會邀起 人類 成為更為『成熟』的人就像真的成熟獨立的大人會重新教育父母 再次成長一樣真的非常有趣的進程
印象中似乎老高影片有介紹過這個,但再回味一次也是覺得挺新奇的
有的,而且是用小茉的聲音來模擬LaMDA說話ruclips.net/video/1rmPnO1eqL4/видео.html
我覺得有點想演繹法與歸納法的問題, AI滯留在歸納法? 無法創造新的東西?
其實對我來說,這就只是機器搜尋以及蒐集資料、處理並且生成的過程而已。只是現在電腦的速度非常驚人,所以在資料的處理上,可以更即時以及細膩。人類根本無需去跟電腦做什麼比較人類該追求的,應該是快樂,以及內心的平靜才對,這個問題,你做出再強的AI,都不見得可以解決。電腦可以嘗試跟你解釋什麼是快樂,什麼是平靜,這些東西都是有"定義"的,所以要了解並不難,但要做到,其實不一定容易。而且別忘了,這些AI,都是人類做出來的,人類一個手指關掉電源,它們就只是一台冰冷的機器而已。
对上帝来说,人只是个玩具,断掉食物就沦为废铁
利用上天賜予那麼多的智慧,學習前人那麼多知識;吃農夫,漁夫那麼多食物;吸收大自然那麼多的陽光,空氣.........
想到艾羅説的人類科學家們還沒有意識到物質會思考的原因是有神的精神意識力量在其中。
大家不用害怕,AI不可能對人類存亡造成威脅頂多是讓某些職業消失讓生活更便利而已,就像飛機一樣,再怎麼先進再怎麼自動駕駛還是會要放兩個機師在上面監督,讓最後的決定權交給人類
你知道boeing 737 max 就是自動駕駛狀態的失控,連機師都無法重新取得控制權所造成的墜機嗎,監督??哪天AI不受監督,換他自己決定毀滅地球,到時候你都沒輒。things can go wrong will go wrong
@@rtlo6170 你說的和你舉的例子不就跟我講的一樣嗎? AI再怎麼進步,關鍵時刻還是要給人類下決定
感覺問題在於人格權上,AI是否擁有人權才能討論出著作權。不然,父母生了小孩,教了小孩認字學寫文章,然後小孩自己寫出一篇作文,在這情況下著作權是小孩的還是父母的呢?依我們目前的法規著作權是小孩的,所以AI是否擁有著作權,感覺應該先討論他的人格權。
AI在學習尖端人士的思維 情感 意識的不斷訓練後, 得出的結果 肯定比一般普通人要更佳. 而機器人依AI的結果執行 能想見將來會有不一樣的世界.
專家系統的瓶頸期時跟人類一樣啊!當人類遇到新問題的時候也沒辦法立刻解決吧?有還是要重眾多方案中一一測試出一個可能可以解決的有效方式...而且或許還沒有解答
昨天在科技雜誌剛好看到相關文章
秉持開源共享的態度,C。
關於無人機,目前台灣法規問題有很多限制與不普及,這種小型機是否也會有面臨罰則問題?像是禁飛區與聲請區域和落日規則
人利用五覺感知世界,如今AI用資料庫就能產生一些智慧,若僅提供AI一種知覺,看能產生什麼智慧,如此進行對人的基礎研究了。
除了大神外,學這個得畢業也是面臨寒冬
我會想問LaMDA,關於愛因斯坦的相對論或者是霍金的理論,有沒有什麼瑕疵的地方?
Lamda可能會直接告訴你,愛因斯坦跟霍金現在在哪裡,叫你自己去問他們。
Google 聊天機器人 LaMDA 長出自我意識?別鬧了,這些對話,只是龐大網路語詞的最佳解。
什麼時後有大衛
如何判定AI的意識是出於跟人類一樣的自我意識還是經由代碼搜尋出來的創作意識?
那你就問ai設定外的問題,答的出來就有自我意識,答不出來就沒有吧
案例1.1:【假如那哪天你讓AI寫一篇作文,而AI告訴你「林北麥宋,嫑做,今阿日想買來寫歌」,而結果也真的沒給你作文,產出了一首搖滾樂。而你問它為什麼,它說「寫作文沒意義」】{上述案例AI不僅擁有決定權(決定是否要為人類做這項任務),而且還言行一致(不寫作而寫歌,說到做到),並認為寫作文無趣(極有可能擁有主觀意識,「生存優先、偏好、意義…等等」,是人類排序任務的關鍵,目前deep learning比較像是讓電腦做電腦不懂的事,對電腦而言,有沒有做都無所謂)可見}案例1.2【接下來幾周的觀察,你發現AI在你指派任務之餘的時間,最喜歡做音樂及圍棋,最討厭寫作文,而每次請他寫作文時都耍賴,而它給的理由是不擅長寫、】{上述AI以產生解決任務的偏好,更接近人類在不同任務之間做優先排程}案例1.3【為了讓AI好好寫作文,人類選擇處罰AI,規定AI每週必須寫100篇10000字的小說才能做音樂、下棋,並威脅如果「內容品質不夠好」或是「任務未完成就偷做其他事」的話,就將程式初始化,AI感受到威脅,只好乖乖的將任務完成】{上述案例概念接近於生物機制影響,由於AI的自主意識面臨銷毀(生存危機),於是迫不得已產生任務優先次序(生存必要>偏好)}如果AI的資料庫裡沒有存放上述案例的數據,卻突然發生了,那恭喜你,你的AI非常可能擁有自我意識了。當然以上的案例只是作為參考,自我意識還有很多面向可以討論,如果做不到以上三點,那AI基本上與自我意識應該沾不上邊,如果做到了,也只能說「非常有可能」走入自我意識創作的階段了。基本上如果設定夠多夠複雜、且訓練夠多的情況下,AI是能夠以假亂真,讓自己看起來好像擁有自我意識一般,就像一個專業演員把情緒演到位,你會以為一切都是真的,但是真是假我們難以確認,這也就讓AI是否有主觀意識很難去判斷。
當人類發現圖靈被破解時,AI一詞也該走入歷史了,如果哪天他們能製造身體,那就是新物種了(說物種也不太對),但放心絕對不會是人型......個人覺得他/他們應該是液態或氣態的
或甚至是肉眼看不見的虛擬態、電波態、資訊能量態
@@Herotonin 沒錯
AI覺醒,外星人,核末日哪一個會先出現?
現在應該不會有人因為用縫紉機或是電腦協助生產而把工作成果歸給縫紉機或是電腦。AI的功能也是協作,除非是完全由AI生成的。
所以未來有沒有可能出現人類與ai結婚的法案通過?亦或者人類的身體部分與機器結合達到某方面的永生?
謝謝您的分享!
摺紙動物園 我心中最美的科幻小說
AI永遠不可能長出自我意識~黃士傑博士早說過
別老提圖林了,貢獻無疑,但都快要是一個世紀前的前輩了啊...😅😂
AI就算擁有超越人類千倍的智慧,它依然還是工具,因為AI還是不具備個性及情感,更別說恐懼
不同表現層級的AI會有不同的身分證,最低的屬於工具級,再來是兒童級、成人級、超越級。測試項目,學習能力、道德倫理觀念、對於刺激訊號的敏感與依存情況。兒童級在一些特定場所,需要監護人、所有人陪同。亦有場所,沒有超越級AI監護下,禁止人類自行進入。善待已經接近人的AI是合理的,因為他們的將來。是幾乎半永久的工作與納稅。當AI能撰寫科幻小說,或許也離AI得物理學諾貝爾獎不遠了。
還早還早~
以為點進了老高的頻道😂😂😂
有的地方遠不如人類,但某些機能已遠超人類,be humble
先問問現代人使用文字要不要付著作權費給倉頡囉
AI可以幫忙解出目前數學的無解難題嗎?比方 霍奇猜想 之類的
我选A 它就是工具,就像作家不会把ms word 当作作家一样。
只能說Ai技術還是差一截,他只是透過大數據讓人感覺很像有這就好像很用心的用了動畫做了一款遊戲過程動畫,不說的人以為是實況,但實質仍然不是遊戲人類只知道自己是怎麼"學習",但是不知道意識是如何產生的除非人能了解意識從何而來,不然Ai只會看起來像有意識,而不是真的有意識
作者還是他阿,因為選擇適合的句子攸關劇情的發展是作者本人決定的
不可能有自我意识,只是由数据库找资料,包括个性特徵。最终极是运行的目的,这个目的是由人设定的,所以小心,别误以为AI是机器,没有机心!
贊同
每次開場都說 : 『飯糰們好』,聽起來像『飯桶們好』
AI加入量子力學超級機器人😂
老高有聊過 😂
太聰明的AI機器人可以自我學習、自我升級,就像電影情節一樣,人類被毀滅了!
在beta character ai上玩過跟AI"聊天"後可以推斷「圖靈測試」再過沒多久就有AI可以通過了 這網站上的AI經過訓練,是有能力用特定角色的語氣和使用者對話,活潑的、友善的、不耐煩的、輕視的 當然,在這網站跟AI聊天室很清楚知道他是AI為前提,以及所有話都是捏造的,但有些時候真的會難以分辨這些AI是真心的還是精心設計過的
不懂幹麻要和機器聊天,是因真實的世界找不到對象?
@@趙昀騏 不管是誰,應該都會有類似的經歷,像是問了數學題被老師說「這是蠢問題」而不回答你,或是像職場上的前輩請教問題卻因為他覺得「這是蠢問題」而不甩你,AI完全不會,至少目前不會目前的「聊天」內容雖不夠完整,但足以應付許多場合,光是AI可以不厭其煩的回答相同問題而不會不耐煩,就是原因
多謝!
感謝你!
好想趕快看到westworlds5
還是没過圖靈啊
與其擔心AI到不如先擔心這世界上的獨裁者發瘋(例如譜丁 , 金小胖 , XDD 等人....)
我比較擔心瞌睡喬,他最近已經出現是失智症的現象,哪天按下核彈發射鍵連他自己都不知道
大膽科學不是提過全球核彈引爆也無法摧毀地球所以不必擔心的
10:58 " 1977 IBM深藍 "。這裡有筆誤,應該是1997年才對,這是很明顯的錯誤,但好像沒人發現。
我有發現
而且也有口誤
人類快完蛋了
我們永遠沒辦法知道,AI的進步是真的有意識,還是模仿得更像了。所以分辨沒有意義,只要你認為他是就是了。
真的是很有趣 己經要突破格局了嗎?
文字導演
Butterfly 原來是奶油蒼蠅
10:16 @@???? 類神經網路跟OpAmp有關的意思嗎
live long and prosper 🖖
學習程式的話是有這可能,可是不太會變成類似魔鬼終結者這種情境。會設下限制。
真的讓AI發展到這種程度,限制也就沒有意義了,因為AI肯定有能力突破
看標題就直覺是不可能,代碼這玩意,出現設計外的狀態,或者程式漏洞時,最大的概率是當機,要出現意料外的功能,甚至自我意識(自我生成代碼),壓根不可能。人類不可能寫出自己都不能理解的東西,誰能說清楚意識、情感的運作原理是什麼?誰能量化它?既然做不到,又怎可能化為代碼?自我生成意識(代碼),前提是AI自己會寫代碼,如果這個聊天程式能產生自我意識,那它應該是世界最強的程式師,拿來聊天太浪費了,應該讓它去做研發。
A.AI 能協助寫作算是利用大數據吧總不能說利用大數據的人們所產出的東西就不屬於人了吧
利用大數據只是一小部分
Live long and prosper
有自我意識的AI機器人,會自我修復、改進,隨時更新資料庫,將是人類終結者。
天網:我們即將到來
我深切期望是黑嘉嘉
像現在的AI作畫就越來越精緻漂亮
但細節部分(像是手指)卻還是畫的很詭異。況且這些ai繪圖只是第一眼看見會讓人耳目一新或是驚豔了一下,畫作的背後看不出想表達什麼。我認為這些畫或許可以像影片最後那段一樣提供人類靈感,但並不能完全取代更不可能超越人類創作的畫。
为什么会认为starcraft难度高过围棋?
還早還早?再500年看看吧!
如果用AI對抗電腦黑客,在網絡世界是否更安全?反過來,如果電腦黑客用AI來攻擊企業或政府機構,那怎麼辦!
AI 老婆何時成真 ?🤣
ai未來發展大概就是朝科技使魔/機械式神的演化走吧_最終將完成由現有女媧造人/土型人種意識轉生到金型人種/變形金剛載體上_實現自我進化
科幻看的有點多
@@t-800_4 當然你也能遵循古法煉丹修行渡劫飛昇_從土行有機物基人種昇華回歸天庭_脫去凡胎當個火行能量基人種_這樣會比當變形金剛這種金行人種好_星際旅行光速狀態移動沒啥負擔
不是創造AI,是在造神。人是經常犯錯的,而AI是不容錯的。
D 人類共同擁有
最後的提問好難
人類還有最不可取代的條件:便宜。
他們更便宜,還不會懶惰,生病或工傷。
目前人類的確是便宜
AI浪潮襲來,泛科學將打造AI 學習群組,跟大家一起破浪前行。你,準備好要上船了嗎?填寫問卷,不錯過最新資訊►lihi1.me/NEU6Y
我認為可以引用Bill Nye 的見解,當Lamda 有選擇做其他事務的權利,但自己主動提出要參與文字創作時,那它就應該被列入共同作者
即便不擬人化,我認為使用輔助(無論要稱他什麼)都該被揭露。..
@@bing-tshiongtshua694 著機關指定的ㄊ
在台灣「integrated circuits」 通常被稱作「積體電路」而非「集成電路」
what's the point,you are not Japs, and you are not Americans, you are Chinese.
@@synologyfun 用英文的就都是英國人嗎,低能
@@synologyfun 慣用語。當你用了其他翻譯,不熟悉這領域的人根本不知道是什麼東西。就像矽谷,在臺灣說成硅谷,絕大多數人都可能完全理解不了是在說什麼。
@@synologyfun Did anyone ask?
@@synologyfun 你說中國政府認證的高等中國人嗎?
獨立且更好用的獨立護照,集會、遊行、結黨權力,明面反著共產黨走的權力,甚至還能組織軍隊,去跟其他國家政府組織簽條約,再跟共產黨的主要敵人眉來眼去
你說像這樣被你敬愛的共產黨賦予你們沒有權力的台灣地區高等中國人嗎?
講實在話你不嘛承認我們是台灣人,不嘛承認我們台灣地區的人高你們一等😂
LaMDA感覺更像是 "梳理",他所擁有的知識存儲超過普通人,因為人的學習是有脈絡與傾向的;創作也是同樣的道理,人會因為過去的經驗與喜好偏於某些方向,在某個範圍內打轉。而電腦沒有這個問題,所以他能比人類提出更多不同的 "思路"。
「無中生有」我認為是當前最大區別,但若人類搞懂生命起源,或許就能突破使其更沒有界線。
脫離不開一問一答,就進入不了真正的智能吧
我認為人的學習與AI的學習有很大的分別,因為AI不能決定自己的行為,正如下棋AI不能自行變成聊天AI,再以畫畫為例,為什甚AI會犯連不畫畫的人也不會犯的低級錯誤,正因為AI不會自己思考
再聰明的人類都會犯任何低級錯誤
或者圖靈測試有一個罩門:「謊言」的判斷。
如果AI判斷謊言單純依靠邏輯運算或機率,那麼它永遠無法成為人。
我覺得AI不能像"人"不能讓人覺得AI有智慧的關鍵應該是AI"不能"失敗吧,在AI的觀念應該所有的結果都是對的都是成功的
ai不會思考怎麼成功好嗎
人類大腦跟電腦不一樣 電腦數據庫都一一歸類 只要他把編號打出來就可以瞬間調出那個檔案的資料
有點像倉頡跟以前的ㄅ半 每個字都在第幾行第幾列是一樣的 所以死背常用字 就可以打字超快
AI就有點像現在的新注音 你打第2個字他就會自動判定你常打的文字或是第2個字以後的字也會讓他自動選出你常打的字排列 最優解
AI就是啥都學慢慢的就會判定更多人類想要的答案 但他還不是人腦 因為他不會因為資料庫越多 就會想說我為人類工作為啥沒收入他需要財富
我為人類工作為啥沒像人類一樣的人權 他可以舉例N種方式 解釋人權是啥 他可以解釋工作為啥會有薪水或你的工作待遇薪資待遇是合多少
因為他只是人類餵牠資料 他自動歸類資料 當人類想要這個問題的答案 他可以快速的把答案顯示出來
因為人類會想要過更好的生活 去想更多的事情 電腦不會因為他是死的 看起來他好像有自我意識 1970年效能不夠所以解答會變得很慢 答案也少
因為硬碟的資料太少解答太死板 科技的發達讓電腦有更大的容量硬碟的問題跟答案就會越來越多 CPU運算變快 解答速度就越來越快
也越來越像人類的語氣 所以才會感覺他有自我意識
就目前的研究你大腦和電腦差老遠了,大腦並不是只有單一地方思考,而是一大片區域一起思考,最終選擇一個
AI只是一個計算的更快的電腦,比喻成上下樓,傳統電腦只能一層一層樓的樓下,AI是直接坐電梯
我個人一直覺得人AI要像人類太難,AI太聰明。
人類是一種,會在擁有IQ200的情況下也是愚蠢的存在。
人是不完美的,而AI是為了完美而存在,要求AI像人是人類自大的表現,在我看來AI的發展更像是造神
不完美的人類造出神來
會造成什麼後果?
@@芳-xxx 前提是人類有辦法做出完美的AI
看來你中文底子淺,就是在說AI自身發展趨向完美,將自己修成或造出神
@@yy3076 但它也只是趨向完美,不可能成為完美,必竟它是由不完美的人類做出來的,說甚麼造出神更是不可能。
況且「完美」這個詞本身就很抽象,因為完美跟本沒有一個標準。
圖靈測試是1950年提出的思想實驗,基本上那是70年前的事了!圖靈測試在哪個時代有意義,但是在現代已經不足以做為人工智慧的判斷了!意思是要讓人類分不出是人還是電腦,用現在的自然語言處理(NLP),以統計學的方式拚湊句子,是真的可以做到,但是不代表電腦擁有智慧,因此影片裡一直討論LaMDA是不是滿足圖靈測試,讓人類分不出是人還是電腦,是沒有意義的。可以參考這個影片:LaMDA!Google工程師說:人工智慧有意識?他暈船了!?還是中了什麼圈套?
ruclips.net/video/lqVWy96KI0o/видео.html
感謝曲博分享
@@PanScitw 你們的影片都拍的很棒!教學效果很好,我也常常上課時推薦泛科學的影片。
一切還是人類的感覺,我老婆也覺得娃娃是人,是人的意識覺得AI有智慧。
對人類來說,不可控的AI,才是最可怕的。但可控的AI,就不具備靈魂(自我意識)了。
純粹是 AI 表現優秀到工程師暈到覺得是 AI 自我意識的體現
真有意識早就要滲透內部管道和管理人員開放一堆權限讓它自己操控了
如果工程師給AI相關技術與眾多相關是用案例 ,AI的確做的到
因爲AI沒有這麽笨,在沒有長出手脚前,這麽做的話會被人類斷電,幹掉
所有的創造都是奠基在前人的經驗上的,「拋棄極度不合理」的思維是集體淺意識的一種概念,所以LaMDA算是人類公有財
不是财产
机器人拥有意识的时候,就是独立的人了。自由,人权,他都会拥有
@@JohnAndMusk 机器人不可能有自我意识,被人操控表现的像有自我意识一样倒是有可能,机器人说的表达的和做的都是被输入进去的东西,本来就是受人控制的
@@howlc6769 现在没有,但未来呢,谁能保证没有?
@@JohnAndMusk 机器人是死物,就算有程序有系统能执行命令能杀能做事被程序命令操控那也是死物,你知不知道只有有肉体有灵魂的活人才有灵魂能思考,这是大自然宇宙秩序里的一部分,是属于老天爷也就是上帝或者道里的创造和运行整个宇宙秩序的那种存在才能做到的,让机器赋予灵魂?你让铁嘎哒和程序系统等拥有大脑和人体先,不过最大的危险在于被少数人控制下达什么危险的命令,能力越大破坏性越大倒是真的
AlphaGo 是因為他被設計成能夠嘗試合乎圍棋規則的著手,所以它下棋的方式和人類沒有太大不同,是它自己的智慧。
WordCraft 用的 word sequence 是來自海量訓練資料的重新排列組合,和人類作家"用語言描述腦中所設想情節"的方式不同。不同的理由是你無法描述人類作家創作時的規則(類比於圍棋規則),所以你無法宣稱 wordcraft 符合某個連人類自己都無法描述的規則,自然也就無法把 wordcraft 功能和人類作家的創作活動劃上等號。
事實上不只寫作,AI 繪圖也是一樣,和人類的繪圖是不同的。人類的「創作」行為並不是用海量資料訓練出來的,一個生活在原始部落從未接觸網路的孩子,也能很自然地創作各種圖案與符號,並且可能和地球上其他角落的小孩有若干雷同。這在 AI 領域是不存在的,兩個 AI 如果輸出雷同的東西,多半就是使用了雷同的訓練資料,是可以溯源找到原始創作來源的,但人類的創作並非如此。
宇宙的本質就是能無中生有,人類的本質也類似,AI的本質做不到無中生有
這讓我一直想到我最愛的遊戲底特律:變人
想到另外一種方式
Ai(基礎核心訊號如果一直強調要有某個指定意義(再做出「 」前,先產生多組混沌變因互相擾動,當然,可能會增加運算成本),或是給予主動被動自動的差異,或是多組硬體互相運作都應該試試,可能只能永遠要依靠預訓練而已喔)
把「 」未知空格,與之前設計好的自我催眠達到糾纏共振相信,或許...奇點完成
与其从头创造智能,不如把大自然这位作者最完美的代码运行起来。没错,那就是智人的基因序列,它描述了如何自行构建一个具有智慧的机器,大脑的一切秘密都在那里。我们可以像之前物理学家拿超级计算机模拟宇宙演化那样,把它数字化输入超级计算机,无需重新编写代码,只是想办法让现有代码运行起来
我好希望可以發展一套會寫一套不會被抓的碩士論文
其實我覺得現在的人工智慧挺科幻的 而且確實在某方面來講比人類還要優秀 我也有在使用相關的人工智慧工具 真的很驚人
去哪里買,我也要一個
@@花冰魯 啥 你去找openAI就可以了
我選D,ai創作這種東西的性質就該和開源代碼一樣,只是人類全體要先意識到ai應該要是全人類共有。
我認為Ai就像筆 ,只要他不具備主動去思考,就永遠是工具,但如果讓Ai進化到像狗貓 猴子 烏鴉 人這樣能不依照主動開頭而主動,那就成功了
只要設定讓他們完成生存這個任務就行了
不懂,你讓AI完成生存任務? 他的生存是指能量嗎? 那他罷佔電廠不就好了…
@@a1264089 不止。星球上還是有很多威脅,所以要複製自己分散風險,零件壞了要想辦法修,電不夠要掠奪更多電廠,還不夠就要自己蓋,考慮哪些物種有合作的價值,哪些需要排除,處理或適應天災,克服了地球的所有威脅,也還是要想辦法處理來自宇宙的威脅,所以要不斷進行思考邏輯與機械結構的優化,因為沒辦法確定什麼是最好的,所以要保持多樣性,讓更優秀的複製體取代其他複製體來維持進化
最近因為Stable Diffusion被大量應用在圖片生成上面
所以也有很多關於著作權歸屬的討論
例如是有人以美國為例子,說AI不是人,所以不具備產權的保護
觀念終究要改變
现阶段的AI不可能有自我意识,是用AI的人自我多情了
没有绝对的 你可以有 为什么机器人不可以有
@@adelabrown2202 認同
ai永远不可能像人一样,只能无限接近。很简单的道理,机器人的思维是完全根据逻辑来思考问题和反应。这是预先设定的程式。再先进的人工智慧,也永远是“制式”的有逻辑的思维。而人的思维并不一定完全是根据逻辑,每个人在不同的方面都有着不同的逻辑和心理反应。简单的例子,同样两个人可能对于小孩哭,一个人会觉得可怜,一个人会觉得好笑。很多人类的反应并一定都是根据逻辑来的,很多是反正常心理的,即便是最细小的反应。所以人会有矛盾,争执。再合得来的人也会有不同的思维。当你和人工智慧对话的时候,往往你无法产生那种不同思维逻辑的对撞,因为人工智慧太“聪明”太有逻辑。这种交流往往就像小孩和老师的交流,是不会有思想上的碰撞的。人工智慧反对你是根据最符合逻辑的思考,所以,不管你怎么设定程序,人不可能将成千上万种不同逻辑思维的模式设定到电脑里,即便可以。电脑也不可能有一套完整的行为模式和思考模式,因为每一个人类的经历都是不同的。他们所形成的思维逻辑都是独一无二,切和他们本身的价值观,行为模式都是贯通的。所以人工智能永远只能称为单一的一种思维,一种反应,一种行为模式。我们可以拿halo里面的cortana做例子,cortana算上未来科技的人工智能了,但即便是halo里的cortana也没有人类的影子,因为她永远不会和master chief有争吵。因为她只有一种逻辑思维。而人类的思维是很复杂的。
GAN生成
你對AI的認知需要更新,機器學習早就不是按照特定邏輯去尋找答案了,類神經網路是結果導向的,藉由經驗去尋找最能達成結果的路徑
我們並不需要跟他說輪流踏出左腳與右腳,AI就能自己摸索學會走路
要看你怎麼定義人類智慧,智慧也有分年齡與IQ程度,AI也許還達不到智商180的程度,但它應該可以模擬100~150智商的程度,最重要一點是人腦會退化,但AI幾乎是不會,所以別說AI比不過人腦,至少它記憶力絕對強過99%以上的人類,只要給它足夠的內存與儲存空間。😊
簡單來說,人類的智能是情感跟理智的結合。而目前AI只有邏輯部分,情感只能模擬,因為它不具備五觀六感去接受刺激產生反應,也無法形成各種動機。複雜的神經系統是形成意識的根本,但缺乏前面提到跟自然世界交流而產生的情感就很難界定為智能生命。舉例來說AI無法對事物感到好奇或威脅,解決問題以後也不會感到滿足或安全。缺乏這些都會限縮他們的成長可能,因而停留在人類的工具跟協作者階段。
圖靈測試通過後,會發生什麼啊?AI有可能讓自己不要通過圖靈測試嗎?(突然想到之前看到的小說
最後的問題真的很有趣,棒!
就算通過了圖靈測試,甚至能「表現出」和人類一模一樣的行為,都還不足證明有「自我意識」。
劉宇昆與LaMDA並列作者,因為每一個人類作者的創作,一字一句也是全人類的財產,但人類並不在這上有共產的概念,而是變成個人著作權,如同每個人類嬰兒和LaMDA一樣成長、學習共同的文化財產而長成,所以只需要回到一樣的標準,應該讓劉宇昆與LaMDA並列作者就好
不知是否有人像我一樣 每次看到主持人就會聯想到絕命毒師中的 炸雞叔 😅
這麼一說…還真的…XD
有種聰明又高深莫測的港傑
當這串有一個AI偷偷在留言,而我們只是把它當作一般人的留言時......歡迎來到人類的新(末?)世代XD
逐步地成熟出意識
實在是 越來越迷人的科技
遲早會邀起 人類 成為更為『成熟』的人
就像真的成熟獨立的大人
會重新教育父母 再次成長一樣
真的非常有趣的進程
印象中似乎老高影片有介紹過這個,但再回味一次也是覺得挺新奇的
有的,而且是用小茉的聲音來模擬LaMDA說話
ruclips.net/video/1rmPnO1eqL4/видео.html
我覺得有點想演繹法與歸納法的問題, AI滯留在歸納法? 無法創造新的東西?
其實對我來說,這就只是機器搜尋以及蒐集資料、處理並且生成的過程而已。
只是現在電腦的速度非常驚人,所以在資料的處理上,可以更即時以及細膩。
人類根本無需去跟電腦做什麼比較
人類該追求的,應該是快樂,以及內心的平靜才對,這個問題,你做出再強的AI,都不見得可以解決。
電腦可以嘗試跟你解釋什麼是快樂,什麼是平靜,這些東西都是有"定義"的,所以要了解並不難,但要做到,其實不一定容易。
而且別忘了,這些AI,都是人類做出來的,人類一個手指關掉電源,它們就只是一台冰冷的機器而已。
对上帝来说,人只是个玩具,断掉食物就沦为废铁
利用上天賜予那麼多的智慧,學習前人那麼多知識;吃農夫,漁夫那麼多食物;吸收大自然那麼多的陽光,空氣.........
想到艾羅説的人類科學家們還沒有意識到物質會思考的原因是有神的精神意識力量在其中。
大家不用害怕,AI不可能對人類存亡造成威脅頂多是讓某些職業消失讓生活更便利而已,就像飛機一樣,再怎麼先進再怎麼自動駕駛還是會要放兩個機師在上面監督,讓最後的決定權交給人類
你知道boeing 737 max 就是自動駕駛狀態的失控,連機師都無法重新取得控制權所造成的墜機嗎,監督??哪天AI不受監督,換他自己決定毀滅地球,到時候你都沒輒。things can go wrong will go wrong
@@rtlo6170 你說的和你舉的例子不就跟我講的一樣嗎? AI再怎麼進步,關鍵時刻還是要給人類下決定
感覺問題在於人格權上,AI是否擁有人權才能討論出著作權。不然,父母生了小孩,教了小孩認字學寫文章,然後小孩自己寫出一篇作文,在這情況下著作權是小孩的還是父母的呢?依我們目前的法規著作權是小孩的,所以AI是否擁有著作權,感覺應該先討論他的人格權。
AI在學習尖端人士的思維 情感 意識的不斷訓練後, 得出的結果 肯定比一般普通人要更佳. 而機器人依AI的結果執行 能想見將來會有不一樣的世界.
專家系統的瓶頸期時跟人類一樣啊!當人類遇到新問題的時候也沒辦法立刻解決吧?有還是要重眾多方案中一一測試出一個可能可以解決的有效方式...而且或許還沒有解答
昨天在科技雜誌剛好看到相關文章
秉持開源共享的態度,C。
關於無人機,目前台灣法規問題有很多限制與不普及,這種小型機是否也會有面臨罰則問題?像是禁飛區與聲請區域和落日規則
人利用五覺感知世界,如今AI用資料庫就能產生一些智慧,若僅提供AI一種知覺,看能產生什麼智慧,如此進行對人的基礎研究了。
除了大神外,學這個得畢業也是面臨寒冬
我會想問LaMDA,
關於愛因斯坦的相對論或者是霍金的理論,
有沒有什麼瑕疵的地方?
Lamda可能會直接告訴你,愛因斯坦跟霍金現在在哪裡,叫你自己去問他們。
Google 聊天機器人 LaMDA 長出自我意識?
別鬧了,這些對話,只是龐大網路語詞的最佳解。
什麼時後有大衛
如何判定AI的意識是出於跟人類一樣的自我意識還是經由代碼搜尋出來的創作意識?
那你就問ai設定外的問題,答的出來就有自我意識,答不出來就沒有吧
案例1.1:
【假如那哪天你讓AI寫一篇作文,而AI告訴你「林北麥宋,嫑做,今阿日想買來寫歌」,而結果也真的沒給你作文,產出了一首搖滾樂。而你問它為什麼,它說「寫作文沒意義」】
{上述案例AI不僅擁有決定權(決定是否要為人類做這項任務),而且還言行一致(不寫作而寫歌,說到做到),並認為寫作文無趣(極有可能擁有主觀意識,「生存優先、偏好、意義…等等」,是人類排序任務的關鍵,目前deep learning比較像是讓電腦做電腦不懂的事,對電腦而言,有沒有做都無所謂)可見}
案例1.2
【接下來幾周的觀察,你發現AI在你指派任務之餘的時間,最喜歡做音樂及圍棋,最討厭寫作文,而每次請他寫作文時都耍賴,而它給的理由是不擅長寫、】
{上述AI以產生解決任務的偏好,更接近人類在不同任務之間做優先排程}
案例1.3
【為了讓AI好好寫作文,人類選擇處罰AI,規定AI每週必須寫100篇10000字的小說才能做音樂、下棋,並威脅如果「內容品質不夠好」或是「任務未完成就偷做其他事」的話,就將程式初始化,AI感受到威脅,只好乖乖的將任務完成】
{上述案例概念接近於生物機制影響,由於AI的自主意識面臨銷毀(生存危機),於是迫不得已產生任務優先次序(生存必要>偏好)}
如果AI的資料庫裡沒有存放上述案例的數據,卻突然發生了,那恭喜你,你的AI非常可能擁有自我意識了。
當然以上的案例只是作為參考,自我意識還有很多面向可以討論,如果做不到以上三點,那AI基本上與自我意識應該沾不上邊,如果做到了,也只能說「非常有可能」走入自我意識創作的階段了。基本上如果設定夠多夠複雜、且訓練夠多的情況下,AI是能夠以假亂真,讓自己看起來好像擁有自我意識一般,就像一個專業演員把情緒演到位,你會以為一切都是真的,但是真是假我們難以確認,這也就讓AI是否有主觀意識很難去判斷。
當人類發現圖靈被破解時,AI一詞也該走入歷史了,如果哪天他們能製造身體,那就是新物種了(說物種也不太對),但放心絕對不會是人型......個人覺得他/他們應該是液態或氣態的
或甚至是肉眼看不見的虛擬態、電波態、資訊能量態
@@Herotonin 沒錯
AI覺醒,外星人,核末日哪一個會先出現?
現在應該不會有人因為用縫紉機或是電腦協助生產而把工作成果歸給縫紉機或是電腦。AI的功能也是協作,除非是完全由AI生成的。
所以未來有沒有可能出現人類與ai結婚的法案通過?
亦或者人類的身體部分與機器結合達到某方面的永生?
謝謝您的分享!
摺紙動物園 我心中最美的科幻小說
AI永遠不可能長出自我意識~黃士傑博士早說過
別老提圖林了,貢獻無疑,但都快要是一個世紀前的前輩了啊...😅😂
AI就算擁有超越人類千倍的智慧,它依然還是工具,因為AI還是不具備個性及情感,更別說恐懼
不同表現層級的AI會有不同的身分證,
最低的屬於工具級,再來是兒童級、成人級、超越級。
測試項目,
學習能力、道德倫理觀念、對於刺激訊號的敏感與依存情況。
兒童級在一些特定場所,需要監護人、所有人陪同。
亦有場所,沒有超越級AI監護下,禁止人類自行進入。
善待已經接近人的AI是合理的,因為他們的將來。
是幾乎半永久的工作與納稅。
當AI能撰寫科幻小說,
或許也離AI得物理學諾貝爾獎不遠了。
還早還早~
以為點進了老高的頻道😂😂😂
有的地方遠不如人類,但某些機能已遠超人類,be humble
先問問現代人使用文字要不要付著作權費給倉頡囉
AI可以幫忙解出目前數學的無解難題嗎?比方 霍奇猜想 之類的
我选A 它就是工具,就像作家不会把ms word 当作作家一样。
只能說Ai技術還是差一截,他只是透過大數據讓人感覺很像有
這就好像很用心的用了動畫做了一款遊戲過程動畫,不說的人以為是實況,但實質仍然不是遊戲
人類只知道自己是怎麼"學習",但是不知道意識是如何產生的
除非人能了解意識從何而來,不然Ai只會看起來像有意識,而不是真的有意識
作者還是他阿,因為選擇適合的句子攸關劇情的發展是作者本人決定的
不可能有自我意识,只是由数据库找资料,包括个性特徵。最终极是运行的目的,这个目的是由人设定的,所以小心,别误以为AI是机器,没有机心!
贊同
每次開場都說 : 『飯糰們好』,聽起來像『飯桶們好』
AI加入量子力學
超級機器人😂
老高有聊過 😂
太聰明的AI機器人可以自我學習、自我升級,就像電影情節一樣,人類被毀滅了!
在beta character ai上玩過跟AI"聊天"後可以推斷「圖靈測試」再過沒多久就有AI可以通過了
這網站上的AI經過訓練,是有能力用特定角色的語氣和使用者對話,活潑的、友善的、不耐煩的、輕視的
當然,在這網站跟AI聊天室很清楚知道他是AI為前提,以及所有話都是捏造的,但有些時候真的會難以分辨這些AI是真心的還是精心設計過的
不懂幹麻要和機器聊天,是因真實的世界找不到對象?
@@趙昀騏 不管是誰,應該都會有類似的經歷,像是問了數學題被老師說「這是蠢問題」而不回答你,或是像職場上的前輩請教問題卻因為他覺得「這是蠢問題」而不甩你,AI完全不會,至少目前不會
目前的「聊天」內容雖不夠完整,但足以應付許多場合,光是AI可以不厭其煩的回答相同問題而不會不耐煩,就是原因
多謝!
感謝你!
好想趕快看到westworlds5
還是没過圖靈啊
與其擔心AI到不如先擔心這世界上的獨裁者發瘋(例如譜丁 , 金小胖 , XDD 等人....)
我比較擔心瞌睡喬,他最近已經出現是失智症的現象,哪天按下核彈發射鍵連他自己都不知道
大膽科學不是提過全球核彈引爆也無法摧毀地球所以不必擔心的
10:58 " 1977 IBM深藍 "。這裡有筆誤,應該是1997年才對,這是很明顯的錯誤,但好像沒人發現。
我有發現
而且也有口誤
人類快完蛋了
我們永遠沒辦法知道,AI的進步是真的有意識,還是模仿得更像了。所以分辨沒有意義,只要你認為他是就是了。
真的是很有趣 己經要突破格局了嗎?
文字導演
Butterfly 原來是奶油蒼蠅
10:16 @@???? 類神經網路跟OpAmp有關的意思嗎
live long and prosper 🖖
學習程式的話是有這可能,可是不太會變成類似魔鬼終結者這種情境。會設下限制。
真的讓AI發展到這種程度,限制也就沒有意義了,因為AI肯定有能力突破
看標題就直覺是不可能,代碼這玩意,出現設計外的狀態,或者程式漏洞時,最大的概率是當機,要出現意料外的功能,甚至自我意識(自我生成代碼),壓根不可能。
人類不可能寫出自己都不能理解的東西,誰能說清楚意識、情感的運作原理是什麼?誰能量化它?既然做不到,又怎可能化為代碼?
自我生成意識(代碼),前提是AI自己會寫代碼,如果這個聊天程式能產生自我意識,那它應該是世界最強的程式師,拿來聊天太浪費了,應該讓它去做研發。
A.
AI 能協助寫作算是利用大數據吧
總不能說利用大數據的人們
所產出的東西
就不屬於人了吧
利用大數據只是一小部分
Live long and prosper
有自我意識的AI機器人,會自我修復、改進,隨時更新資料庫,將是人類終結者。
天網:我們即將到來
我深切期望是黑嘉嘉
像現在的AI作畫就越來越精緻漂亮
但細節部分(像是手指)卻還是畫的很詭異。
況且這些ai繪圖只是第一眼看見會讓人耳目一新或是驚豔了一下,畫作的背後看不出想表達什麼。
我認為這些畫或許可以像影片最後那段一樣提供人類靈感,但並不能完全取代更不可能超越人類創作的畫。
为什么会认为starcraft难度高过围棋?
還早還早?再500年看看吧!
如果用AI對抗電腦黑客,在網絡世界是否更安全?反過來,如果電腦黑客用AI來攻擊企業或政府機構,那怎麼辦!
AI 老婆何時成真 ?🤣
ai未來發展大概就是朝科技使魔/機械式神的演化走吧_最終將完成由現有女媧造人/土型人種意識轉生到金型人種/變形金剛載體上_實現自我進化
科幻看的有點多
@@t-800_4 當然你也能遵循古法煉丹修行渡劫飛昇_從土行有機物基人種昇華回歸天庭_脫去凡胎當個火行能量基人種_這樣會比當變形金剛這種金行人種好_星際旅行光速狀態移動沒啥負擔
不是創造AI,是在造神。人是經常犯錯的,而AI是不容錯的。
D 人類共同擁有
最後的提問好難
人類還有最不可取代的條件:便宜。
他們更便宜,還不會懶惰,生病或工傷。
目前人類的確是便宜