Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
可解釋AI在發展途中就會進入邏輯死循環迴圈當中當機了,為何現在的大數據統計學AI比較好用有幾點,1.從結果進行高相關分類法,直接繞過因果關係,省電省時。2.只要有數具就能抓相關性,不需要先去訓練各領域的運作邏輯。思考跟推理不只是要高度神經元的運作偕同還要有對各領域的足夠底層認知,再以底層邏輯推砌上去,但是這樣可解釋AI會面臨泛用性不高的問題,也就是說通用人工智慧AGI不太可能發生在可解釋的AI架構當中但是只拿大數據抓相關的AI模型對於泛用性高可能比較接近AGI,而邏輯性卻低於可解釋AI,導致人類必須選擇要一個通用人工智慧但是給出即便是正確的答案,你也不知道原因,還是一個可解釋的AI讓你知道邏輯推導,但卻只能在某一個很狹隘的領域上發揮作用的兩難問題。而另一方面目前AI全透過Transformer的方式去尋找答案,對於一個極其複雜的問題,他可以馬上給出來但卻是充滿隨機性的,而當使用可解釋AI的時候,他會為了一步步推導並且將其LOG給你,導致非常耗時,在同時也會非常耗電,有些問題AI必須馬上先評估他是否能夠在一個耗電閥值之內解開,沒有把握就拒絕,不然就會有人直接丟一個世紀數學難題或是電車難題這種沒有答案只有思考過程跟立場的問題上進入耗電的死循環。人類也不是可以處理無限的問題,換作是任何AI也是一樣,期待AI可以超越資訊熵的宇宙框架進行一個未知事物存在的證明是不可能的。
感謝回饋,很有道理
十分同意你的觀點但也認為可解釋AI確實有發展的必要,根本的問題是AI無法“負責任”,當AI判斷錯誤而造成公司或社會損失時,該由誰來負責?我想這也是目前只有生成式ai有被廣泛使用的原因,ai只生成使用者要的內容,至於使用者要不要使用這些內容,那是使用者該下的判斷並為之赴起責任
目前"可解釋AI"應用最多的地方是在"訓練AI"的領域,讓新生兒AI像人類一樣解釋自己的思路,並且根據人類的回饋修正思路,跳脫直接調整模型龐大參數的窘境
AI只是工具,做決策和負責的還是人類!
現在的AI看似工具 但以後的AI會是”比人類高好幾個維度的新物種“ 就像影片裡提到的AI同事
幾個層次的感想1.人類文明傳承依賴邏輯,將抽象透過邏輯設計成具象可以理解,可傳承。而教育扮演著這一角色。2.AI即便可解釋,也會衝擊人類傳承的這一角色,也就是教育。3.已經很明顯了,難道未來的小孩只剩下快樂,真是太可憐了!
所以做出關鍵決定還是交給人類(影片中提到的審判、診斷、放貸之類的),AI僅作為輔助的角色協助統整資料提供人類做決策的參考,才會有說服力。
講真,我們連本身同種的人類都不能完全信任,AI,就更別想了。也許AI會成爲新的物種,但是不可能讓人類完全把信任給予,因爲人類就是如此,有些人甚至連自己都不相信。這不是AI的缺陷,是人類本就如此。
哈哈,你說的好像也對,但你這是把ai當人看了,有些人卻是把ai當無情的問答機器看,後者就比較不會有信任問題,前提是回答準確無誤😅
你有不信任提款機嗎? 不信任車子?不信任飛機?
人類透過搞懂不可知來進步,但卻拚盡全力創造了一個不可知的東西XDDDD
多面向的,實用的東西未必需要先被搞懂才能用,比如人類進入石器時代時,也沒有先搞懂力學,就能夠打製石器以此讓文明提升一個段位;搞懂未知可以提高工具的精確度與達到更廣泛的應用,而用現有知識搞出來的新工具有時候又會提出新的未知,這有點像左腳踩右腳,看起來很違反常理,但人類的進步一直都是如此。
飛機實用化時,人類也沒有完全搞明白空氣動力學,一直到現在才能夠詳細解釋;但這不妨礙飛機對人類的貢獻。
可否出一集分析一下各家AI 的優缺點
不太行,因為廠商知道有缺點,可能下個版本就修正掉,這樣內容就沒用了。
@@Recard109 這樣不是挺好的嗎
12:23 比較好奇這個案例因此開除了多少員工😅😅
推🎉🎉🎉👍
解釋的問題主要跟ai怎麼思考有很大的關係,ai比較像使用歸納法進行思考,這也是ai沒有那麼值得信賴的原因,而要解釋事情其實用歸納法也未嘗不可,但會有2個問題,首先是用什麼進行歸納,再者是歸納是否適用於該情景,前者影片已經很詳盡的解說了,但後者卻是一般人要注意的地方,畢竟歸納法不嚴謹,在比較需要邏輯推理時就容易出現問題。
國際慣例不承認台灣是一個國家,這種大國博弈,國際利益考量的模型入 AI,然後各種 AI 模型的數據計算,全部都交融整合,自駕車亦從中取得學習,最後在高速公路上,自駕車定位某種的前方車輛(可能是不為本車公司併購的其他車廠出品),在 AI 判定後,不承認前方能見物是一輛車,接著不減速直接撞上去。
可以直接問AI是如何決策的
老闆AI,員工悲哀
創新商業思維實戰
身為軟體產品經理,大概很快被取代T_T (或被前端工程師取代,因為不需要前端了)
1:57 這就是符合事實的準確判斷啊
要避免用膚色判斷
不,問題是仔細看前科會發現有色人種的前科少但風險係數高這就比較可疑🤨,我不知道這個模型是怎樣判斷的,但老實說僅僅是這樣看很怪
Deep learning AI應該是做不到°經過神經網絡,就無法追蹤。能全部變量都能了解的也用不到AI。「可解釋」也只是多加幾個理由支撐結果,但也可能和計算過程毫無關係。
永遠不該相信 AI.... 不... 是永遠都不要迷信 AI .. 因為天下沒有完美這種東西 ..目前 AI 只是幫我們 猜 ... 我們只是設計一些規範, 加權, 什麼的, 然後餵它一堆資料訓練後, 讓它去猜.. 既然是猜, 那就總有猜錯的時候...現在 AI 繪圖 都還會常常繪出怪手, 怪臉. 三肢手, 7根手指... 5官錯置..常常都要畫好幾張, 才能挑出一張 裡面物件看起來 都是正常的, 沒有違和感的..由於叫AI重畫太多次, 很耗時, 所以 往往都是先叫AI只畫個 3,4 張, 就挑一張 看起來不會很難修的, 塞進 photoshop , 自己手動修掉 瑕疵 比較快..
不知道有沒有人感到疑惑,為什麼AI訓練需要那麼大的數據,人類卻不用,比方說要讓AI分辨貓和狗,可能需要幾千張圖片,但是小朋友看過幾次貓和狗,之後就會辨認了,這讓我懷疑,人腦其實是一個已經經過演化長久訓練過的模型,我們出生以後,就已經具備很多天生的能力,並且每個人都會繼續進行一生的訓練和學習,並且遺傳給後代。AI訓練也有遷移學習,就是利用已經訓練好的模型作為基礎,然後在新的數據集上進行微調,這樣可以大大減少訓練所需的數據量和計算資源,並且能夠加速模型的訓練過程。如果人腦真的是一個已經訓練過的模型,那我們的意識、對話、溝通、說故事能力,不就是為了讓其他人理解,這個黑箱裡面做出決策的過程嗎?就像現在沒人理解AI模型如何決策,所以感到不安,當人腦的能力越來越強大後,大家對於完全不解釋的行動,也開始感到恐懼,因此人類演化出溝通的能力,可以解釋自己的行為,並且賦予各種意義,讓其他人更能接受,同時也讓人類可以組成更大的團體,加速了文明的發展。所以AI接下來,應該會逐漸演化出像是人類的溝通能力,可以自我描述決定的依據和理由,並想辦法讓人們理解並贊同。搞不好很快我們就會出現AI統治者。同時,如果人腦真的是個訓練過的模型,那這些資料、算法到底是怎麼遺傳給後代,相信一定是透過DNA和其他遺傳物質,但是我們雖然知道DNA可以編碼,但是怎麼把資料編成DNA,人腦又是怎麼讀取這些資料並且運用,這應該是意識產生的關鍵,偏偏科學界到現在,還一堆人覺得意識是幻覺不重要,這種偏見只會拖累文明進步。
教育AI的方式,也就是讓AI「觀察我們」,就相對意義上是「小孩觀察大人學習」,還是「神在觀察小孩」?用我們無法理解的語言,用高維度相位的方式讓AI交叉學習,究竟是我們在教他們、還是他們在教我們?
人都無法完全相信了 你相信AI ?
雖然沒像洛克人那樣的機器人反抗人類 不過用黑盒子或軟體的AI遲早會發生類似洛克人那樣的事 時間早晚的問題 人類學˙不會教訓只會不斷重蹈覆轍錯誤
您好看一部陸劇。一個女人欺負人到把人家全族三十二口人射死。沒死的易容成那女人的樣子去她家進行復仇。竟把她取代了。我想,AI很值得信任,就怕使用者一開始就存心不良。比如上個故事,如果是不知情的第三者被利用了呢?AI沒成見(既有條件),就run不了,但成見很可怕。
太好了有錢人現在不用怕昏庸了有AI CEO啥都搞定畢竟窮人可用不起AI
你現在就用得起工廠裡面的機械臂嗎?那你用不起機械臂,難道還用不起工具箱?同理,AI工具有提供給企業的,當然也有提供給小市民的,現在一堆免費開源又好用的AI工具,一堆youtuber在介紹,我不相信你都沒看過,除非你都直接無視啦。我自己用在工作上的就有兩三款呢。
AI用N纬来理解世界,人类居然还要让AI还原为二维……
不能這麼說,我們大腦也是多維資訊處理器,也是要整理成一維的語言你才聽得懂
@@kusogod 说明语言和图片这些都不是高级的沟通方式,也许气味,触觉,电磁波等等那些有灵性的动物和地球之间的沟通才是更高级的
@@hayama2363 你怎麼講的那麼肯定?即便你在生活這個由文字與圖像構成的人類文明,你卻瞧不起它們另外生物交流方式嚴格全部都只靠電磁波而已
讓AI講人話,這麼簡單的想法,你居然看不懂🤔?
直接回答,你會永遠臣服於一個智力遠遠低於你的人之下嗎?
可解釋AI在發展途中就會進入邏輯死循環迴圈當中當機了,為何現在的大數據統計學AI比較好用有幾點,
1.從結果進行高相關分類法,直接繞過因果關係,省電省時。
2.只要有數具就能抓相關性,不需要先去訓練各領域的運作邏輯。
思考跟推理不只是要高度神經元的運作偕同還要有對各領域的足夠底層認知,再以底層邏輯推砌上去,
但是這樣可解釋AI會面臨泛用性不高的問題,也就是說通用人工智慧AGI不太可能發生在可解釋的AI架構當中
但是只拿大數據抓相關的AI模型對於泛用性高可能比較接近AGI,而邏輯性卻低於可解釋AI,導致人類必須選擇要一個通用人工智慧但是給出即便是正確的答案,你也不知道原因,
還是一個可解釋的AI讓你知道邏輯推導,但卻只能在某一個很狹隘的領域上發揮作用的兩難問題。
而另一方面目前AI全透過Transformer的方式去尋找答案,對於一個極其複雜的問題,他可以馬上給出來但卻是充滿隨機性的,
而當使用可解釋AI的時候,他會為了一步步推導並且將其LOG給你,導致非常耗時,在同時也會非常耗電,有些問題AI必須馬上先評估他是否能夠在一個耗電閥值之內解開,沒有把握就拒絕,不然就會有人直接丟一個世紀數學難題或是電車難題這種沒有答案只有思考過程跟立場的問題上進入耗電的死循環。
人類也不是可以處理無限的問題,換作是任何AI也是一樣,期待AI可以超越資訊熵的宇宙框架進行一個未知事物存在的證明是不可能的。
感謝回饋,很有道理
十分同意你的觀點
但也認為可解釋AI確實有發展的必要,根本的問題是AI無法“負責任”,當AI判斷錯誤而造成公司或社會損失時,該由誰來負責?
我想這也是目前只有生成式ai有被廣泛使用的原因,ai只生成使用者要的內容,至於使用者要不要使用這些內容,那是使用者該下的判斷並為之赴起責任
目前"可解釋AI"應用最多的地方是在"訓練AI"的領域,讓新生兒AI像人類一樣解釋自己的思路,並且根據人類的回饋修正思路,跳脫直接調整模型龐大參數的窘境
AI只是工具,做決策和負責的還是人類!
現在的AI看似工具 但以後的AI會是”比人類高好幾個維度的新物種“ 就像影片裡提到的AI同事
幾個層次的感想
1.人類文明傳承依賴邏輯,將抽象透過邏輯設計成具象可以理解,可傳承。而教育扮演著這一角色。
2.AI即便可解釋,也會衝擊人類傳承的這一角色,也就是教育。
3.已經很明顯了,難道未來的小孩只剩下快樂,真是太可憐了!
所以做出關鍵決定還是交給人類(影片中提到的審判、診斷、放貸之類的),AI僅作為輔助的角色協助統整資料提供人類做決策的參考,才會有說服力。
講真,我們連本身同種的人類都不能完全信任,AI,就更別想了。也許AI會成爲新的物種,但是不可能讓人類完全把信任給予,因爲人類就是如此,有些人甚至連自己都不相信。這不是AI的缺陷,是人類本就如此。
哈哈,你說的好像也對,但你這是把ai當人看了,有些人卻是把ai當無情的問答機器看,後者就比較不會有信任問題,前提是回答準確無誤😅
你有不信任提款機嗎? 不信任車子?不信任飛機?
人類透過搞懂不可知來進步,但卻拚盡全力創造了一個不可知的東西XDDDD
多面向的,實用的東西未必需要先被搞懂才能用,比如人類進入石器時代時,也沒有先搞懂力學,就能夠打製石器以此讓文明提升一個段位;搞懂未知可以提高工具的精確度與達到更廣泛的應用,而用現有知識搞出來的新工具有時候又會提出新的未知,這有點像左腳踩右腳,看起來很違反常理,但人類的進步一直都是如此。
飛機實用化時,人類也沒有完全搞明白空氣動力學,一直到現在才能夠詳細解釋;但這不妨礙飛機對人類的貢獻。
可否出一集分析一下各家AI 的優缺點
不太行,因為廠商知道有缺點,可能下個版本就修正掉,這樣內容就沒用了。
@@Recard109 這樣不是挺好的嗎
12:23 比較好奇這個案例因此開除了多少員工😅😅
推🎉🎉🎉👍
解釋的問題主要跟ai怎麼思考有很大的關係,ai比較像使用歸納法進行思考,這也是ai沒有那麼值得信賴的原因,而要解釋事情其實用歸納法也未嘗不可,但會有2個問題,首先是用什麼進行歸納,再者是歸納是否適用於該情景,前者影片已經很詳盡的解說了,但後者卻是一般人要注意的地方,畢竟歸納法不嚴謹,在比較需要邏輯推理時就容易出現問題。
國際慣例不承認台灣是一個國家,這種大國博弈,國際利益考量的模型入 AI,然後各種 AI 模型的數據計算,全部都交融整合,自駕車亦從中取得學習,最後在高速公路上,自駕車定位某種的前方車輛(可能是不為本車公司併購的其他車廠出品),在 AI 判定後,不承認前方能見物是一輛車,接著不減速直接撞上去。
可以直接問AI是如何決策的
老闆AI,員工悲哀
創新商業思維實戰
身為軟體產品經理,大概很快被取代T_T (或被前端工程師取代,因為不需要前端了)
1:57 這就是符合事實的準確判斷啊
要避免用膚色判斷
不,問題是仔細看前科會發現有色人種的前科少但風險係數高這就比較可疑🤨,我不知道這個模型是怎樣判斷的,但老實說僅僅是這樣看很怪
Deep learning AI應該是做不到°經過神經網絡,就無法追蹤。能全部變量都能了解的也用不到AI。
「可解釋」也只是多加幾個理由支撐結果,但也可能和計算過程毫無關係。
永遠不該相信 AI.... 不... 是永遠都不要迷信 AI .. 因為天下沒有完美這種東西 ..
目前 AI 只是幫我們 猜 ... 我們只是設計一些規範, 加權, 什麼的,
然後餵它一堆資料訓練後, 讓它去猜.. 既然是猜, 那就總有猜錯的時候...
現在 AI 繪圖 都還會常常繪出怪手, 怪臉. 三肢手, 7根手指... 5官錯置..
常常都要畫好幾張, 才能挑出一張 裡面物件看起來 都是正常的, 沒有違和感的..
由於叫AI重畫太多次, 很耗時, 所以 往往都是先叫AI只畫個 3,4 張,
就挑一張 看起來不會很難修的, 塞進 photoshop , 自己手動修掉 瑕疵 比較快..
不知道有沒有人感到疑惑,為什麼AI訓練需要那麼大的數據,人類卻不用,比方說要讓AI分辨貓和狗,可能需要幾千張圖片,但是小朋友看過幾次貓和狗,之後就會辨認了,這讓我懷疑,人腦其實是一個已經經過演化長久訓練過的模型,我們出生以後,就已經具備很多天生的能力,並且每個人都會繼續進行一生的訓練和學習,並且遺傳給後代。AI訓練也有遷移學習,就是利用已經訓練好的模型作為基礎,然後在新的數據集上進行微調,這樣可以大大減少訓練所需的數據量和計算資源,並且能夠加速模型的訓練過程。
如果人腦真的是一個已經訓練過的模型,那我們的意識、對話、溝通、說故事能力,不就是為了讓其他人理解,這個黑箱裡面做出決策的過程嗎?就像現在沒人理解AI模型如何決策,所以感到不安,當人腦的能力越來越強大後,大家對於完全不解釋的行動,也開始感到恐懼,因此人類演化出溝通的能力,可以解釋自己的行為,並且賦予各種意義,讓其他人更能接受,同時也讓人類可以組成更大的團體,加速了文明的發展。
所以AI接下來,應該會逐漸演化出像是人類的溝通能力,可以自我描述決定的依據和理由,並想辦法讓人們理解並贊同。搞不好很快我們就會出現AI統治者。同時,如果人腦真的是個訓練過的模型,那這些資料、算法到底是怎麼遺傳給後代,相信一定是透過DNA和其他遺傳物質,但是我們雖然知道DNA可以編碼,但是怎麼把資料編成DNA,人腦又是怎麼讀取這些資料並且運用,這應該是意識產生的關鍵,偏偏科學界到現在,還一堆人覺得意識是幻覺不重要,這種偏見只會拖累文明進步。
教育AI的方式,也就是讓AI「觀察我們」,就相對意義上是「小孩觀察大人學習」,還是「神在觀察小孩」?
用我們無法理解的語言,用高維度相位的方式讓AI交叉學習,究竟是我們在教他們、還是他們在教我們?
人都無法完全相信了 你相信AI ?
雖然沒像洛克人那樣的機器人反抗人類 不過用黑盒子或軟體的AI遲早會發生類似洛克人那樣的事 時間早晚的問題 人類學˙不會教訓只會不斷重蹈覆轍錯誤
您好
看一部陸劇。一個女人欺負人到把人家全族三十二口人射死。
沒死的易容成那女人的樣子去她家進行復仇。竟把她取代了。
我想,AI很值得信任,就怕使用者一開始就存心不良。
比如上個故事,如果是不知情的第三者被利用了呢?
AI沒成見(既有條件),就run不了,但成見很可怕。
太好了
有錢人現在不用怕昏庸了
有AI CEO啥都搞定
畢竟窮人可用不起AI
你現在就用得起工廠裡面的機械臂嗎?那你用不起機械臂,難道還用不起工具箱?
同理,AI工具有提供給企業的,當然也有提供給小市民的,現在一堆免費開源又好用的AI工具,一堆youtuber在介紹,我不相信你都沒看過,除非你都直接無視啦。我自己用在工作上的就有兩三款呢。
AI用N纬来理解世界,人类居然还要让AI还原为二维……
不能這麼說,我們大腦也是多維資訊處理器,也是要整理成一維的語言你才聽得懂
@@kusogod 说明语言和图片这些都不是高级的沟通方式,也许气味,触觉,电磁波等等那些有灵性的动物和地球之间的沟通才是更高级的
@@hayama2363 你怎麼講的那麼肯定?
即便你在生活這個由文字與圖像構成的人類文明,你卻瞧不起它們
另外生物交流方式嚴格全部都只靠電磁波而已
讓AI講人話,這麼簡單的想法,你居然看不懂🤔?
直接回答,你會永遠臣服於一個智力遠遠低於你的人之下嗎?