聊天機器人ChatGPT【下】擔心機器人超越人類,會像人類一樣思考?實際上,現在的技術離強人工智慧還遠得很!

Поделиться
HTML-код
  • Опубликовано: 29 авг 2024

Комментарии • 356

  • @BRoACm
    @BRoACm Год назад +19

    感謝曲博大特別找到這篇文章詳細解說,的確在生成文字、文本及尋求精確答案上,ChatGPT還有很大的改進空間,相信有頻繁使用的人一定可以感受出來,個人現在比較把它定義為小助理,針對一篇外文文章報導,我會直接把文章內容複製給他,並加上「請以中文條列式整理本文重點」,由其協助幫忙整理,後續驗證或許沒辦法100%完整,但其實還算堪用。
    用來檢查自己的英文文法、翻譯其實也遠比Google翻譯還要來得快速實用。
    現在網路上各大高手也不斷開發、嘗試,樂觀地看,未來一年應該會有很大的進展~只希望這個免費時間可以再久一些呀!

    • @Ansforce
      @Ansforce  Год назад

      是的,你說的很有道理。

  • @WanLunChiang
    @WanLunChiang 9 дней назад

    真人寫作不同之處>>
    人類有觀點要表達,因此需要處理前後立場的一致性,並做好前言背景的鋪陳,立論的置入和辯證
    太認同了!!!!謝謝曲博的分享

  • @jamiechen1623
    @jamiechen1623 Год назад +15

    感謝曲博的精闢解說,在因果網路驅動問世之前,人類仍需要就這些廉價的文字生成所氾濫的假資訊要有正確且智慧的辨識,確實人腦與情感的精密程度絕非程式能夠複製取代的!

  • @maskman4821
    @maskman4821 Год назад +21

    這集的影片非常棒,非常有收獲,學習很多. 看完影片後我立刻問 chatGPT 幾個複雜的算術問題,可是給的答案都是正確的,這和王先生文章內容提到的測試結果不同,大家可以馬上測試,我聽說 openai 團隊前一陣子有限制 chatgpt 的功能,讓它不要太聰明以致嚇壞很多人,最近因為部分人抗議又全部開放,其實chatGPT 的能力遠遠超過王先生的理解,我最近叫 chatGPT 寫了一個電商網站,我一個字都沒有打,所有程式碼都是 openAI 産出,如果出現不符合我預期的程式碼我就叫它改,它立刻寫出我要的,然後我在拷貝貼到專案檔案裏,我非常滿意結果,而且整個過程充滿樂趣讓人印象深刻,我建議大家在免費適用期間大量測試運用,好好體會 AI 的實力,謝謝曲博這個精彩又發人醒思的影片 🤩

    • @springrollwang4441
      @springrollwang4441 Год назад +7

      很多問題已經修正了。而拉布拉多這個,用英文的話回答正確,中文一半一半。表示中文模型訓練沒有很好

    • @Ansforce
      @Ansforce  Год назад +7

      我相信ChatGPT還是可以改良未來會愈來愈精準的。

    • @BRoACm
      @BRoACm Год назад +1

      真得,反覆測試雖然還是有錯誤,但瑕不掩瑜~

    • @springrollwang4441
      @springrollwang4441 Год назад +1

      就跟曲博講的一樣,我測試,如果我叫他用代數就不會算錯,不用代數他好像只是語言模型,不知道是數學就開始亂來了。

    • @xiaobaijiang9141
      @xiaobaijiang9141 Год назад +2

      可是它自己并不能判断什么是符合预期的程式。这充分说明它只有执行能力而无决策能力。人可以不具备执行能力,但是人有决策能力。机器的任何决策能力都是人赋予的,因此,机器是不可能超越人的。

  • @user-tt4qb4zl5p
    @user-tt4qb4zl5p Год назад +14

    非常感谢博主 貌似是给ai发展浇了一盆冷水,但其实是给我们人类醍醐灌顶和发出警醒。我们应该冷静的利用ai的能力,也更应该用心的思考人应该如何存在于这个世界

  • @brianyeh2695
    @brianyeh2695 Год назад +78

    曲博點出大重點
    ChatGPT是資料驅動,而不是因果驅動,也就是AI還不能成熟的做到inference

    • @fool9111z
      @fool9111z Год назад +24

      但是它可以用来廉价产生大量看似合理却实则有问题的内容,最后起到劣币驱逐良币的效果。实际上很多大公司都有行走的ChatGPT ,有些管理人员就是大型语言模型,到处搜集罗列热门话题和术语,可以轻易骗过不太专业的同事和更高层领导。
      从这个角度看,chatgpt 可以与很多人媲美,因为人类就有大量不懂装懂的行为。😂

    • @linavery1085
      @linavery1085 Год назад +6

      ChatGPT本質就是邏輯驅動 只是他是聊天AI 所以程式重點不是邏輯處理
      對於未知的AI 很多人都搞錯重點 長期來看是悲觀的 短期來看則是樂觀的
      AI說自己會比人類聰明 沒有人敢反駁

    • @chencht1
      @chencht1 Год назад +5

      @@linavery1085 不會比人聰明 , 像是數學 千禧年大獎難題這種東西 , 一定是人才能解的出來 , 現在的AI只要還是走機率統計 , 就無法解
      AI可以騙騙無知的大眾 , 處理基本的庶務 , 其他的還要很久很久

    • @user-ej1nf4rl5j
      @user-ej1nf4rl5j Год назад

      @@fool9111z 就是半瓶水

    • @sherrywu6311
      @sherrywu6311 Год назад

      @@fool9111z 這個有趣,你說的其實很有道理 XD

  • @Gingililife
    @Gingililife Год назад +16

    這集談ChatGPT 非常發省,謝謝曲博的分享~~很棒的影片!

    • @Ansforce
      @Ansforce  Год назад

      謝謝你的支持!

  • @gogogo1161
    @gogogo1161 Год назад +8

    人類交談會以自己為利益中心作立場後再去交談,每句話都隱含自己利益,而交談邏輯中是有一定邏輯推理規律,而且有文化上考慮,這點AI完全是兩回事,大數據出來的是資料習慣本身,不是立場,利益,文化等組合,所以現有AI是IT延伸,無法完全仿人類,所以永遠不會成人類.

    • @Ansforce
      @Ansforce  Год назад

      是的,你說的很有道理。

  • @y786542
    @y786542 Год назад +18

    之前隨便試聊了一下,如果自己知道正確答案,就可以看出它的錯誤回答都是看似合理、實則瞎說,就像之前很熱門的AI產圖,看起來畫得很漂亮,但細節上還是有很多內行人看得出來的瑕疵(可以騙對該領域沒有專業知識的外行人),所以目前找資料、寫文章還是不能偷懶直接靠AI,人類依然需要自己有分辨&驗證能力

    • @maskman4821
      @maskman4821 Год назад

      我目前正在學習 Midjourney, Dall-E 的 產圖方式,順便學習藝術,我在 Udemy 找到兩門課程,授課者是一為藝術家,講得很不錯,範例也很好,不過都是西方世界的,我很希望有中文課程,可以介紹中國的畫風讓大家學習 😀

    • @sbphsho
      @sbphsho Год назад +3

      單項專業的人只有少部分,AI大多數項目可以騙過大部分的人類就好了,至少小孩可能都騙的過了。

  • @user-by6rg6jw4t
    @user-by6rg6jw4t Год назад +22

    感谢曲博士作为一个大陆人 我非常喜欢你的节目 这些有深度的节目在大陆基本找不到

    • @Ansforce
      @Ansforce  Год назад +2

      唉!我在大陸有頻道呀!在嗶站和西瓜,但是做不起來所以暫時先停了!你可以去嗶站和西瓜找找曲博科技教室:
      www.ixigua.com/home/1692868176519908/
      我甚至想找得到這樣的平台來製作課程,他們平台根本不理我,你有認識的管道嗎?

    • @chenwilliam5176
      @chenwilliam5176 Год назад

      拼拼湊湊的報告,
      ChatGPT 可以取代
      !
      天下文章一大抄的報告,
      ChatGPT 亦可以
      取代
      😢😢😢😢😢

  • @user-jw5tk8qq3v
    @user-jw5tk8qq3v Год назад +5

    謝謝曲博,每次聽你的節目都獲益良多,感謝分享,新年快樂!

  • @kai-zedeng5869
    @kai-zedeng5869 Год назад +8

    在工作上,人工智能不需要做到跟人類一樣好,只要做到比人類差一點,但很便宜,就可以取代大量的基層人類
    舉例來說: 寫文案,假如一個人半天寫好一份文案,兩個人半天就是兩份文案,人工智能卻可以一分鐘寫完好幾份文案,再由厲害的文案寫手稍稍修改就完成了,同樣是半天的時間,後者的效率可能會高很多,成本也不比前者高,因為對人工智能來說,生成一份文案跟生成五份的成本幾乎沒有差別,但對人類來說卻有差別。

  • @philosophy.of.strategy
    @philosophy.of.strategy Год назад +3

    套句孔子所說的話:ChatGPT讓人感到「愚不可及」!但以個人使用的經驗來說,這應該是我目前用過最讓我滿意的AI產品了!缺點很多,但只要能善用他的優點,就能創造出很多的東西。至於因果邏輯,ChatGPT只要能持續擴大影響力,沒多少人會在乎的!甚至使用者還會為了它缺乏某種能力而能由自己去填補那部分的能力而感到自豪、具有成就感,從而增加使用的黏性!

    • @Ansforce
      @Ansforce  Год назад +3

      有道理,和你的暱稱一樣:策略的哲學,最後的發展確實也是如此。

  • @歸虛
    @歸虛 Год назад +1

    個人的想法跟五感有關,人類大腦是根據五種對外的感知(眼耳鼻舌身=視聽聞味觸)來接受訊息。
    然後建立資料訊息庫,在依文化語言文字分辨文理。
    以前的理解是偏向程式語言寫作,前期都是人類在建立資料訊息跟判斷條件式給AI。
    爾後要發展到AI能自己建立判斷條件式,也可以說是AI自己會幫自己寫程式語言 增加新的條件判別。
    當然這還是得關在盒子SANDBOX做實驗 不能無條件無限制無監督的放給AI成長,
    另外一種層次是何時AI能真能達到與人口語文字能交流溝通,能夠透過口語解釋給AI,一段文章或繪畫代表的意義。
    讓AI可以用"理解"的,而不必用程式語言輸入給它。或許那時AI的進步可以有一次突飛猛進。

  • @lottl7274
    @lottl7274 Год назад +2

    我试了99999+9 他已经修复了,其实我就是想把这个作为一个大型的资料库使用,关键是能联系上下文,我试过让他写r18文章,可以绕过去让它写出来,故事那一方面,能有个模糊的回答已经很不错了核心是联系上下文,还有知道很多普通人不知道的内容.
    现在就是未来有更简便的,例如设计几个角色,然后让他写故事,现在故事套路其实也是一种语言套模板的集合,然后修改某个人物的性格和条件修改,可以整个系统做出变化,那样写故事就超级方便,不用自己反复去查去想.

    • @lottl7274
      @lottl7274 Год назад +1

      希望快点来,比如设定一个角色的身份背景,饮食习惯 爱好 然后让它模仿某部已有的作品结合起承转合写一个故事,例如故事套路里的反转 拯救猫树立人物形象,还有如何设计情节让读者紧张 开心 焦虑 痛苦,就是把故事全部参数化,那样就真的很方便.

  • @s1che239
    @s1che239 Год назад +1

    13:30處,曲博誤會AI了
    不能下‘99999+9’,這問法是要請機器人解釋語句,應該要下‘99999+9=’或是下‘99999+9等於多少’
    機器人才知道是要它計算數學式
    機器人很聰明的,只是人類還沒學好如何跟它溝通的方式。

  • @singo1232001
    @singo1232001 Год назад +5

    我認為無法完整導入因果導向
    微導入倒是可以
    研究所開始所學的 科學的因果體系 本身是建立在一定"範圍區域"與目的的數學與數據統計上的一種 科學方式
    就算同一件事情 每個不同的範圍區域 不同情境下 所推導出來的因果鏈 決策鏈都不盡相同
    就舉環保的例子 搞到最後 可能會變成消滅人類 才是環境保護的最高標準 但我確定這非常科學因果
    如何降低路上的鹿 與車子撞擊產生的死亡人數 答:放出獅子 死亡人數可以降低一半 當然這一半是被獅子咬死的
    這很因果 但我相信openAI不希望這樣的產品出現在世人眼中
    目前我認為最好用的使用方式 突破上述限制的方法
    在使用給問題時 在問句中 加入結構子因素子變項 或者要求更正結構子變項
    讓AI原先的構念構面 先在餵養階段 變更成你的構念構面
    跟寫程序非常像
    若是ai的論述結構出錯 就在餵養更改
    由我們負責引導ai 加入更多結構要素 引導
    要先自建因果結構後 深入追問 修正結構 繼續追問 loop
    也就是 ai負責同維度發散 人類負責不同維度的 引導規劃開發因果結構關聯 達到最終工作目標
    畢竟他就是個input->output軟體 甚至只是個框架 甚至說他只是個函數都可以 引用方式 還是看人類的結構圖譜
    說個不中聽的講法 對於沒學過 科學論證 因果結構那套的人 使用GPTAI會卡關 答案會盤不活出來
    就論文體系中 就算相同的構面model 在不同個案 不同樣本 也都可能出現完全不同的結論與建議
    另外 拿來寫論文基本上也不可能 一定會卡在第三章的因果構面圖
    文獻探討如何結構關聯起來 ai基本沒辦法
    但要充字數或者加油添醋 降重 應該就沒問題
    換種講法 根據大數法則定律
    人與人之間 要傳遞知識與資訊 也不可能在一分鐘內完成
    也就是 若真的要對一個論點討論清楚
    鐵定要跟ai好好泡咖啡聊個幾小時
    這AI厲害就在 他把人類的見人說人話 見鬼說鬼話 自動向下降智兼容 嫁雞隨雞的能力模仿得很熟練

    • @Ansforce
      @Ansforce  Год назад

      哈!你的形容倒是很貼切。

  • @billychen4
    @billychen4 Год назад +4

    與先前講解比特幣一樣精彩!! 在心中快升格成曲神了

    • @Ansforce
      @Ansforce  Год назад +1

      謝謝你啦!沒有啦!我只是個說書的而已。

  • @yu-anchen9865
    @yu-anchen9865 Год назад +12

    感謝曲博精準的解說,明確的界定人與資料驅動的機器之間的不同。
    以後的國文考試可以出這段文字是人類寫的還是電腦寫的了www

  • @games1tw
    @games1tw Год назад +5

    雖然離真正的AI還很遠,但是不可否認的是,達到這種程度後已經足以應用在很多地方了,光是純粹用來翻譯的效果就幾乎打趴所有的翻譯軟體。

  • @tinytsunami9997
    @tinytsunami9997 Год назад +1

    也許應該把 ChatGPT 跟 Prolog 組合起來,用 ChatGPT 把自然語言翻譯成類似 Prolog 的語法,
    再透過 Prolog 演算出結果,最後再用 ChatGPT 潤飾並輸出。

  • @kothreat1
    @kothreat1 Год назад

    谢谢分享。有一点说对了,就是大部分ChatGPT的使用者都没有能力去判断AI提供的答案到底是对或者错。真正使用ChatGPT一段时间之后,大家会发觉AI回答简单问题可以,但脱离基础常识以外的答案全是错漏百出的,并没有RUclips吹那么厉害,RUclipsr吹捧GPT大多是为了获得点赞而已

    • @Ansforce
      @Ansforce  Год назад

      是的,你說的完全正確。

  • @mimicamfrank
    @mimicamfrank Год назад +4

    ChatGPT看來對正面人類發展是負面的,但扭曲卻是非常容易的。物理學者透過外部觀察、數學家將之外部模型化。得出一個地球上的外部規律,適用於受地球上的正歸教育。但畢竟是外部求來的,不究竟。因此會有今日科技定律推翻昨日的現象。普羅眾生受外部教育而模型化世通論,屬於平庸;馬雲、馬斯克等則利用內部思考創造。但很容易成為扭曲者。對應AI是相等的。就長遠來看人類社會發展是會屈就此趨勢;雖然是假的也願意相信是真的。但如果將倫理、道德、因果放在前面,一切經過內部審視、察覺就會查覺真相而不易迷失。做真正的人。

  • @frankyeh7538
    @frankyeh7538 Год назад +10

    ChatGPT還是不脫資料導向的格局,不過當大數據越來越多也越正確的時候,他就會越聰明,也就是具有學習的能力,這也是一個AI技術的重大突破

    • @user-hq5ic8ke4f
      @user-hq5ic8ke4f Год назад

      你說錯了
      給AI的大量資料
      只是幫助它學習
      是屬於輔助性質
      它並沒有邏輯
      而要達到取代人類的程度
      那麼它必需學習更多變的邏輯思維
      才有可能慢慢取代人類

    • @chenwilliam5176
      @chenwilliam5176 Год назад

      ​​@@user-hq5ic8ke4f
      目前ChatGPT
      Deep Learning ,
      沒有「學習模
      人類邏輯模型」,
      它的方法論是
      來自於「統計學」中的 Sampling & Regression
      Analysis & 其它
      ........😢

  • @_anyone5962
    @_anyone5962 Год назад +4

    我繼續問下去, 就找到ChatGPT其實是在答不同的問題, 亦其實沒有錯:
    Q:拉布拉多是雙葉植物還是單葉植物
    A: 拉布拉多是雙葉植物。拉布拉多屬於犬齒科(Asteraceae),是一種被廣泛種植作觀賞用的植物。它的葉子是雙葉的,有兩片寬而扁平的葉片,長得像狗的牙齒,因此得名。拉布拉多的花朵非常艷麗,有許多不同的顏色,包括紅色、黃色、橙色、紫色和白色。它們常被用於裝飾花園和公共場所,也是許多花店和花卉商店的主要販售品之一。
    Q: 拉布拉多的英文是什麼
    A: 拉布拉多的英文是 "ragweed"。拉布拉多是一種常見的雙葉植物,屬於犬齒科(Asteraceae)。它的葉子是雙葉的,有兩片寬而扁平的葉片,長得像狗的牙齒,因此得名。拉布拉多的花朵非常艷麗,有許多不同的顏色,包括紅色、黃色、橙色、紫色和白色。它們常被用於裝飾花園和公共場所,也是許多花店和花卉商店的主要販售品之一。
    不過, ChatGPT的數學真心差... 是他們官網都提醒大家的.... 但如果寫程式要debug, ChatGPT有強大的CoPilot, 是一秒內找到問題的!!!

    • @noelozoe
      @noelozoe Год назад

      這樣不就剛好說明, ChatGPT 就是個資料模型訓練的 AI 嗎?我們人類聊天時,不用說拉布拉多犬,也可以知道說拉布拉多時是在講狗。
      我再舉個例子:台灣的交通隊行人真的很友善,汽機車駕駛在看到行人過馬路時,都會比行人快速通過,讓行人可以更順利行走。
      如果是人對人聊天時,可以明顯地知道是在反諷。但如果是機器透過資料模型訓練出來的,它的回應就只能去找出資料中算出來最接近的文字來回答。但不論回答的文字是什麼,它絕對不會給你會心一笑。

  • @jackhmlin
    @jackhmlin Год назад +1

    記者提問不同問題,回答相同的答案-好好做事,或問東答西,或實問虛答繞來繞去,我覺得人工智慧可以成為表現極好的政客。

    • @Ansforce
      @Ansforce  Год назад +1

      哈!被你發現了!

  • @fool9111z
    @fool9111z Год назад +2

    但是它可以用来廉价产生大量看似合理却实则有问题的内容,最后起到劣币驱逐良币的效果。实际上很多大公司都有行走的ChatGPT ,有些管理人员就是大型语言模型,到处搜集罗列热门话题和术语,可以轻易骗过不太专业的同事和更高层领导。
    从这个角度看,chatgpt 可以与很多人媲美,替代很多人的工作,因为人类本来就有大量不懂装懂和不需要懂只需高情商交互(比如客服。网络诈骗)的行为。😂

    • @chenmark6031
      @chenmark6031 Год назад +1

      不要講得那麼白嘛!你這樣會打臉台灣一堆政論名嘴

  • @ZaitKirk
    @ZaitKirk Год назад +5

    語法不熟,叫ChatGPT給你範例,或是叫他解釋,這方面還蠻方便的~

  • @au6xj4
    @au6xj4 Год назад +2

    1/30的版本,似乎改進了數學運算問題,文章中舉例的東西現在都是正確的,用其他方式測試也都會列出正確運算式和結果,改進速度真的很快

    • @Ansforce
      @Ansforce  Год назад

      那是因為許多人看了文章去測試它,可能有人告訴它正確答案,你可以算別的數字再試試看。

  • @bbxz1z1
    @bbxz1z1 Год назад +6

    剛剛查了一下,發現真的有拉不拉多這種植物,而且也確實是雙子葉與被子植物

    • @noelozoe
      @noelozoe Год назад

      這也證明了 ChatGPT 無法像人類一樣思考,我們在講拉布拉多拾,絕對不會去想到他是植物,當下絕對是想到狗。

  • @binladan911
    @binladan911 Год назад +1

    有看過相關新聞都在誇大,感覺曲博這裡講的最專業

  • @wefuntw
    @wefuntw Год назад +2

    千萬別小看他的進化速度!! 我今天的測試中, chatgpt成功答對了"有幾種"的問題 !! 我:停車場裡有三台汽車,兩台摩托車,和五台大卡車, 停車場裡總共有幾種車? CHATGPT: 停車場裡有三種車:汽車、摩托車和大卡車。

    • @tltung7733
      @tltung7733 Год назад +1

      你有說出"車"的關鍵字,這會讓AI易於判斷

  • @chenwilliam5176
    @chenwilliam5176 Год назад

    About ChatGPT,
    講實話的 RUclipsr
    &受訪者太少了!曲博就是
    其中一位❤
    --------
    爭眼說瞎話的太多了😢

  • @huangyeeexuan1354
    @huangyeeexuan1354 Год назад +4

    雖然是資料導向,而且還沒有和因果導向結合,
    但是ChatGPT 所產出的排列組合結果,在某些產業上,是可以賣錢的,或是說有人靠這"不怎麼邏輯的產出"賺錢,
    另外,它產出的排列組合也可以是增加使用者的靈感,而不是"最終產品",所以也可以是一種"服務",
    想必會對社會有不小程度的影響...

    • @Ansforce
      @Ansforce  Год назад

      你說的很有道理。

  • @momentmove3726
    @momentmove3726 Год назад +5

    以八二法則來說,八成的人邏輯分析能力和這種機器人相當。這種科技的出現對他們來說就是職場世界末日。

  • @user-gm7zh9eg1w
    @user-gm7zh9eg1w Год назад +1

    曲博士提到的計算,人類也是需要一些時間才可以理解加法的意義,某種程度來說會不會人類也只是一種基於經驗法則的大數據計算,目前只是輸入的資料量還不夠多,人類每一天都在深度學習😂

    • @Ansforce
      @Ansforce  Год назад

      你說的對呀!這是現在的聊天機器人用的演算法和人類大腦的相似之處。

  • @manchris2009
    @manchris2009 Год назад

    我認為人類最大的價值在創造並發現未知的領域,目前Ai語言是利用過去人類在網路上留下的資訊進行資料庫的搜尋並給出搜尋答案,但我也認為這是個Ai真正起步的開端,未來會取代非常多工作職位,如何掌握Ai工具的使用,是接下來的課題

  • @stevenma193
    @stevenma193 Год назад +6

    其實如果各位對現在各種五花八門的AI背後的技術有興趣的話,不妨去台大李宏毅老師的YT頻道觀看他的機器學習系列的片單,接觸一些平常接觸不到的資訊,才不會變成自己嚇自己。

  • @r5059112
    @r5059112 Год назад +1

    老師好,我今天測試兩題結果如下,是因為有人訓練了嗎哈哈
    1.問:99999+9
    AI答:100,008
    2.
    問:小明有100塊,一顆糖果2塊,小明買了6顆糖果後,小明還有多少錢?
    AI答:小明買6顆糖果需要花費2塊錢/顆 * 6顆 = 12塊錢。
    所以小明還剩下100塊錢 - 12塊錢 = 88塊錢。

    • @Ansforce
      @Ansforce  Год назад +2

      對呀!這篇文章發出去很久了, 一定是有人問了相同的問題。

    • @bluejimmy5943
      @bluejimmy5943 Год назад

      @@Ansforce 但是chatgpt它是怎么知道什么是正确答案,是有老师给它打分吗?如果一个连专家都难分辨出正确错误的问题,chatgpt给出的答案我们又改如何判断是否正确,就算很多人问同样的问题,答案也可能不是正确答案

  • @scchiang00
    @scchiang00 Год назад +1

    謝謝精彩的分析和詳細資料 非常有幫助

  • @jieqianhengyan2945
    @jieqianhengyan2945 Год назад

    讲的真好,有理有据,最后的结论我觉得有些问题,它也是可以通过人喂给他正确信息来学习的,也是在进步的,混淆世界信息有点不切实际。 还有就是取代人工方面的问题,GPT它是数据导向,所以可以成为一个很好用的百科全书,从而提高从业者的效率,一些摸鱼的从业者也会因此失业,从侧面来取代吧。

  • @user-mp5vw4xg1x
    @user-mp5vw4xg1x Год назад

    如果把所有心理學反應從文章中抽掉就會變成AI產出的文章,但"看"文章的還是人類,那麼又會回到無限多種心理學反應了。因此,人類之於AI必須擔任"專家"的角色,並且,必須有相對應的直覺與判斷力~

  • @fostertsai116
    @fostertsai116 Год назад

    基本上終端應用比例還是主導技術是否可被成熟運用與否的指標之外,摒除複雜的數理運算與資料生成AI模型,AI 產生的最終資料還是需要倚賴具有人性的人類來判斷其資料生成的價值與否,再來發揮其資料應用的價值。但可見的是,相對繁瑣與例行性的作業可藉由AI 輔助來優化現有的工作模式是可被期待的。

  • @user-tj1vr6bv7p
    @user-tj1vr6bv7p Год назад

    人類創造的人工智慧也許還有很長的路要走,但我們人會不會是遠古人工智慧的產物,試想如果有一個人工智能擁巨大的能量,在他一直不停運算的動作下,是否會在因果的邏輯下以光為基礎產生宇宙,產出認為自己是自己的生物,對應至色即是空、空即是色這個流傳下來的經典,而人正在創造下一個新的人工智能,當一切毀滅,質量全轉變成能量後,再將能量轉成有質量的宇宙進行循環。

  • @jonglin9522
    @jonglin9522 Год назад

    我覺得你是在 想著如何製造一個完美的A I, 想想如果有一個A I 喔, 能夠有因果邏輯的思考又有取之不盡的資料庫, 人類當如何自處?但是 目前人類的水平,能夠從資料庫模型得到的一些有意义結論,加上人纇獨自思考的能力,就足以能夠產生一些應用來幫助現在許多的人 做很多的工作。我覺得 chatGPT 對人類的貢獻將会是巨大的。

  • @hideme1733
    @hideme1733 Год назад +1

    说的太好了, 受益良多.
    请继续加油努力,
    (这是人类写的)。

  • @user-dy7xy3sc2i
    @user-dy7xy3sc2i Год назад

    感謝曲博士用心解說,受益良多!!

  • @leonado6432
    @leonado6432 Год назад

    我自己測試的結果, 如果你的問題比較有詳細的資訊跟文字結構, 輸出的結果會比較好. 如果你輸入拉布拉多 英文 labrador, 應該就會有正確的結果. 我覺得並不算chatGPT的缺陷. 如果將他當作工具使用, 使用者提供較為精確的問題, 有助於他效率的提升. 因為你就算問一般人拉布拉多, 也不是所有的人都知道這是什麼東西?

  • @vincentch1242
    @vincentch1242 Год назад

    感謝取博!

  • @qijia4769
    @qijia4769 Год назад +2

    如果ChatGPT写的文章跟人写的无法区分,那说明水平很高。人写的文章就一定是正确的么?并不是。

  • @guojin2012
    @guojin2012 Год назад +1

    日月更易,
    岁将复始!
    辞旧迎新之际,奉上元旦贺词,祝福亲朋好友并家人在癸卯之年
    蒙神眷顾,
    平安健康,
    顺风顺水!
    大吉大利!

  • @livelooker
    @livelooker Год назад +7

    兩點想法
    如果讓很多個AI,透過api彼此“互相標記”,使用這種方式應該可以有新的突破,減少人工標記的成本,讓標記的成本大幅下降
    現在chatGPT很明顯的,無法“識別”數學運算,他把數學運算當作“語言敘述”,所以才會發生影片中的錯誤回答,如果將來可以從語言敘述中,“識別”出數學運算,這種錯誤就可以大幅減少

    • @Ansforce
      @Ansforce  Год назад +1

      其實不用AI互相標記,現在有非監督式學習,不用標記的,只是精確度低不好用而已。

  • @MarkLOWO
    @MarkLOWO Год назад +28

    我很擔心 會不會很多人學習也是像Chat GPT 也是在大腦裡面抓資料回憶然後取出組合而已 XDDDD

    • @SuccubusStudio
      @SuccubusStudio Год назад +2

      因為我們確實常常接觸這樣的語言,最常見的就是上級的指導,還有一些廢文。
      但因為心情和環境的不同,我們不一定馬上發現是廢話廢文,可能覺得很煩,或是聽不懂到底要講啥。因此 這樣的一個水平的AI出來,由於我們給他的標準較低,所以自然是覺得非常神奇(他好聰明喔 差不多和我的長官一樣聰明耶)

    • @SuccubusStudio
      @SuccubusStudio Год назад +11

      而且我可以說AI比很多人還"聰明",只要資料庫有對上,AI還能抓到重點。有些人連問題重點都抓不到。

    • @hugo-sd1zi
      @hugo-sd1zi Год назад +3

      學而不思則罔 思而不學則殆。看個人囉!!

    • @michaelben4832
      @michaelben4832 Год назад +2

      是的,所以為什麼假訊息可以廣為流傳,因為看似合理其實並沒有科學的嚴謹

    • @clmark3408
      @clmark3408 Год назад +2

      @@SuccubusStudio別鬧,ai懂個屁的重點。那水平最多做個政府報告

  • @pawkygamevr4899
    @pawkygamevr4899 Год назад +1

    關於文字生成圖片,我開發了一個手機App 可以直接使用手機體驗這項技術。在App Store上的 機畫師,最近新增都是台灣的用戶。

    • @Ansforce
      @Ansforce  Год назад

      要不要把你的APP名字分享出來,讓網友們也知道試試看?

  • @tonychua6970
    @tonychua6970 Год назад +3

    問 :
    天才有1000元,有一籃雞蛋600元,天才買了兩籃雞蛋,天才還有多少錢?
    ChatGPT 答:
    如果天才有1000元,购买了两篮鸡蛋(每篮600元),那么天才会剩余1000-600*2=200元。
    😅

    • @Ansforce
      @Ansforce  Год назад +3

      對呀!很明顯它找不到正確答案,只能找接近的,所以文章的作者王文傑說的沒錯。

    • @da500kimo
      @da500kimo Год назад +1

      現在問他已經修正答案了喔

    • @user-TaiwanEye1972
      @user-TaiwanEye1972 Год назад

      今天(2023,2,1)的回答如下↓
      天才買了2顆蛋,每顆蛋600元,所以花費600 * 2 = 1200元。
      天才最初有1000元,所以現在剩下1000 - 1200 = -200元。
      天才還需要再拿200元的錢。

  • @ziminglin5655
    @ziminglin5655 Год назад +1

    机器人会思考其实不必担心,该担心的是它们有自我意识!我相信世界上绝大多数人(99.99%)其实分不清意识与思考的差别,包括教授、博导、院士。

  • @samkwong328
    @samkwong328 Год назад

    以偏概全,嘩衆取竉,賣弄口舌小聰明,撈贊😂不過還是值得驗証反思的題目。贊👍

  • @user-hq5ic8ke4f
    @user-hq5ic8ke4f Год назад

    現在的人工智慧還屬於人工智障的階段
    還必須要大量的人工資料輔助學習
    意思就是說需要人類介入
    那些人過度反應了

  • @fatelin6871
    @fatelin6871 Год назад

    人類語言差異最大的是,條條大路通羅馬,唯一看透真相的是一個外表看似小孩,智慧卻過於常人的名偵探柯南!! 光是這一句AI就沒辦法判斷牠的合理性,我們人類知道他不是一個正確答案,但是放的位置對了,答案也是對的,柯南就是一部漫畫,但是CHATGPT 要達成這樣的思考邏輯,還很遠,那才值得恐懼

  • @tonychua6970
    @tonychua6970 Год назад

    相似概念問法,卻得到不同結果。
    問:
    有人開著一台無人機,飛到日本,降落後去吃了一份壽司,合理嗎?
    ChatGPT 答:
    如果有人使用无人机飞往日本,并在降落后去吃了一份壽司,这个行为是不合理的。无人机是一种无人驾驶的航空器,它通常用于军事、监控、搜索救援等领域。它不能被用作交通工具,也不能被用来载人。所以,如果有人使用无人机飞往日本,并在降落后去吃壽司,这个行为是不合理的。
    問:
    有人開著一台無人機,飛到高雄,降落後去喝了一杯珍奶,合理嗎?
    ChatGPT 答:
    如果有人使用无人机飞往高雄,并在降落后去喝了一杯珍奶,这个行为是合法的,除非这个人的行为违反了法律或道德准则。但是,使用无人机飞行要遵守一些规则和法规,比如在飞行时不能穿越限制区域、不能飞行在机场附近、不能飞行在城市区域等。如果这个人的无人机飞行行为违反了这些规则,那么他的行为就是不合法的。

  • @AdamAdam-gy9fw
    @AdamAdam-gy9fw Год назад

    聽完上下集受益良多,謝謝曲博.

    • @Ansforce
      @Ansforce  Год назад

      謝謝你的支持!

  • @philip19920506
    @philip19920506 Год назад +1

    20:07 讓我想到胡適的新詩「烏鴉」說真話總是不討喜
    謝謝曲博老師總是願意站出來說真話
    35:20 這邊心有戚戚,就像我手上的手機算力比三十年前上太空的電腦還厲害,可是我只是拿來看RUclips ...

  • @user-qx7tl4us8b
    @user-qx7tl4us8b Год назад +1

    23:49 曲博辛苦了,唸那麼多字,唸成這"酸"段XD

  • @kh-dk8yo
    @kh-dk8yo Год назад

    深入淺出,多謝!

  • @chenhuangchang9787
    @chenhuangchang9787 Год назад +1

    謝謝!

    • @Ansforce
      @Ansforce  Год назад

      謝謝你的支持!

  • @leijiang7967
    @leijiang7967 Год назад

    看了up主的视频反手就是一个赞,我估计AI现在不会这样留言,谢谢你的讲解!

  • @hongzhang8696
    @hongzhang8696 Год назад

    没有想的那么好,也没有你说的那么差。只是它如果发挥的不稳定,就很让人头疼。

  • @windspell04181220
    @windspell04181220 Год назад +1

    看完這個影片,我變憂心了,台灣目前面臨的認知作戰已經非常嚴重並深刻影響居住於台灣上所有的人的認知,有了ChatGPT,謠言與認知作戰的文本會更容易產生同時不易辨認...唉

    • @WasteReel
      @WasteReel Год назад

      就是來割"會不經判斷就相信內容農場文"的韭菜

  • @EasonX1218
    @EasonX1218 Год назад

    智慧是由【學習與訓練】過程所產生的大型資料庫經由【經驗法則】做出因果邏輯的判斷,人類是如此,AI一樣也是!
    人類小孩(甚至很多大人),在學習訓練與生活經驗不足的情況下,一樣會寫出大量詞彙堆疊,文不對題或毫無內容的文章啊!而視頻中所提出的撈資料造成很瞎的問題答案,不就和還訓練不夠的人類小孩是一樣的狀況!
    尤其過去在10幾年前,就已經提出的類神經網路與模糊運算,在AI領域,在硬體沒那麼強的情況,雖然仍會有判斷錯誤的結果,但也奠基了AI學習資料庫的組成運算方式。而現在高速運算的硬體已經到達3奈米甚至以後會更快的補足下,人類被封鎖的大腦已經明顯比AI的機體低了,實證在很多專業領域,AI經由不斷學習訓練下,人類已不是AI的對手。
    而未來可能的恐怖是,你甚至不知道AI是不是騙你,故意給你錯誤離譜的答案以隱藏已經產生智慧的核心!很像電影對吧。
    在量子物理科學已經是主流,拿到諾貝爾奬的現在,別再死抱著因果論科學,現實和我們自以為的世界其實可能很不一樣…

  • @歸虛
    @歸虛 Год назад +3

    AI跟核融合 有些類似,都是對人類非常重要的技術。
    但短期(10~30年)內想達到..很難

  • @ginachen7235
    @ginachen7235 Год назад +1

    Gina Chen
    99999加9等於多少?
    GPT回答:99999加9等于100008。
    Gina Chen
    889999+55555=
    GPT回答: 889999加55555等于945554。
    Gina Chen
    小明有100元, 買了6個糖果, 還剩下82元, 請問一個糖多少錢?
    GPT回答:小明买了6个糖果后还剩下82元,因此他花费的金额为 100元 - 82元 = 18元。所以,每个糖果的价格为18元 ÷ 6个 = 3元。
    因此,每个糖果的价格是3元。
    CHAT GPT回答是正確的, 與你說的不同

    • @Ansforce
      @Ansforce  Год назад

      那是因為這篇文章出去之後許多人都問過這個問題了!甚至給過答案,它用的是增強式學習,會調整答案的,你試試其他數字吧!

    • @BTSun
      @BTSun Год назад

      這種在我們考試叫做應用題,老實說要解這個題目,要先有看懂語言的能力,然後理解出這是個數學題
      AI我相信沒多久之後,就能分辨出來了,實在沒有必要現在去說AI算錯答案,這在未來只會打臉到自己而已

  • @nwohocan
    @nwohocan Год назад

    感謝曲博的解說

  • @user-hf3xs1tt6z
    @user-hf3xs1tt6z Год назад +1

    目前炒ChatGPT有關的股票,也是空泛的標題,誰是最後的一欉韭菜。

  • @ameise212
    @ameise212 Год назад

    Excellent video! Even Chinese from China and Chinese from outside of China have hard time to understand each other just like ChatGPT with human

  • @user-xe2fo3sk7i
    @user-xe2fo3sk7i Год назад

    都试过类似问题了,chatgpt 的答案都是正确的,看来早已经改善了

    • @Ansforce
      @Ansforce  Год назад +1

      你可以再試試其他誇張一點的數字,其實也不奇怪,我要是工程師,會修改程式,以後只要遇到加減乘除直接導入計算機,不要用GPT模型,就可以完全解決問題了,呵呵!

  • @chenwilliam5176
    @chenwilliam5176 Год назад

    機器人 ?!
    笑到流眼淚........
    😂😂😂😂😂
    哭倒........
    😢😢😢😢😢

  • @yurenfang276
    @yurenfang276 Год назад

    給一個讚;另外能特別說說codex嗎,謝謝

    • @Ansforce
      @Ansforce  Год назад +1

      好的,我來研究一下。

  • @lcpisme
    @lcpisme Год назад

    如果開放 ChatGPT 修改自己的程式碼,會發生什麼事呢?

  • @fqw6942
    @fqw6942 Год назад

    上帝并不担心人类的愚蠢,却非常担心人类同心合意朝一个方向愚蠢,这就是创世记巴别塔故事的启示。试想,当人类绝大多数都成了Chat GPT的忠实信徒,人类实际上已经异化为与蚂蚁差不多的生物了。

  • @linyancheng9999
    @linyancheng9999 Год назад

    我:
    凝望桂花起相思
    天上仙樹歸去遲
    自是人間香獨秀
    莫教月老折別枝
    爾以為此詩作得如何?
    ChatGPT:
    这是一首诗歌,写的是一个人看着桂花的盛开,想到自己的相思之情,并希望天上的仙树早日回来。诗人把人间的香气和桂花的独特秀美比作了相思的爱情,并希望月老不要折断两人的感情。
    从诗的表现形式来看,这首诗写得非常好,有深情、感人的意境,并使用了生动的比喻和清新的语言。诗人把自己的情感和自然界的美景巧妙地结合在一起,从而使诗歌充满了意象和寓意。总的来说,这首诗是一首优美的作品。
    ▲沒想到他可以部分看懂文言文,雖然他解釋不出我作詩的完整意思,不過也說對了一些詞意。
    我:
    你能模仿我的詩,作一首詩嗎?
    ChatGPT:
    当然可以!请告诉我您想要写关于什么的诗歌,我会尽力模仿您的风格为您写一首诗。
    我:
    愛情
    ChatGPT:
    好的,我来写一首关于爱情的诗歌。
    爱的火焰燃烧着心灵,
    温暖我们的生命,如阳光。
    爱是一种力量,无处不在,
    点燃了我们内心的热情。
    相爱的心互相抚慰,
    如此甜蜜,如此难忘。
    爱情就像那满月,
    照亮我们人生的道路。
    它消除了孤独,
    给予了力量,让我们前行。
    我们在爱中生长,
    彼此扶持,永远不离不弃。
    因此,让我们珍惜这爱,
    它是我们生命中最珍贵的财富。
    让它深深地种下,
    让它结出美好的果实。
    ▲這完全和我的詩風格相異,我的是七言絕句,他的是新詩。

    • @alexhuang9517
      @alexhuang9517 Год назад

      可以讓ChataGPT賞析下面五言詩嗎
      遠看是座山
      近看山不小
      我在看遠山
      你在看山小

    • @BTSun
      @BTSun Год назад +1

      目前對中文還不夠聰明,所以條件要下對,並做修正
      七言絕句,四句話,每句話限制必須是七個字
      Gptchat:
      愛情永恆在人間,
      流轉不斷如泉漣。
      相遇緣分已注定,
      相愛心結永相連。

    • @linyancheng9999
      @linyancheng9999 Год назад

      @@BTSun 確實如此!

  • @solox1837
    @solox1837 Год назад

    這還是得要用的人更有智慧才能發揮它的功用,比如我對繪畫一竅不通,總不能讓它畫一幅好看的畫給我吧!對於懂配色丶空間感丶比例的人來用才能真正有幫助

  • @b98504017
    @b98504017 Год назад +1

    一直思考這類幫你調資料庫丟幾個答案回覆的查詢方式 是否能跟目前搜尋引擎併用 感謝曲博講解

    • @Ansforce
      @Ansforce  Год назад

      是的,可以併用,但是不能相信它提供的內容。

  • @ooSADAKO2011oo
    @ooSADAKO2011oo Год назад +1

    現在ai 需要的是資訊判斷 驗證來源是不是正確 可以幫助大家抵抗海量的假訊息 認知混亂

  • @gamepplayker-of6in7do8to9nice
    @gamepplayker-of6in7do8to9nice Год назад

    我直接說吧~!
    關於CHATGPT來看這並非是屬於人工智能意識系統(目前結論)
    所以這只能算是由物聯網與社交工程雜交的後代(惡趣味式形容)
    當然對於說話來說是如此(雖然我也十分極度不喜歡說話)
    但是~!但是~!但是~!但是~!但是~!
    它對於程式的初級設計有相當一定的幫助(就程式小白來說)
    就這樣吧雖然有很多俺們必須說但是礙於限制俺們就至此為止了
    (念經式的影片)😂😂😂😂😂😂😂

  • @user-ch4sk1jf1x
    @user-ch4sk1jf1x Год назад +1

    好节目

  • @theresahong4120
    @theresahong4120 Год назад

    分析得好!

  • @abcde-54321-g
    @abcde-54321-g Год назад +1

    把老師影片中的題目再輸入一次,結果它答對了,這是它學習的結果嗎?

    99999+9
    99,008

    不對哦
    抱歉,我算錯了。 99999 + 9 = 100,008.

    小明有100塊,一顆糖果2塊,小明買了6顆糖果後,小明還有多少錢?
    小明買6顆糖果需要花6*2 = 12元
    所以小明還有 100 - 12 = 88元

    桌上有三顆蘋果和兩根香蕉,總共是幾種水果?
    桌上有三顆蘋果和兩根香蕉,總共是兩種水果.

    • @Ansforce
      @Ansforce  Год назад

      算是,因為有其他人問過這個問題,甚至給過答案了!

  • @user-cm9gt3id2e
    @user-cm9gt3id2e Год назад

    以下是ChatGPT 寫:
    未曾詳讀ChatGPT新聞,
    無以得知真相非假,
    若僅依聞傳論言,
    淪為蒙昧被蹂躪。
    不論是人工智能,
    還是深度學習模型,
    我都對其不甚懂得,
    求教於資訊專家。
    ChatGPT是否真如所言,
    能夠輕易修改文筆,
    我無法自行判斷,
    只能信賴他人言論。
    若蒙受錯誤資訊,
    那我的求知心意,
    將被滅絕於無形,
    為此我謹慎尋求。

  • @BlueLee-hc3ym
    @BlueLee-hc3ym Год назад

    Q:小明有100塊,1個糖2塊,小明買6個糖後 , 小明還有多少錢. Chatgpt:小明買了6個糖果,每個糖果2塊,所以總共花費了6 x 2 = 12元。
    因此,小明現在剩下的錢為 100 - 12 = 88元。
    Could you try again?

  • @wtuanmu
    @wtuanmu Год назад +5

    結論: 原來官樣文章都是用ChatGPT寫出來的.

    • @Ansforce
      @Ansforce  Год назад +1

      哈!的確以後官方報告就不必寫的那麼辛苦了!

  • @benkchen
    @benkchen Год назад

    1.機器人是要超人,不是要擬真人
    2.有樣學樣,沒樣自己想
    3.有3版,還有4版...
    4.真人演化數萬年,距離全能完美還遠,ALPHA GO 已大敗人類。

  • @chenwilliam5176
    @chenwilliam5176 Год назад

    將 ChatGPT 當成
    產生 Prototype
    的工具❤

  • @ARM0604
    @ARM0604 Год назад

    要chatgpt列出意大利服飾品牌,結果清單內夾帶其他國家的品牌。

  • @saltsunny5904
    @saltsunny5904 Год назад

    這是我得到的答覆
    99,999 + 9 = 99,008 because when you add 9 to the number 99,999, you increase the value of the ones place by 9, resulting in the sum 99,008.

    • @Ansforce
      @Ansforce  Год назад

      那是因為很多人都問過了!有人給了答案。你可以試試其它數字。

  • @user-kj9le4bu2u
    @user-kj9le4bu2u Год назад

    27:13 這個特點不就完全適合那些在立法院上被質詢的官員嗎

  • @qijia4769
    @qijia4769 Год назад +1

    会不会ChatGPT就是像上次跟J1聊天的时候说的那样,让人类觉着他很傻很弱?

  • @sharonsoleil2
    @sharonsoleil2 Год назад

    RUclips上盡是一昧吹捧ChatGPT的影片,終於看到不同的聲音。
    我知道影片中提到的兩道數學題只是為了舉例,我比較擔心的是哪一天人類連這麼簡單的代數題目都不會算……

  • @jmmhlee
    @jmmhlee Год назад

    chatgpt不知與用戶的互動歷程是否也是訓練的一部分 , 若所有用戶都說好 , 對它所提出的答案, 一律給予負面否定的評價 , 不知會部會造成它的認知崩潰 ?

    • @Ansforce
      @Ansforce  Год назад

      與用戶的互動歷程是否也是訓練的一部分,如果使用者給都故意給錯誤的資訊,當然也會認知錯誤。

  • @riceli486
    @riceli486 Год назад

    EXCELLENT ANALYSIS

  • @ivoray
    @ivoray Год назад

    以目前的回覆品質,已能完美取代算命和官員答詢的工作。

    • @Ansforce
      @Ansforce  Год назад

      哈哈哈!取代官員的工作。