【生成式AI】ChatGPT 原理剖析 (1/3) - 對 ChatGPT 的常見誤解

Поделиться
HTML-код
  • Опубликовано: 1 янв 2025

Комментарии • 91

  • @Amy-w2o
    @Amy-w2o Год назад +40

    真的好優秀、一代師表,少年老成、500年才有此才人出!

  • @veralei5332
    @veralei5332 Год назад +19

    跟chatGPT說我在看教授的影片,問他對教授有什麼看法,我可以幫他在影片下留言,以下是chatGPT的回答:
    非常感謝李宏毅教授對機器學習和自然語言處理領域所做出的貢獻。作為一個AI語言模型,我也能夠與人們進行對話,而李宏毅教授的研究和教學影片為我這樣的語言模型提供了重要的技術支持,感謝教授的工作!

  • @w565u44
    @w565u44 Год назад +72

    老师我们大陆也有好多你的粉丝哦,我是17年学习您的视频,现在博士毕业了还在看哈哈🤣🤣🤣🤣

    • @myworldAI
      @myworldAI Год назад +1

      x z 谢谢一声都沒有,是不是沒有AI

    • @anthonywang8848
      @anthonywang8848 Год назад +23

      @@myworldAI 你有点病吧?人家说不说管你什么事?吃了枪子么火药味儿这么浓,是不是没有干冰消火?

    • @ahooapplepen6949
      @ahooapplepen6949 Год назад +8

      @@myworldAI I translated your response with Chatgpt, Very disappointed seeing you say something like this, will be very careful when hiring any graduate from TW.

    • @bhanukumarkotha4270
      @bhanukumarkotha4270 Год назад

      I like your teaching but language problem 😢

    • @ch3nyt
      @ch3nyt Год назад

      @@ahooapplepen6949 dude chill

  • @sychiu1326
    @sychiu1326 Год назад +7

    謝謝老師把講課內容無私分享,上課上得好開心!

  • @xiaoyanlu8268
    @xiaoyanlu8268 Год назад +4

    感谢李老师,讲解的幽默风趣同时逻辑清晰,非常好的科普视频。

  • @蕭淇元
    @蕭淇元 Год назад +29

    老師辛苦了,今天上課笑得肚子好痛!😆

    • @frogasian8888
      @frogasian8888 Год назад +2

      這位蕭同學說得沒錯!🤩

    • @mick761218
      @mick761218 Год назад +1

      老師和其他學生都笑了,現場的氣氛也變得輕鬆愉快

  • @FR-DesteraFire
    @FR-DesteraFire 9 месяцев назад

    有用欸,謝謝老師,看了之後給我開了另外一種思路

  • @WilberChao
    @WilberChao Год назад +3

    老師真的超猛 好幾年前就看過老師的教學

  • @craziestkai
    @craziestkai Год назад +8

    老師講解的淺顯易懂❤

  • @shanggangli369
    @shanggangli369 Год назад +1

    天啊,这是周末大礼包吗?老师,你终于更新了

  • @sula7427
    @sula7427 Год назад +1

    感謝老師介紹,非常清楚易懂!

  • @超正莉
    @超正莉 6 месяцев назад +1

    謝謝老師 很適合我的adhd腦

  • @KenshinSanLi
    @KenshinSanLi Год назад +1

    老師講的很直白。

  • @Jimmy_Wang87
    @Jimmy_Wang87 Год назад +1

    直击本质,李老师❤

  • @qinyuechen8788
    @qinyuechen8788 Год назад

    感谢李老师,课程太好了💯💯

  • @蒂蒂-f7o
    @蒂蒂-f7o Год назад +1

    謝謝老師🥳🥳🥳
    興奮到模糊🎉🎉🎉

  • @myles_wang
    @myles_wang 7 месяцев назад +1

    谢谢老师

  • @jeffkevin3
    @jeffkevin3 Год назад +3

    看過上課直播後再來複習一遍 😆

    • @Borbby
      @Borbby Год назад

      你好呀,李老师在哪里直播呢?

    • @billyharrinton4885
      @billyharrinton4885 Год назад

      @@Borbby 台大

    • @Borbby
      @Borbby Год назад +1

      @@billyharrinton4885 (/_\)羡慕你们啊,我们只能翻墙出来学习。

  • @brunozhao7895
    @brunozhao7895 Год назад

    讲得如此清楚!

  • @caiyu538
    @caiyu538 Год назад

    谢谢李老师

  • @胡雅伦-i2p
    @胡雅伦-i2p Год назад

    很好的内容!请问老师,现在prompt engineering所做的事情,是否就是再利用ChatGPT这种参考同一个对话中所有的历史记录的特性来实现的?本质上并未finetune model 的 weights?

  • @stevenz9916
    @stevenz9916 Год назад +2

    我的不解是,成语接龙加人类修正可以修正到能够按需求编程的地步吗?

  • @frankduan9813
    @frankduan9813 Год назад +2

    感觉目前人类对AI的训练有几个缺陷:
    第一,万事政治正确,完全不能反应真实人类社会现状
    第二是使用人类的思维逻辑比如因果关系来让机器运作,失去了很多的创造性
    所以现在的AI发展下去也只不过是个copy machine,对人类质的发展起不了什么作用

    • @陈皮皮-m5s
      @陈皮皮-m5s Год назад +1

      并不是啊,政治正确是为了安全考虑,那些有毒的信息都人为地被打低分,防止这种倾向……你这么说很绝对化欸

  • @simpsons0144
    @simpsons0144 Год назад +1

    講的非常簡單明瞭,非常感謝分享~

  • @浮力蓮
    @浮力蓮 3 месяца назад +1

    請問老師,我想學機器學習的話,是看這個播放清單嗎?還是看老師您最新的生成式AI導論 2024?

    • @HungyiLeeNTU
      @HungyiLeeNTU  3 месяца назад +1

      建議從這裏看起: 【機器學習2021】(中文版)
      ruclips.net/p/PLJV_el3uVTsMhtt7_Y6sgTHGHp1Vb2P2J

    • @浮力蓮
      @浮力蓮 3 месяца назад

      @@HungyiLeeNTU 非常感謝老師!!

  • @zhuoqunfang3209
    @zhuoqunfang3209 Год назад

    太给力了👍

  • @luyoyo
    @luyoyo Год назад +2

    用統計前後文的原理,表現出來的結果好像可以理解語言一樣,還是覺得蠻不可思議的。

  • @niceroach321
    @niceroach321 Год назад

    老師想要請問一下既然他的訓練部分是online, 測試是offline, 所以三星洩漏事件可以理解為chatgpt在進行 "最佳化與改進用途" 所做的再度訓練才把這些機密資料一併訓練進 f(x) 而使用者在測試時才得到這些機密代碼,是這樣嗎?

  • @yunhuaji3038
    @yunhuaji3038 Год назад +1

    老师,请教一个问题,GPT-3训练时的最大sequence length是2048,那么当提问、回答文本超过这个限度的时候,ChatGPT怎么处理呢?是截断到最后的2048个单词吗?您之前有提到过说ChatGPT大概能理解8000个单词左右的context,那超过2048的部分模型是怎么去理解的呢?谢谢

    • @ss13444
      @ss13444 Год назад

      chatGPT 的參數推測超過 1700 億個,所以理解 800 個英文單字不是問題。
      至於 prompt 字段有設限制沒錯。

    • @kunzewang518
      @kunzewang518 Год назад

      最简单的方法就是把前面2048个单词的最后的representation传成后面的第一个词

  • @劉哲瑋-q4u
    @劉哲瑋-q4u Год назад +2

    ChatGPT 笑點賞析 @4:49

  • @leizhang3329
    @leizhang3329 Год назад

    李教授好!我非常喜欢您的视频,可以把您的视频搬运到bilibili吗?我会注明油管地址与作者信息的

  • @洗金瓶-l8k
    @洗金瓶-l8k Год назад

    老師晚安

  • @xaviertsai4063
    @xaviertsai4063 Год назад

    來上課啦~

  • @dalotwong9025
    @dalotwong9025 Год назад

    通熟易懂

  • @ziqiangzheng1234
    @ziqiangzheng1234 Год назад

    老师也是猎人铁粉

  • @Baozilla407
    @Baozilla407 Год назад

    讚👍

  • @PhraChan
    @PhraChan Год назад +2

    我覺得比較可疑的是它偶爾會故意講錯的答案,但它明明就知道正確的答案

    • @陳柏曄-w9y
      @陳柏曄-w9y Год назад +3

      老師的課程影片多看一看
      你的疑惑就會迎刃而解了

  • @ethaneaston6443
    @ethaneaston6443 Год назад +4

    念能力哈哈,全职猎人《hunter X hunter》

  • @ss13444
    @ss13444 Год назад

    17:33 老師提到做文字接龍的模型就是語言模型,請問 RNN, ELMo, BERT 等 (pretrained) language model 都是語言模型?但感覺 ELMo, BERT 都還可以特化作分類, NER... 等任務。為何 GPT-3 無法?

    • @mjz5853
      @mjz5853 Год назад

      GPT的G就是Generative生成式的意思,而分类更多是作为判别任务上

  • @charlsepheng3196
    @charlsepheng3196 Год назад +1

    WAKUWAKU!!

  • @li-pingho1441
    @li-pingho1441 Год назад

    讚讚

  • @jiabin26
    @jiabin26 Год назад

    这是无可能的! 要过年后的mode 才有可能是疫情后的好笑事!

  • @yunhuaji3038
    @yunhuaji3038 Год назад

    我记得GPT-3的模型的vocabularySize是50k左右,那这个模型是怎么做到理解这么多种语言的呀?训练样本里应该不止这么点才对,是不是把长尾部分的单词都覆盖掉了?

    • @zjlxgxz
      @zjlxgxz Год назад

      subwords / byte pair

  • @cocoaoki3878
    @cocoaoki3878 Год назад

    我的plus居然也会有一小时限制,这正常吗?😢

  • @lukelee8089
    @lukelee8089 Год назад

    感谢老师的讲解!我非常好奇一个事情,就是ChatGPT伪装Linux terminal,它是怎么做到的呢?背后一定有人工的设计吧

    • @wezley4284
      @wezley4284 Год назад

      用大量血汗勞工?😂

  • @changlife7581
    @changlife7581 Год назад +2

    笑话那个例子不是很好,因为他的模型主要是英文为主,如果换成英文还是可以理解,因为这个学生是计算机学生所以有可能一边完成作业一边吃饭之类的。很好奇如果输入更精确,比如说,给我讲一个中国人能理解的笑话,或者给我讲一个和美国俚语有关的笑话,结果可能会不一样。目前这个程序问题还是很多但是之后应该会完善的很不错。

  • @startflying
    @startflying Год назад +1

    有一個疑問想請教一下老師
    就是
    ChatGPT訓練是有用到網路的資料來訓練
    那正常情況下
    測試的時候
    應該還是會有機會
    出現一模一樣的字句才對呀
    就像是學生平常學習
    但他記憶力很好
    可以把課本整本背起來
    那考試的時候
    問跟課本一模一樣的問題
    那他可能可以100%完全複製課本的答案
    尤其如果訓練的網路資料中
    相同的字句一直大量出現
    那用這些資料訓練完的ChatGPT
    (訓練完,某些字句文字接龍
    接特定字句的機率會大幅提升)
    不是應該會有很大的機會
    出現一模一樣的字句嗎?
    這樣理解不知道對不對?
    謝謝老師~~

    • @RidanDeba
      @RidanDeba Год назад +7

      GPT的T代表的就是Transformer ,一種著重於自我注意力的模型,所以他在訓練時會判斷文本中每個資訊重要性比重,可以理解為重要的事物或關聯性會記得,但不重要的會忘記。
      也就是他可能會記得你詢問的答案對應領域的幾個重要詞,也記得在語言表達中要如何把這幾個詞自然的串起來,這兩個因素組合起來,要一模一樣不是不可能,但不會是很大機會。

  • @miku3920
    @miku3920 Год назад +1

    我又來上課啦 (四修路過

  • @chenwilliam5176
    @chenwilliam5176 Год назад +1

    這樣
    如何取代Goggle?
    ---------------
    某些人 Over Exaggerated,導至一些用戶的心情由「期待」轉成「失望」😢

  • @lingshanliu5812
    @lingshanliu5812 Год назад +1

    chatGPT 的回答可以是一样的,我尝试过🥲

  • @ArisHuang-m5h
    @ArisHuang-m5h Год назад +1

    chatGPT既然是文字接龍,那當人越唬爛,他就越唬爛

    • @chenwilliam5176
      @chenwilliam5176 Год назад

      這就是問題所在😉
      👍👍👍👍👍

  • @無言薯條-y6s
    @無言薯條-y6s Год назад

    老師不好意思,我今天去試用Chatgpt,請他給我一些網址,但他這次給出的網址都是真實擁有的,那是否推翻了他不會上網找資料的這個statement呢

  • @miku3920
    @miku3920 Год назад +4

    他的笑點都是美式笑點,我們get不到

  • @rickyhuang8958
    @rickyhuang8958 Год назад

    一年一度芝士来了

  • @AZ-hj8ym
    @AZ-hj8ym Год назад

    那这个ai不是跑得很慢了

  • @andrewmao3264
    @andrewmao3264 Год назад

    那个课程大纲本来就是从网上参考了李宏毅的。。

  • @陈皮皮-m5s
    @陈皮皮-m5s Год назад

    ChatGPT还蛮狡猾欸,问他是不是联网,他说联网!仔细问才承认自己只是在OpenAI的服务器里传问题和生成的答案,它管这个叫联网哈哈哈

  • @helpncarehk
    @helpncarehk Год назад

    人工智能就講得多 今日就學習下大語言模型 ruclips.net/video/SOsDDnlzim4/видео.htmlsi=1cwi4AkVyy2B6LSG

  • @Cat.the.Roblox.girl.
    @Cat.the.Roblox.girl. Год назад +1

    GPT完美替代記者的功能,反正記者的文章也都是亂編的

  • @i-chingmanagement2814
    @i-chingmanagement2814 Год назад

    Excellent lecture. ruclips.net/video/yiY4nPOzJEg/видео.html
    Testing probably should be referred to as Inferencing.

  • @eskimo2208
    @eskimo2208 Год назад

    第一个笑话我就没看懂。烦劳哪位给解释一下吗?听到别人笑自己还在纳闷的感觉真的很糟

    • @HungyiLeeNTU
      @HungyiLeeNTU  Год назад +3

      大家會笑是因為第一個笑話根本不知道笑點在哪裡,因為沒有笑點所以反而好笑

    • @eskimo2208
      @eskimo2208 Год назад

      @@HungyiLeeNTU 原来如此!谢谢老师告知。

    • @rollrick4914
      @rollrick4914 Год назад

      @@HungyiLeeNTU 老師解釋chatgpt的笑點感覺比笑話本身更好笑XD

  • @tirs9458
    @tirs9458 Год назад

    谢谢李老师

  • @stevenwong1099
    @stevenwong1099 Год назад +1

    感谢老师分享