【生成式AI導論 2024】第1講:生成式AI是什麼?

Поделиться
HTML-код
  • Опубликовано: 23 ноя 2024

Комментарии • 146

  • @susuky3832
    @susuky3832 7 месяцев назад +69

    生成式人工智慧 (Generative AI) 課程重點筆記
    1. 人工智慧 (AI) 概念
    - 沒有標準定義,每個人對智慧的想像不同
    - AI 是一個目標,而非單一技術
    2. 生成式人工智慧 (Generative AI)
    - 定義:讓機器產生複雜且有結構的物件,如文章、影像、語音等
    - 核心挑戰:從無窮可能性中生成適當的組合
    - 與分類問題的區別:分類從有限選項中選擇,生成則無限可能
    3. 機器學習 (Machine Learning)
    - 定義:讓機器從資料中找出函式 (模型)
    - 模型:含大量參數的函式
    - 訓練 (Training):找出模型參數的過程
    - 測試 (Testing/Inference):將新輸入帶入模型,觀察輸出
    4. 深度學習 (Deep Learning)
    - 使用類神經網路 (Neural Network) 來描述模型
    - 深度學習是機器學習的一種
    5. 生成式 AI 與機器學習的關係
    - 生成式 AI 可以使用機器學習/深度學習技術來解決
    - 但機器學習也可以解決其他問題,如分類
    6. ChatGPT 與文字接龍
    - 核心概念:文字接龍 (Auto-Regressive Generation)
    - 將生成任務拆解為一系列文字接龍問題
    - 使用語言模型 (Language Model) 來預測下一個字
    7. 生成策略的多樣性
    - 生成不僅限於文字,也可應用於影像等其他物件
    - 不同的生成策略,如像素接龍、自回歸生成 (Auto-Regressive Generation) 等
    8. 生成式 AI 的歷史與發展
    - 早期應用:Google 翻譯 (2006 年)
    - 近年突然爆紅的原因將在後續課程探討
    9. 進一步學習資源
    - 講師個人 RUclips 頻道:介紹大型語言模型 (GPT) 的打造過程

  • @ching-yichen2858
    @ching-yichen2858 9 месяцев назад +91

    老師是華文世界最重要也是教學最豐富精彩的AI教育推動者

    • @limlim4251
      @limlim4251 8 месяцев назад

      大家努力让世界容易学习国际语言的简体中文普通话》 另外世界各地学校学习国际语言的中文在很久以前就聪明的跟上中华简体中文了。全面简体中文方便子子孙孙,方便世界。可怜香港和台湾地区还复杂旧体难学的繁体,唤醒群众不需要一直复杂旧体繁体的!全面觉醒自信跟上国际语言的中华简体中文趋势。台湾地区、香港加油!

    • @sunmoon6969
      @sunmoon6969 Месяц назад +2

      @@limlim4251 沒甚麼文化內涵的簡體,就安靜一邊就好,沒必要自曝其短。

  • @sailize
    @sailize 9 месяцев назад +85

    太讚了,感謝老師無私分享一流的教學資源

  • @janchangchou777
    @janchangchou777 9 месяцев назад +43

    任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….)。以便對一些事件做出精准智能的預測。所謂自我學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的參數而已。40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
    近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。因此也不用太誇大眼下的AI , 這些理論早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
    另外, 眼下AI 服務非專業大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組, 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
    其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 搞編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
    只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
    此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
    而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
    另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
    其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段, 把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
    其實生成式大模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
    因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
    但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
    未來可能的發展模式:
    1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
    有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
    2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦參與分散型算力的提供,並予以整合,這也是需由資訊及硬體工程來實現的。

    • @josephtsai931
      @josephtsai931 8 месяцев назад

      Thanks for providing the real background of GPT. Your suggestion for future development of AI application is the right way to follow.

    • @VincentLee747
      @VincentLee747 8 месяцев назад +1

      回到最開始的基本問題:何謂智慧? 我們真的是在往發展智慧的正確道路上?還是現在的所有技術其實都不會通往智慧?只是另一個回答範圍更廣的程式?

    • @janchangchou777
      @janchangchou777 8 месяцев назад

      @@VincentLee747 Part 2):
      另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
      其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段, 把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
      其實生成式大模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
      因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
      但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
      其實眼下的蓬勃發展是假象。 不管怎麽發展,從事這𠆤領域研究工作的人不能不具備相關數理統計的知識,也不能缺少專家組對資料的專業的選定/收集/整理。而資訊程序員和電腦只是工具。特別在早期各專業領域內的中小模型的智能發展和恊作,編程只是工具。但當算力上來後,服務大眾的類搜索引擎的生成式及語言大模型,就變得可行了, 但不管怎樣可行,仍是以數理統計為核心,更龐大的專家組仍是關鍵。 只是這種大模型下算力變成稀缺的主要投資成本, 使得這些編程及硬體人員不得不高舉這𠆤旗幟來圈錢, 如果這些編程及硬體人員拿不出這些算力(如果由國家直接投資),他們在整個AI(CIC) 的發展上,根本算不上什麼角色。但這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆。
      這些搞編程所謂AI 專家,其看待事物的内容實在令人啼笑皆非。
      譬如: 看到報導某AI 頂流科學家,其模型在AI 大賽中,以16%失誤率, 遠勝於另 一AI 大佬的23% 失誤率,而得到冠軍。
      a)殊不知數理統計迥歸分析的誤差要求是5% 甚至到3% , 一個誤差率高達16% 的模型,居然可以拿出來比賽甚至取得冠軍, 真不知這羣頂流AI 的外星兼外行的科學家在玩什麼遊戲?!
      b)人類智慧的誤失率基本都趨近於零。
      任何事務的成果,都不是線性的。 這群AI 科學家居然誤導性的告知世人,宣稱他們現在誤差率已達16 % , 他們離成功不遠了。
      殊不知任何人學習或做事務的成果,達到90 分是很容易的,只要多付出就可輕易達成,但90-100 分,那完全不是和努力付出成正比的,那是和天份及其他綜合因素有関,90 分後要再成長其難度是巨大非線性的。
      人工智慧的誤失率16% 要成長到 人類知慧的0% 誤失率,給其500 年都難以達到。
      另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式或進行矩陣相乘。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積或是乘積和。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
      GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片, 或是Tesla 的針對矩陣暴力運算的NPU 。英偉達的GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 算力工作,則晶片設計可採用其他非常簡化有效率的方式,而且成本便宜很多。
      未來可能的發展模式:
      1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
      有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
      2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦,各類雲,工作站甚至各𠆤大模型參與分散型算力的提供,恊作,整合,這也是需由資訊及硬體工程來實現的。

    • @robbiexwin3898
      @robbiexwin3898 8 месяцев назад

      厉害!思路非常清晰

    • @fcvh6741
      @fcvh6741 7 месяцев назад +1

      給讚後,再給您一個鑽! 影片的講師應該由您再出一集更佳。

  • @31618doremi
    @31618doremi 8 месяцев назад +13

    從來沒想過學習可以這樣上癮,謝謝老師帶來這麼優質的教學,真的是聽君一席話,勝讀十年書

    • @limlim4251
      @limlim4251 8 месяцев назад +1

      大家努力让世界容易学习国际语言的简体中文普通话》 另外世界各地学校学习国际语言的中文在很久以前就聪明的跟上中华简体中文了。全面简体中文方便子子孙孙,方便世界。可怜香港和台湾地区还复杂旧体难学的繁体,唤醒群众不需要一直复杂旧体繁体的!全面觉醒自信跟上国际语言的中华简体中文趋势。台湾地区、香港加油!

    • @yuan0
      @yuan0 8 месяцев назад

      如果你有基礎,看書會快的多

  • @ziligao7594
    @ziligao7594 9 месяцев назад +43

    华语AI教育第一人!了不起!传道授业解惑!

  • @dipper4684
    @dipper4684 9 месяцев назад +7

    謝謝老師讓學店的我也享受一流教育,我想有教無類僅只於此

  • @hankdonald7812
    @hankdonald7812 8 месяцев назад +6

    0:01 什么是人工智能Artifucial Intelligence
    2:02 什么是生成式人工智能 Generative Artificial intelligence
    6:41 什么是机器学习Machine Learning
    10:21 什么是模型
    12:46 类神经网络Neural Network和深度学习Deep Learning
    13:51 人工智能,生成式人工智能,机器学习,深度学习的关系图
    15:22 chatGPT是一个按照机器学习打造出来的函数
    17:00 AI画图也是一个按照机器学习打造出来的函数
    19:13 生成式人工智能需要能够产生在训练时从来没有看过的东西,因为我们给模型输入的训练资料总是有限的,而使用者的测试是无限的。
    21:06 chatGPT是用文字接龙的方式,来生成出来自己从未见到过的文字
    24:36 生成式人工智能有不同的生成策略,利用文字接龙原理来生成输出内容的大语言模型只是其中之一
    26:19 生成式人工智能不是今天才有的。Google翻译就是生成式人工智能的一个应用。

  • @xiaoyanlu8268
    @xiaoyanlu8268 9 месяцев назад +4

    非常感谢老师的无私付出,谢谢您和您的团队制作高质量的人工智能的课程

  • @MrYkkwei
    @MrYkkwei 8 месяцев назад +5

    非常謝謝老師,雖然我不是選修生但是透過您的分享讓我更清楚的了解甚麼是生成式AI

  • @jun.w_
    @jun.w_ 8 месяцев назад +2

    老師上課真的很讓人想了解、想聽下去
    不知不覺就吸收知識了
    好高興可以看到老師的頻道!

    • @limlim4251
      @limlim4251 8 месяцев назад

      大家努力让世界容易学习国际语言的简体中文普通话》 另外世界各地学校学习国际语言的中文在很久以前就聪明的跟上中华简体中文了。全面简体中文方便子子孙孙,方便世界。可怜香港和台湾地区还复杂旧体难学的繁体,唤醒群众不需要一直复杂旧体繁体的!全面觉醒自信跟上国际语言的中华简体中文趋势。台湾地区加油!

  • @mengyuge3369
    @mengyuge3369 9 месяцев назад +9

    李老师,看到您更新视频我真的太高兴了,在学校的时候刷完了您的课程,我去年毕业了,但是看到您开课了我还是会来全部听完

  • @LinBond
    @LinBond 9 месяцев назад +10

    感謝老師, 讓業界想學習的人有好的來源!

  • @matrisys
    @matrisys 9 месяцев назад +8

    等好久,教授又開課了,真開心.

  • @ericyangtw1003
    @ericyangtw1003 8 месяцев назад +5

    謝謝老師的課程!

  • @bingbingsun6304
    @bingbingsun6304 7 месяцев назад

    Lee教授出品,必属精品!

  • @jimmyguan6530
    @jimmyguan6530 8 месяцев назад +2

    深入浅出,易学易懂。

  • @賴意繡
    @賴意繡 8 месяцев назад +2

    感恩不盡,願意分享上課內容,謝謝老師.

  • @蔣哿樂
    @蔣哿樂 6 месяцев назад +1

    講得很清楚,聽得很過癮

  • @鮮師
    @鮮師 8 месяцев назад +1

    感謝,受益匪淺

  • @chanyuan-cv4op
    @chanyuan-cv4op 9 месяцев назад +1

    感谢老师,我是你的催更人

  • @BQ_Nya
    @BQ_Nya 9 месяцев назад +4

    好期待下一堂課

  • @janchangchou777
    @janchangchou777 8 месяцев назад +1

    Part 1):
    任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。
    所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。
    而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。
    40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。
    在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
    近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。
    因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。
    ”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
    何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。
    目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。
    人類有許多其他不同型態非常複雜的知慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。
    另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
    其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
    只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
    此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
    而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。

    • @吳傑名
      @吳傑名 8 месяцев назад

      「類神經網路」做不到「即時通用適應」,亦即基於此來建構的模型,永不可達到「ASI」或「真正的AGI」。就當前個人所知,地球知名主流的(表示或許不含非這些屬性的)「AI/CIC/ANI」(不只含ML)演算法和模型,於分類(「理解」)並生成(「創造」)上,即使可虛構也可合(…)因果(…)或(…)規律(…)(進而可呈現預測--含會且可「創造」的),但是,沒(能?)做到「即時通用適應」(且不需要調設激勵、調整超參數,只需預設…來如其天賦、天生的傾向;演算法必須符合「真、知、穩」、「神經性之形式和自然暨社會之科學」;變數為主),只(能?)做到「預訓練泛用適應」;關鍵原因在於其採用「類神經網路」(非線性函式/函數群程序組合),為了找差異或變化而設了太多分類的方法/條件,使層數越多越易過適/過擬合(且以非變數/變量為主),因此並為了易有各級關係/形式(含感知、規律/模式等)特徵(相同或重複的差異或變化)而省略/簡略化(不同於簡化之分類)參數/弱化參數值、累積多種誤差,導致專用化;何況還不願(或許含不敢)設「通用目標」讓「AI/CIC」「自主」來減少智人種的失誤(含遺忘)或欺瞞的影響、干擾(至於,「表淺意識」、「自我認知」,…前者有關模擬輸出之即時回饋,後者有關輸出之即時回饋,皆有助「元認知/後設認知」、學習)。顯然,當下有關「AI/CIC」/ML研發的臺灣之產官學研單位,不會跟…合作研發(可無償改善全世界的)「ASI」模型實體(且有「時空感、質能感」,可、呈現…因果…與…蘊含…關係的),但這些單位也讓缺乏一般規格硬體和少量資料及某些韌體、感測、通信、控制等技術之資源的…不放心。

  • @陸皓邦
    @陸皓邦 9 месяцев назад +5

    感謝老師的課程🙏🏻

  • @ADWSSS
    @ADWSSS 8 месяцев назад +1

    感謝大大讚嘆大大

  • @zenios-br9en
    @zenios-br9en 5 месяцев назад

    感谢李宏毅老师!

  • @Ts2pc
    @Ts2pc 6 месяцев назад

    清晰明白,很會教

  • @zengjixiang
    @zengjixiang 9 месяцев назад +2

    期待下一堂課!

  • @morikuniminamoto8573
    @morikuniminamoto8573 8 месяцев назад

    文字接龍挺有意思的 我之前從沒思考過這樣的問題

  • @KRISHNNAMURTHI1
    @KRISHNNAMURTHI1 2 месяца назад +1

    老师太厉害了 !!!!

  • @杜琪-l6o
    @杜琪-l6o 8 месяцев назад

    感谢老师分享,有收获

  • @mingminglearntech
    @mingminglearntech 9 месяцев назад +2

    我就問這是免費能看的嗎?QAQ 感謝老師無私的分享,還有超強的生活情境案例,讓原本艱深的用字可以讓非本科生理解,身為小學老師透過了解背景才不會單純的停留在用,尤其是像我們必須要跟學生說明使用AI需要注意的地方時,在應用於教學現場時更能知道如何拿捏跟引導學生正確的方式。By從0講開始入坑的女子。

  • @huph-j2f
    @huph-j2f 9 месяцев назад +33

    多一点李老师这样化繁为简的老师多好,少一点骗麻瓜的内容科技进步才会更快

    • @jeffkevin3
      @jeffkevin3 7 месяцев назад +1

      老師講得真的很好
      但蠻讓人好奇什麼叫騙麻瓜? 🤔 會不會是您對他們的解讀有偏誤了? 😅

    • @YetEthanOnly
      @YetEthanOnly 7 месяцев назад

      媒體不騙麻瓜,股票怎麼奔漲😂

  • @JaaShawGun
    @JaaShawGun 2 месяца назад

    哇,好智慧哦,鼓掌!

  • @coco8024
    @coco8024 5 месяцев назад

    感謝老師!(說幾次都不為過)

  • @jack1796
    @jack1796 8 месяцев назад

    讲得实在是太好了啊,感动到都饿了,赶紧吃个夜宵先

  • @LM-yh4ys
    @LM-yh4ys 9 месяцев назад +1

    感謝老師分享

  • @SyuAsyou
    @SyuAsyou 9 месяцев назад

    超讚的課程!期待下一講的內容!

  • @RayZhang-h4l
    @RayZhang-h4l 4 месяца назад

    谢谢李宏毅老师的分享!
    这里顺便提一个问题:如果说文章与图像的复杂度是无限的,有限复杂度的典型例子是分类问题。那么输出为一个实数的回归问题(regression problem)是否也可以定义为一个“复杂的问题”?

  • @weiyu1152
    @weiyu1152 7 месяцев назад

    谢谢老师

  • @kiracao5825
    @kiracao5825 9 месяцев назад

    老师,一直追踪你的课程,能不能也开凸优化和随机过程这两门课,万分感谢

  • @李方正-x4q
    @李方正-x4q 9 месяцев назад +1

    感谢李老师!!

  • @siuandy520
    @siuandy520 6 месяцев назад

    不好意思,想虛心請教各位一個問題
    在影片的06:03中提到「機器從有限的選項中做選擇就不是生成式人工智慧」
    但在24:05中的「文字接龍」提到「常用字是有限的,機器回到從有限的答案中選出答案的問題」
    那到底最後Chatgpt是不是生成式AI呢?
    我是一個初學者,覺得老師說得非常易懂,只是在這個地方有個小困惑,謝謝大家。

    • @siuandy520
      @siuandy520 5 месяцев назад +2

      我在第8講的12:10好像找到了答案了

  • @amiru6
    @amiru6 9 месяцев назад +1

    謝謝老師

  • @titane.w
    @titane.w 8 месяцев назад

    感谢老师🎉

  • @wanghahahaha
    @wanghahahaha 5 месяцев назад

    感谢老师,也希望有生之年能看到猎人完结

  • @LIUJIA-j3o
    @LIUJIA-j3o 8 месяцев назад

    受教了,感谢老师

  • @wayne500000w
    @wayne500000w 9 месяцев назад

    期待下一堂課!

  • @shanshan20082009
    @shanshan20082009 9 месяцев назад +1

    期待

  • @fangyizhou456
    @fangyizhou456 7 месяцев назад

    老師明年 會講强化學習的 Decision Transformer麽?

  • @elvis1322
    @elvis1322 9 месяцев назад +1

    期待老師的另外兩學分比較技術的課程

  • @annehsueh3471
    @annehsueh3471 2 месяца назад +1

    電腦也會選土豆這梗也太老太親切!!🤣🤣

  • @user-qe2ze9xm3j
    @user-qe2ze9xm3j 7 месяцев назад

    超讚!!!!!!!!!!!!!!!!!

  • @JackieTian_Hiroki
    @JackieTian_Hiroki 8 месяцев назад +1

    請問如果想學深度學習的話是看李老師之前的課還是看今年這個新課程就可以

    • @HungyiLeeNTU
      @HungyiLeeNTU  8 месяцев назад +1

      如果想要了解深度學習的技術,那推薦從 2021 的機器學習開始看起:ruclips.net/p/PLJV_el3uVTsMhtt7_Y6sgTHGHp1Vb2P2J&si=RuOY5pqRQTXbtvOY

    • @JackieTian_Hiroki
      @JackieTian_Hiroki 7 месяцев назад

      @@HungyiLeeNTU好的好的謝謝老師

  • @譚富銘-f1j
    @譚富銘-f1j 9 месяцев назад +3

    1:17 電腦要會選土豆出處:
    ruclips.net/video/-W3pnicVgn0/видео.htmlsi=5ISQ83pNvgXg8vOa

  • @sawakun
    @sawakun 9 месяцев назад

    感谢🙏

  • @hesterchou
    @hesterchou 5 месяцев назад

    老師的聲音很有活力,是機器人說的嗎?😂

  • @palapapa0201
    @palapapa0201 9 месяцев назад +3

    這是可以免費看的嗎

  • @stan-kk2sf
    @stan-kk2sf 9 месяцев назад

    老师,想听世界模型,什么是世界模型,世界模型和生成式AI的关系
    这个课程会讲到吗?

  • @陳昱均-g5d
    @陳昱均-g5d 6 месяцев назад

    請問文字接龍如何能創造新的笑話

  • @sdsd-mi2tn
    @sdsd-mi2tn 2 месяца назад

    老师请在标题上清晰加注:面向小学生

  • @meng9359
    @meng9359 8 месяцев назад +1

    感谢分享!能否考虑对常用概念,辅以英文名?便于更广范的文献索引。先谢了🙏

  • @Terry0319
    @Terry0319 9 месяцев назад

    謝謝老師

  • @showmin7463
    @showmin7463 8 месяцев назад

    24:30 是無窮無盡唷

  • @陳楷翔-i6s
    @陳楷翔-i6s 8 месяцев назад +1

    10:46定義本堂課模型
    12:02機器學習

  • @lizhao6979
    @lizhao6979 4 месяца назад

    當下來說,生成式智慧可能是人的腦迴路有一百條,人工智能有第一百零一條,他大腦裡面的資源和邏輯方式比個體人類多一點。

  • @wuhaipeng
    @wuhaipeng 9 месяцев назад

    Machine learning is a process that changes the machine state from non-intelligent to intelligent.

  • @KexinLiu-t6z
    @KexinLiu-t6z 8 месяцев назад

    请问哪里可以看到作业:真假难辨的世界?

  • @xaviertsai4063
    @xaviertsai4063 9 месяцев назад

    上課啦~

  • @kunhongyu5053
    @kunhongyu5053 9 месяцев назад

    终于开了,等了好久

  • @jdyu1987
    @jdyu1987 9 месяцев назад

    好棒
    謝謝老師❤

  • @moliwu1359
    @moliwu1359 9 месяцев назад

    這門課是一次上兩堂吧,怎麼只有上傳一堂的內容😢

  • @陳英義-b4y
    @陳英義-b4y 7 месяцев назад

    確實能做到的才是智慧,不能做到的只是知識而已

  • @smalltownartist-y5z
    @smalltownartist-y5z 9 месяцев назад

    請問老師在之後的課程中會講到diffusion模型嗎?

    • @HungyiLeeNTU
      @HungyiLeeNTU  9 месяцев назад +1

      之前已經有講過一個比較深入的版本,這學期也還會再講
      ruclips.net/video/ifCDXFdeaaM/видео.htmlsi=r602tK5wLXSrCU0g

  • @qzqz93372
    @qzqz93372 Месяц назад

    庫拉皮卡還被拿出來鞭
    有夠慘
    看看富堅已經拖稿拖多久了😆

  • @willy7703
    @willy7703 9 месяцев назад

    這是現場嗎? 禮拜六上課喔@@!?

  • @jeffzzz7850
    @jeffzzz7850 7 месяцев назад

    2:02 人工智慧是一个目标

  • @吳傑名
    @吳傑名 8 месяцев назад

    類神經網路做不到即時通用適應,亦即基於此來建構的模型,永不可達到「ASI」或「真正的AGI」。就當前個人所知,地球知名主流的(表示或許不含非這些屬性的)「AI」(不只含ML)演算法和模型,於分類(「理解」)並生成(「創造」)上,即使可虛構也可合(…)因果(…)或(…)規律(…)(進而可呈現預測--含會且可「創造」的),但是,沒(能?)做到「即時通用適應」(且不需要調設激勵、調整超參數,只需預設…來如其天賦、天生的傾向;演算法必須符合「真、知、穩」、「神經性之形式和自然暨社會之科學」),只(能?)做到「預訓練泛用適應」;關鍵原因在於其採用「類神經網路」(非線性函式/函數群程序組合),為了找差異或變化而設了太多分類的方法/條件,使層數越多越易過適/過擬合,因此並為了易有各級關係/形式(含感知、規律/模式等)特徵(相同或重複的差異或變化)而省略/簡略化(不同於簡化之分類)參數/弱化參數值、累積多種誤差,導致專用化;何況還不願(或許含不敢)設「通用目標」讓「AI」「自主」來減少智人種的失誤(含遺忘)或欺瞞的影響、干擾(至於,「表淺意識」、「自我認知」,…前者有關模擬輸出之即時回饋,後者有關輸出之即時回饋,皆有助「元認知/後設認知」、學習)。顯然,當下有關「AI」/ML研發的臺灣之產官學研單位,不會跟…合作研發(可無償改善全世界的)「ASI」模型實體(且有「時空感、質能感」,可、呈現…因果…與…蘊含…關係的),但這些單位也讓缺乏一般規格硬體和資料及某些韌體、感測、通信、控制等技術之資源的…不放心。

    • @吳傑名
      @吳傑名 8 месяцев назад

      「類神經網路」做不到「即時通用適應」,亦即基於此來建構的模型,永不可達到「ASI」或「真正的AGI」。就當前個人所知,地球知名主流的(表示或許不含非這些屬性的)「AI/CIC/ANI」(不只含ML)演算法和模型,於分類(「理解」)並生成(「創造」)上,即使可虛構也可合(…)因果(…)或(…)規律(…)(進而可呈現預測--含會且可「創造」的),但是,沒(能?)做到「即時通用適應」(且不需要調設激勵、調整超參數,只需預設…來如其天賦、天生的傾向;演算法必須符合「真、知、穩」、「神經性之形式和自然暨社會之科學」;變數為主),只(能?)做到「預訓練泛用適應」;關鍵原因在於其採用「類神經網路」(非線性函式/函數群程序組合),為了找差異或變化而設了太多分類的方法/條件,使層數越多越易過適/過擬合(且以非變數/變量為主),因此並為了易有各級關係/形式(含感知、規律/模式等)特徵(相同或重複的差異或變化)而省略/簡略化(不同於簡化之分類)參數/弱化參數值、累積多種誤差,導致專用化;何況還不願(或許含不敢)設「通用目標」讓「AI/CIC」「自主」來減少智人種的失誤(含遺忘)或欺瞞的影響、干擾(至於,「表淺意識」、「自我認知」,…前者有關模擬輸出之即時回饋,後者有關輸出之即時回饋,皆有助「元認知/後設認知」、學習、數學和語言之學習和創造/發展)。顯然,當下有關「AI/CIC」/ML研發的臺灣之產官學研單位,不會跟…合作研發(可無償改善全世界的)「ASI」模型實體(且有「時空感、質能感」,可、呈現…因果…與…蘊含…關係的),但這些單位也讓缺乏一般規格硬體和少量資料及某些韌體、感測、通信、控制等技術之資源的…不放心。

  • @uartim
    @uartim 9 месяцев назад

    yo. 原來有新課程

  • @Tusitla-w
    @Tusitla-w 9 месяцев назад

    天,您沒提,我都忘了他還沒下船...

  • @jeffzzz7850
    @jeffzzz7850 7 месяцев назад

    11:00 模型:带有大量未知参数的函数

  • @mixshare
    @mixshare 9 месяцев назад

    🎉🎉🎉

  • @BaccaratKingmaker
    @BaccaratKingmaker 8 месяцев назад +1

    NVIDIA ❤❤❤

  • @petervsjim
    @petervsjim 8 месяцев назад

    暴雷一時爽 一直暴雷一直爽

  • @chunganna-z3m
    @chunganna-z3m 9 месяцев назад

    从第一节课开始跟

  • @edfjh-m5w
    @edfjh-m5w 3 месяца назад

    Astra Al为什么会诞生

  • @陳英義-b4y
    @陳英義-b4y 7 месяцев назад

    智與慧是不同的,看看佛學中就有幾百種,慧也是很多呢?世智與佛智就差很多

  • @xygen9527
    @xygen9527 8 месяцев назад

    3:11 應是學測

  • @yin8421
    @yin8421 8 месяцев назад

    我所知道的類神經網路最小單元就是個感知機,就像是生物的腦細胞一樣,給予足夠的信號才會向下傳遞訊息。我的認知錯了嗎?最早就是模仿生物大腦的運作原理,而想出來的,不是嗎?

  • @shaco6034
    @shaco6034 8 месяцев назад

    请问我们有办法找到homework在哪里嘛?

  • @jimmy.studio
    @jimmy.studio 7 месяцев назад

    字幕檔:深層式

  • @skyhong2002
    @skyhong2002 9 месяцев назад +1

    頭香!

  • @v6854
    @v6854 9 месяцев назад

    Tarek 看了嗎?

  • @miku3920
    @miku3920 9 месяцев назад

    作業好有趣,可惜不是台大學生做不了

    • @KexinLiu-t6z
      @KexinLiu-t6z 8 месяцев назад

      请问哪里可以做作业?

    • @miku3920
      @miku3920 8 месяцев назад

      @@KexinLiu-t6z 台大的學生網站

  • @menshinchensin1
    @menshinchensin1 8 месяцев назад

    可見機器並不知道玉山是什麼!

  • @twmoomoo
    @twmoomoo Месяц назад

    說好了不提獵人的。。。😭

  • @deletemadog
    @deletemadog 9 месяцев назад

    什麼時候 "函數" 變成 "函式" 了?

    • @ShawnBrownYah
      @ShawnBrownYah 9 месяцев назад

      台湾不是都叫函式吗

    • @nisstw
      @nisstw 9 месяцев назад

      應該是和電腦計算機人常用 subroutine 副程“式”用久了,就稱函式了
      早期偏數值運算的程式,呼叫函數時常會傳回值,那時候還常常叫函數。

    • @nisstw
      @nisstw 9 месяцев назад

      那時候 FORTRAN
      SUBROUTINE 和 FUNCTION 作用不同
      不過,我上次用都三十多年前了,不知道有沒有記錯

    • @showmin7463
      @showmin7463 8 месяцев назад

      台灣兩個都有人講,函數是傳統數學用語,函式則多用在電腦科學。

  • @CornuDev
    @CornuDev 9 месяцев назад

  • @皇甫少華
    @皇甫少華 9 месяцев назад

    要学3个月啊😂

  • @jonathanbanks5963
    @jonathanbanks5963 8 месяцев назад

    生成? 是簡體中文翻譯的吧

    • @showmin7463
      @showmin7463 8 месяцев назад

      簡體中文跟繁體中文的「生成」都寫作「生成」。