【人工智能】《苦涩的教训 The Bitter Lesson》 | 人工智能经典文章 | 我们应该过去70年的研究中获得什么经验 | 如何看待人工智能 | 算力 | scaling law

Поделиться
HTML-код
  • Опубликовано: 28 сен 2024
  • 近日,流传了一份OpenAI工程师的作息时间,其中有一项就是背诵强化学习之父、加拿大计算机科学家理查德·萨顿( Richard S. Sutton )的经典文章《The Bitter Lesson(苦涩的教训)》。该文章指出过去 70 年来,AI 研究走过的最大弯路,就是过于重视人类既有经验和知识,而他认为最大的解决之道是摒弃人类在特定领域的知识、利用大规模算力的方法,从而获得最终胜利。从事AI研究的人应该经常回顾一下这篇经典文章
    #thebitterlesson #人工智能 #richsutton

Комментарии • 34

  • @everfly
    @everfly 7 месяцев назад +4

    人类正视自己的局限才能推动AI的进步

  • @corgirun7892
    @corgirun7892 7 месяцев назад +14

    20年前的这篇文章如此振聋发聩,我在腾讯大多数时候干的事情,就是把各种知识、业务知识和领域知识融入到模型和算法中。结果证明这些东西,除了在业务场景下有点用,根本无法发挥更大的价值

    • @janchangchou777
      @janchangchou777 7 месяцев назад +4

      任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….)。以便對一些事件做出精准智能的預測。所謂自我學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的參數而已。40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
      近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。因此也不用太誇大眼下的AI , 這些理論早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
      另外, 眼下AI 服務非專業大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
      其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 搞編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
      只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
      此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
      而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
      另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
      其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段, 把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
      其實生成式大模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
      因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
      但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
      未來可能的發展模式:
      1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
      有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
      2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦參與分散型算力的提供,並予以整合,這也是需由資訊及硬體工程來實現的。

    • @everliving
      @everliving 6 месяцев назад

      分布式计算,记得2003 年时参与过NASA的外星文明寻找计划SETI,就是下载大约10m的文件在自己电脑上计算后再上传回NASA,没有任何回报,纯凭一腔热情。

    • @janchangchou777
      @janchangchou777 6 месяцев назад

      @@everliving 這需要公正機構,利用網路侦測參與計劃的電腦是否在運行(𠆤人電腦不能関機只有休眠),如果沒在運行,則分配數拈由其在特定隔離區進行運算完回傳( 其間要考慮中斷的處理) , 這樣形成計時计費。 就可形成千萬台PC 介入的分散算力運算。 AI 的運算很龐大,但是都是小學三年級的加減乘除。

    • @zhchbob
      @zhchbob 5 месяцев назад

      @@janchangchou777 不同意你的观点,神经网络显然不只是个搜索引擎,它实际上学习并构建了对所知世界的理解模型,并且可以基于这个模型进行预测甚至是创造性的“想象”。神经网络从来不储存数据,因而也谈不上对数据的“检索”,包括我们人类自己的“回忆”其实都是一种预测,一种创造性的信息生成,事实上我们所有的记忆都是想象出来的场景,跟ChatGPT的胡言乱语没有区别。那为何我们自觉得有记忆能力呢?那是因为人类大脑的神经网络根据多年学习的经验,对于某些想象出来的信息更加有信心,也就是认为这些模型函数的反馈值99.9999%的部分同客观记录(文字、他人的回忆/想象)一致性很高,从而给了我们“能够记住”某些信息的错觉。
      同样,人工神经网络也具备人类的认知和推理能力。无论是认知还是推理本质上就是对预测函数的信心的统计问题。

  • @orderofchaos8680
    @orderofchaos8680 7 месяцев назад +4

    个人理解:算力和数据当然是要充分利用的,但想脱离对人的智能的深入理解而实现人工智能长远来看行不通。或者你可以干脆重新定义人工智能使其与人的智能没有啥关联,毕竟两者学习和处理问题的过程显然是不同的,而且各有擅长的领域。还是个人理解:目前人类对神经网络及其他机器学习算法架构为以后通用人工智能的实现提供了基础,就像大脑皮层为人的智能提供了基础一样。目前的人工智能在某些缝隙领域的超强表现就类似于人专门训练了大脑皮层上某块脑区的结果,在某个领域很强,但人的智能是多脑区协作的体现。这种协作在自然界中是生物演化的结果,不知道通过工程学的方法能否设计出来,或者需要通过一定的设计让其“涌现”出来。

    • @hanhan-it5dp
      @hanhan-it5dp 7 месяцев назад

      我认为AGI绝对不能是通过人类的工程学来设计出来,而且人类永远也无法充分理解自身的智能的本源是什么。数据和暴力美学才是AGI的必由之路,因为人类的智能是几百万年来慢慢的训练进化而来的,而绝对不是由某个神设计出来的!

    • @janchangchou777
      @janchangchou777 7 месяцев назад +1

      任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….)。以便對一些事件做出精准智能的預測。所謂自我學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的參數而已。40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
      近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。因此也不用太誇大眼下的AI , 這些理論早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
      另外, 眼下AI 服務非專業大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
      其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 搞編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
      只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
      此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
      而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
      另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
      其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段, 把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
      其實生成式大模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
      因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
      但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
      未來可能的發展模式:
      1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
      有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
      2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦參與分散型算力的提供,並予以整合,這也是需由資訊及硬體工程來實現的。

  • @nonambition
    @nonambition 7 месяцев назад

    人类也是进化了很长时间,将所有的可能性都尝试过,最后剩下的我们~

  • @andyyeh75
    @andyyeh75 7 месяцев назад +2

    謝謝博主的分享,這就是為何特斯拉刪除了30萬行代碼

  • @zhaixiaoba
    @zhaixiaoba 7 месяцев назад +1

    感谢分享

  • @mengmeng4312
    @mengmeng4312 7 месяцев назад

    感谢大飞分享

  • @minglv
    @minglv 7 месяцев назад

    紧跟老大向前进。

  • @fenix20075
    @fenix20075 6 месяцев назад

    簡單說法就是在極高速的暴力盲撞下會打嬴智商從而得出更好的答案 XD

  • @back_to_the_future9187
    @back_to_the_future9187 7 месяцев назад +1

    Scaling Law is the only way to AI emergent.

  • @lipanpanx
    @lipanpanx 7 месяцев назад +6

    算力和存储是可以无限扩展的 AI的世界是无限大的 AI必将突破人类知识的牢笼 而不是把人类的有限知识奉为圭臬

    • @eee-jn1cu
      @eee-jn1cu 7 месяцев назад +2

      但他不是一種可以改變的架構 基礎決定了極限

  • @skyacaniadev2229
    @skyacaniadev2229 7 месяцев назад +3

    这篇文章还是有很多地方有待商榷,绝对没有到传世经典的境界,更多的是老一代神经网络大神终于可以发泄一下他们早期受到另一流派(Symbolic AI)的打压和恶心所受到的不公。😂

  • @honyeechua9670
    @honyeechua9670 7 месяцев назад +7

    活着,只是一次又一次地认识到自身的无知。谢谢!

  • @shisteven
    @shisteven 7 месяцев назад +3

    产生AGI的元方法,从符合最基本物理定律的认知,通过海量计算和搜索,“涌现”新的认知。在新的认知上反复迭代“涌现”,从而获得AGI

  • @jason11332
    @jason11332 7 месяцев назад +2

    謝謝,你對bitter lesson 的解說解決了我一個AI 應該用什麼方法訓練從而會算數的疑問

  • @dueuhskejdhdss
    @dueuhskejdhdss 7 месяцев назад +2

    獲益良多,謝謝大飛

  • @janchangchou777
    @janchangchou777 6 месяцев назад +1

    任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….)。以便對一些事件做出精准智能的預測。所謂自我學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的參數而已。40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
    近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。因此也不用太誇大眼下的AI , 這些理論早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
    何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。
    目前的AI 只是以數理統計為手段及方法論,以資訊及計算計工程為工具,進行數位型的經驗知識化的過程。人類有許多其他不同型態非常複雜的知慧,這種僅止於知識化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。
    另外, 眼下AI 服務非專業大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
    其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 搞編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
    只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
    此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
    而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
    另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
    其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段, 把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
    其實生成式大模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
    因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
    但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
    未來可能的發展模式:
    1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
    有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
    2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦參與分散型算力的提供,並予以整合,這也是需由資訊及硬體工程來實現的。

    • @Xxxyze
      @Xxxyze 6 месяцев назад +1

      謝謝 好奇您當年學完人工智能的數理統計後,你後來都從事什麼工作,有提前察覺到這個領域如今的蓬勃發展嗎?

    • @janchangchou777
      @janchangchou777 6 месяцев назад +2

      @@Xxxyze 我也是在從事電腦行業。其實眼下的蓬勃發展是假象。 不管怎麽發展,從事這𠆤領域研究工作的人不能不具備相關數理統計的知識,也不能缺少專家組對資料的專業的選定/收集/整理。而資訊程序員和電腦只是工具。特別在早期各專業領域內的中小模型的智能發展和恊作,編程只是工具。但當算力上來後,服務大眾的類搜索引擎的生成式及語言大模型,就變得可行了, 但不管怎樣可行,仍是以數理統計為核心,更龐大的專家組仍是關鍵。 只是這種大模型下算力變成稀缺的主要投資成本, 使得這些編程及硬體人員不得不高舉這𠆤旗幟來圈錢, 如果這些編程及硬體人員拿不出這些算力(如果由國家直接投資),他們在整個AI(CIC) 的發展上,根本算不上什麼角色。但這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆。

  • @patrickzhang-b3j
    @patrickzhang-b3j 6 месяцев назад +1

    博主看的远,突破人类的认知能力是AI崛起的机遇

  • @realshaoxin
    @realshaoxin 6 месяцев назад +1

    这期视频真经典. 我个人受益很多. 感谢.

  • @warriorOFdragon
    @warriorOFdragon 7 месяцев назад +1

    说得好 捕捉元方法 在其基础上进行高效益的优化

  • @zhengzhang9914
    @zhengzhang9914 6 месяцев назад +1

    谢谢,受益匪浅!

  • @akaiwon6594
    @akaiwon6594 6 месяцев назад +1

    摩爾定律不是要失效了嗎?這樣算力還能一直提升嗎?還有耗能也很重要吧,大家只看到AI比人類會下圍棋,卻對其恐怖耗能閉口不提。我們如何確認AI找到的真的是知識?比方之前說什麼AI破解了蛋白質的結構,但是後來好像並不是那麼一回事,我看有些報導形容跟亂猜差不多,不過也就沒人再報導,畢竟潑AI冷水的新聞不有趣也無法打擊人們自信(不過個人對這個報導實在感到很困惑,因為AI在比賽中以超高分奪冠是事實,但是後來投入實際工作怎麼完全不同?我都不禁懷疑比賽是不是作弊了或太好運)。總之,即使是我們要確認某個研究到底是不是知識,也並不容易,要怎麼知道AI找到的是知識?還是超耗能的幻覺呢?希望我們不會再用另一個70年發現這條路欲速則不達。

    • @zhchbob
      @zhchbob 5 месяцев назад

      你听说过先进封装吗?即使以后单个芯片无法作强,我们可以通过光芯片把多个芯片互联集群啊。此外还有量子计算也在飞速发展。所有scaling law还有巨大的空间。
      我们坚信AI能够拥有认知和推理的能力是因为人工神经网络同生物神经网络没有本质区别。唯一的区别是人工神经网络的可扩展性要远高于大脑,而大脑拥有节能的优势,但大脑也很可能为这个优势付出了很多算力代价。

  • @謝忠仁-t5r
    @謝忠仁-t5r 7 месяцев назад +2

    過去的想法/圖書 都是撞牆路 ?! 難怪…
    人類的辨識記憶,沒有特定儲存位置。
    是卷積再賦予 [訓練而得] 的標準答案 ?!
    燒腦課題,不是每個人都想深入學習。
    這想法上,直覺就很有道理 !! 唉 !!……
    就是苦澀 !! 難怪一歲幼童,額溫感覺
    就比較高,因為她每天都在套模學習。