【人工智能】“AI教父”辛顿为何担忧AI的未来 | 最新播客专访 | AI发展速度远超人类控制 | 欺骗人类 | 主观体验 | 智能和理性 | AI监管 | 快速权重调整 | 个人经历 | 中美对比

Поделиться
HTML-код
  • Опубликовано: 25 янв 2025

Комментарии • 57

  • @samwang7774
    @samwang7774 2 дня назад +3

    前排 支持大飞

  • @scchen2011
    @scchen2011 2 дня назад +2

    支持大飛哥🎉

  • @gemini_537
    @gemini_537 2 дня назад +3

    ❤辛顿教授的思维是按第一性原理,不拘泥于过去经验!相比之下,杨立昆肤浅得多,是一种经验思维,原先没有见过,那么将来也不可能!

    • @PeilinSong
      @PeilinSong День назад +1

      你的第一性原理是什么? 能不能稍微解释一下, 用辛顿的经历作为例子

    • @gemini_537
      @gemini_537 День назад +1

      @PeilinSong 简单说:只要不违反任何已知的物理定律(如光速限制),任何东西都是可能的。原先很多人认为“学习和推理是人类特有的”,因为没有见过会学习会推理的机器,但是第一性原理并不否认它的可能性,经过探索发现的确机器也可以。

    • @PeilinSong
      @PeilinSong День назад +1

      @ 谢谢。

    • @PeilinSong
      @PeilinSong День назад +1

      马斯克曾经说第一性原理就是不受parallel 的限制

  • @qdreams3772
    @qdreams3772 День назад +6

    辛頓似乎沒仔細看過彭羅斯的書啊,批評的相當膚淺。彭是用數理邏輯證明了數學家的思維是無法用經典計算完全複製的,跟數學家的直覺是否總是正確沒什麼關聯。即使人類思維和量子高度相關也並不排除經典計算中能產生一種在大部份情況下超越人類的智能。

  • @diskycn
    @diskycn День назад

    无论将来证明辛顿的观点是否正确,他的思维方式都是非常值得学习的。

  • @yuumi1509
    @yuumi1509 2 дня назад +2

    🎉感谢分享

  • @nonambition
    @nonambition 2 дня назад +7

    我比较认同新顿的观点。或许,大脑的神经元也类似于0和1的基本单元,通过眼睛、耳朵、触觉等感官输入外界信息,并在大脑中进行循环增强和学习,从而形成类似于当前大语言模型的函数权重。经过长期训练,大脑中的神经元参数群便能够形成我们如今复杂而完整的思维体系。
    不同的是,现阶段计算机的大语言模型主要依赖符号输入,而人类的感知是多模态的。因此,为了让计算机能够像人类一样感知真实的物理世界,它需要多模态的输入支持。

  • @user-jackpoter
    @user-jackpoter 2 дня назад +3

    Penrose:類神創論 Hinton:類機械論 😂😂😂😂😂

  • @林天勝-j7r
    @林天勝-j7r День назад +1

    Deepspeek:我只要夠開放就能解決這問題😂

  • @alexyoung3609
    @alexyoung3609 2 дня назад +7

    辛顿教授不仅聪明,而且具有大智慧👍只是,这世上,愚人太多,无论辛顿教授说的多么有道理,很多人都是牛,对牛弹琴,毫无意义。也许,这是人类这个物种本身具有的先天缺点,大脑的思维能力和思维模式不够好,无法识别和摈弃错误的认知,只能用情绪和情感的简化模式来理解世界和自身,从而只能做出有限的,错误的决策,无法总是做出正确的决策。😢

    • @zonezero3290
      @zonezero3290 2 дня назад +1

      你說的很好

    • @jackwang1234
      @jackwang1234 2 дня назад +1

      就让他们自生自灭吧,所有物种逃不脱的宿命😢

    • @蘇維明
      @蘇維明 День назад +1

      你牛b

  • @walkwall
    @walkwall День назад +2

    擔心是沒用的,語言模型背後的人工智能已經讓人類歷史過了分歧點
    只要AI被運用到戰爭中,所有你想施加的限制與監管,屆時都會灰飛煙滅

  • @kirinweiwei
    @kirinweiwei День назад +1

    Human consciousness, feelings, and emotions are fundamentally electrical signals produced by neurons in the nervous system-mathematical patterns of neural activity. Extending this idea, the universe itself might function like the electrical activity of a neuron, suggesting that reality is part of an immense, interconnected "cosmic nervous system" governed by mathematical laws. In essence, all of existence could be seen as a neural network, where everything-from thoughts to the cosmos-originates from electrical impulses.

  • @winnerzhu
    @winnerzhu 22 часа назад

    現在我的工作主要是time series learning. 我連搞個可以学习multi channel seasonality 的模型都没什么信心。 他就担忧AI取代人類,是我太樂觀了嗎?

  • @hiucollo2402
    @hiucollo2402 2 дня назад

    Thank you 大 飞 一口氣看到尾 看完再看 🏆 🏆☘ 🍉 🎆 😄 🌺 🀄 😃 💐 ☕ 🌸 😁 🏵 🎆🪅🎄 😀 🧧 🎉 😇 💮 🌺 😎 🎊 🏮 🍀 🎄 🏆 🏆

  • @Outerspace909
    @Outerspace909 День назад +1

    他長得真的很像星戰那個最終大反派 白浦庭

  • @kirinweiwei
    @kirinweiwei День назад +1

    Consciousness and the universe may both be electrical signals in a cosmic neural network-math and electricity defining existence itself.

  • @WaterMaitreya
    @WaterMaitreya 2 дня назад +2

    请问“数字计算”和“模拟”计算的英文是什么?谢谢!

    • @bestpartners
      @bestpartners  2 дня назад +2

      digital computation / analog computation

    • @WaterMaitreya
      @WaterMaitreya 2 дня назад +1

      @@bestpartners 非常谢谢

    • @toh81390
      @toh81390 2 дня назад +1

      @@bestpartners 數位計算/類比計算

    • @proulxes
      @proulxes 6 часов назад

      怎麼翻成 數字 與 模擬? 應該翻成 數位 與 類比

  • @kahoauyeung4819
    @kahoauyeung4819 День назад +1

    The last point about consciousness is not valid if the sign language can be translatable between human to human, and animal to human. Of course there are system in the sign language but the logic in the sign can make sense without knowing Chinese and English

  • @sleeaxly4242
    @sleeaxly4242 2 дня назад +1

    别老是说T700,为什么不可以是IG11?😂

  • @1110-d3r
    @1110-d3r 2 дня назад +1

    🎉🎉🎉❤❤❤

  • @bominzhang6732
    @bominzhang6732 2 дня назад +1

    人类目前在文明中的主宰地位不是一种必然/本就应该,而是一种价值实证。
    不要让自己对于human centric的渴求影响到对于现实可能的判断。没有什么“AI本就不能做到XX人类能做的事物“。

  • @ethanz3153
    @ethanz3153 День назад +3

    这老头是一边放火一边拉火警,超级分裂啊

  • @兜兜-j6e
    @兜兜-j6e 2 часа назад

    辛顿教授居然也看过 马基亚维利

  • @tamoc2354
    @tamoc2354 11 часов назад

    真随机数的产生要用到量子力学。人的大脑很可能真的用到了量子力学。将来的AI可能是数字计算机和量子计算机的结合。Penrose和Hinton的理论各有可取之处。

  • @憨憨姆
    @憨憨姆 5 часов назад

    中国ai已经很厉害了,很多ai方向的博士生大部分都是中国人

  • @alexzhang5971
    @alexzhang5971 18 часов назад

    那我们到底是不是 神工智能?

  • @refshg4726
    @refshg4726 20 часов назад

    他对主观体验的理解是错的。不是AI能够表达自己看到了错误位置的信息就叫主观体验了。即使创造了一个能够完全模仿人类行为的机器,目前都没办法判断这个机器有没有自己的主观体验,这是心智领域目前最困难的问题。

  • @wugraver
    @wugraver 2 дня назад +2

    我觉着老爷子想多了😂😂

    • @hzc54188
      @hzc54188 2 дня назад

      这个老家伙在胡说八道呢!从p2p到网盘,从搜索引擎到大模型,本质上是公网的私有化!就是一个肉喇叭而已

  • @janchangchou777
    @janchangchou777 2 дня назад +4

    以算力方主導的生成式AI , 尤其是辛頓搞的這套,方向及方法都嚴重誤導,已撞大牆了。 辛顿根本不懂統計學, 數字計算是指存在大量的資料所採用的手法,模擬(simulation ) 計算,在一些試驗很難取得大量資料, 如核暴,飛機失事等等只有小樣本,數據很少,只得用少量數拈加上專業理論參數進行電腦產生模擬數拈進而對模型進行穩固推導, 這是不同情境下採取的不同分析手段。因此辛頓這些算力主導的生成式AI ,根本不懂數理統計,完全沒有未來,何來的擔憂。 最應擔憂是產業專家組主導的AI , 他們最清楚取那些資料變量才是有效的,其所開發的模型才是最精準的,他們也最清楚如何正確使用,以及如何違法使用!
    Part 4)
    眼下(2025/1/15)生成式大模型的倡導人,Open AI 前首席技術官 Ilya , 終於承認了眼下生成式大模型撞牆了!
    看這報導,
    ruclips.net/video/CNSMgeS6DnM/видео.htmlsi=Yq7sX5N_MotIMdLr
    這真是太搞笑了,美國這些AI 算力提供方, 不斷吹虛忽悠生成式AI 及相應的硬體及晶片, 除了忽悠拿到美國本土投資資金, 也把美國政府給忽悠了,真把眼前生成式大模型及相關硬體當做戰略優勢武器而予以管制出口(2025-1月), 最終反而限制了美國這些大忽悠的全球銷售的騙局。
    許多專業領域的AI 很早就開始做了,而且做的很好很成功。 目前台面上的AI , 是指生成式AI( 時間序列高度相關的), 這是兩碼事。
    AI 別隨著美國起舞,無論方法上及方向上,目前台面上這些以資工leading 生成式AI 的美國AI 發展已完全走偏撞大牆了。
    目前以資工leading 生成式AI , 這群碼農也太批蛋了。
    1) 利用40年前已完善的數理統計( 㢠歸分析及時間序列高度相關變數的自迥歸分析。 ) 2) 包裝𠆤高大上的類人類神經網路的偷盜慨念。3) 藉由半導體科技的算力。
    完全沒有任何創新的欺世盜名妥妥的碼農( 程序員)居然能拿諾貝尔物理奬。
    物理學家/ 數學家您們睡著了嗎?!居然能容忍這等離譜偷盜者的獲奬。
    另外我以前一些同學,現仍在美國Google 參與相關大模型工作,拈他們告知我的小道未經證實的消息。
    1) Google 在這方面付了大筆的學費。
    2) Google 養了全世界各產業領域的頂流專家, 特別是語言學家,參與相關建模。
    3) OPen AI 及近期獲諾奬的加拿大教授, 這師徒們,從Google 弄走了不少錢。 最後Google 看穿了,不得不將Open AI 這些人從Google 割出去。
    而李非非近期也搞𠆤digital cousin 數字表親, 根本就是小樣品摸擬實驗:
    這也不是什麼新方法和新手段。 在數理統計中40 年前早就有的手段。
    這些碼農一而再再而三的把數理統計的成熟手段,拿來搞什麼AI 新技術。並給𠆤新名詞進而宣稱是創新,太扯蛋了!
    我在40 年前的博士論文就是在
    針對小様品試驗進行電腦模擬試驗。如核爆/ 飛機失事等等,在現實情況下很多領域只能取得非常有限的小様品數據,因此針對這些小樣品試驗我們就會引入模擬試驗的手段和方法, 並進而利用這些電腦模擬數據,最終做出穩定可靠的預測模型。
    nature 有關AI 近期訊息:
    ruclips.net/video/kp6eiyRBFlM/видео.htmlsi=2sKWhTVx3qecNvJ4
    這𠆤問題很容易理解。
    當我們的需求是專業有限變數的問題, 如股票決策/ 海洋及気象動力/ 無人架駛/ 化學工程/ 土木工程/ 等等,許多專業的有限變數, 這些已建立完成很長一段時間模型的精準度非常高。
    而大語言模型想要用海量變數去涵蓋這些專業模式,其自然的結果就是錯誤率極高。
    也就是說針對專業有限變數模型,那些大語言模型的99% 變數不旦是垃圾, 還是有毒害的垃圾。
    因此使用AI 一定要知道什麼問題什麼場景使用什麼模型。
    ruclips.net/video/vG013hWAZwc/видео.htmlsi=NDA12ZYY4hCIg_C5
    ruclips.net/video/XffDExSYIOA/видео.htmlsi=4OZ7WUrlQRCcw-KP
    AI 發展的3 大組成; 各產業領域的專家,建模數理理論,算力編程的提供及組織。
    這就是我早就預見
    如果由算力或資訊工程來主導AI ,外行領導內行,將會走的很偏很快撞牆
    再看看這一報導,今天的結果,在我今年(2024 )初的part 1) 2) 3) , 先前的論述中都精準的表達過。
    ruclips.net/video/ojndlMzGZZk/видео.htmlsi=wuEqsPUOzxuPrcRR
    目前(2024-10 月)生成式大模型 AI 的發展基本撞牆了。 由 資工主導的必然性- 泡沫化, 已確定了。 因為以上三份報告都是非常權威的。
    再看看這份報告:弄出人命了!
    陪聊AI 沒有心理咨詢醫生做專業恊助/ 溝通/ 警示/ 防範等等, 由碼農直接單幹,太多的心理專業知識手段應對都沒有投入,是造成這事件背後的主因!
    ruclips.net/video/yNZsC7zvTgw/видео.htmlsi=_RK7ZM6Xaa_oQn7E
    這就是我在個人相關分享中 part 3) 談及的;
    AI的健康發展是以各領域專業專家組為主導,數理統計為核心,編程及算力只是工具,否則用提供算力及工具的這些人來leading AI 發展,會形成外行領導内行,並為AI 發展種下低效偏差甚至高風險的發展。
    譬如新藥開發/氣象預報/各種不同語言等等都是以領域專家為核心,否則就亂套了。
    更可行的作法, 各國加緊立法,用國家特准许可的方式,來認證並核准各領域不同應用AI 的開發許可及成效認證,譬如目前自動駕駛這領域,不能僅憑廠家自行認證,必需由國家相關單位認證,納入國家法規制約。其實其他領域也應該如此,即便服務大眾的生成式大模型也要納入規範管理,絕對不能任由AI 公司自行任意發佈,一個小電器產品都需有関認證,才能上市銷售,目前AI 大模型實在是太無序了,AI 公司任意上市推出由市場決定其優劣,客戶當白老鼠,完全沒有任何管理約束機制。
    任何AI 應用開發的公司,必須有相關該應用領域專業專家為主導,及數理統計的人員的參與,如果沒有通過這些人員資質審核要求的公司或團隊,一律不得從事AI 開發及應用工作。否則視為違法。如同醫師證照,沒證照的醫師坐診,診所如何能執業?!
    建立政府職能的審核監管制度,才能防止並追蹤AI 的錯誤使用/ 違規使用/違法使用, 也進而能排除人們對AI 發展造成危害人類的擔憂。
    再看看下面報導:
    ruclips.net/video/TRxYKidqY8E/видео.htmlsi=ukFmC8XGPa17d6It
    ruclips.net/video/mXlaAto1qx0/видео.htmlsi=B_gy3Uq8JXOM2NF8
    ruclips.net/video/uPZ-eyDyo4A/видео.htmlsi=AL1EkqW7uM1EhpQh
    AGI 基本就是建立一套從千萬上億 由領域產業專家建立的專業小模型進行徵用的智能機制(藉由針對使用者一些基本需求的梳理,形成分門別類確立問題的機制)不能一昧的用大模式(發散式包攬所有)。
    其實人類的思維也是如此,先確定問題是屬於那𠆤範籌,再從我們的大腦內調出已確認範籌的相關知識及經驗進而進行各種響應。
    生成式大模型,只適用於sequences 高度相關的時間序列資料分析。 如語言文字前後字文分析,圖像點分析或是語音樂律分析等等。不可盲目外延。

    • @janchangchou777
      @janchangchou777 2 дня назад +1

      Part 4)
      眼下(2025/1/15)生成式大模型的倡導人,Open AI 前首席技術官 Ilya , 終於承認了眼下生成式大模型撞牆了!
      看這報導,
      ruclips.net/video/CNSMgeS6DnM/видео.htmlsi=Yq7sX5N_MotIMdLr
      這真是太搞笑了,美國這些AI 算力提供方, 不斷吹虛忽悠生成式AI 及相應的硬體及晶片, 除了忽悠拿到美國本土投資資金, 也把美國政府給忽悠了,真把眼前生成式大模型及相關硬體當做戰略優勢武器而予以管制出口(2025-1月), 最終反而限制了美國這些大忽悠的全球銷售的騙局。
      許多專業領域的AI 很早就開始做了,而且做的很好很成功。 目前台面上的AI , 是指生成式AI( 時間序列高度相關的), 這是兩碼事。
      AI 別隨著美國起舞,無論方法上及方向上,目前台面上這些以資工leading 生成式AI 的美國AI 發展已完全走偏撞大牆了。
      目前以資工leading 生成式AI , 這群碼農也太批蛋了。
      1) 利用40年前已完善的數理統計( 㢠歸分析及時間序列高度相關變數的自迥歸分析。 ) 2) 包裝𠆤高大上的類人類神經網路的偷盜慨念。3) 藉由半導體科技的算力。
      完全沒有任何創新的欺世盜名妥妥的碼農( 程序員)居然能拿諾貝尔物理奬。
      物理學家/ 數學家您們睡著了嗎?!居然能容忍這等離譜偷盜者的獲奬。
      另外我以前一些同學,現仍在美國Google 參與相關大模型工作,拈他們告知我的小道未經證實的消息。
      1) Google 在這方面付了大筆的學費。
      2) Google 養了全世界各產業領域的頂流專家, 特別是語言學家,參與相關建模。
      3) OPen AI 及近期獲諾奬的加拿大教授, 這師徒們,從Google 弄走了不少錢。 最後Google 看穿了,不得不將Open AI 這些人從Google 割出去。
      而李非非近期也搞𠆤digital cousin 數字表親, 根本就是小樣品摸擬實驗:
      這也不是什麼新方法和新手段。 在數理統計中40 年前早就有的手段。
      這些碼農一而再再而三的把數理統計的成熟手段,拿來搞什麼AI 新技術。並給𠆤新名詞進而宣稱是創新,太扯蛋了!
      我在40 年前的博士論文就是在
      針對小様品試驗進行電腦模擬試驗。如核爆/ 飛機失事等等,在現實情況下很多領域只能取得非常有限的小様品數據,因此針對這些小樣品試驗我們就會引入模擬試驗的手段和方法, 並進而利用這些電腦模擬數據,最終做出穩定可靠的預測模型。
      nature 有關AI 近期訊息:
      ruclips.net/video/kp6eiyRBFlM/видео.htmlsi=2sKWhTVx3qecNvJ4
      這𠆤問題很容易理解。
      當我們的需求是專業有限變數的問題, 如股票決策/ 海洋及気象動力/ 無人架駛/ 化學工程/ 土木工程/ 等等,許多專業的有限變數, 這些已建立完成很長一段時間模型的精準度非常高。
      而大語言模型想要用海量變數去涵蓋這些專業模式,其自然的結果就是錯誤率極高。
      也就是說針對專業有限變數模型,那些大語言模型的99% 變數不旦是垃圾, 還是有毒害的垃圾。
      因此使用AI 一定要知道什麼問題什麼場景使用什麼模型。
      ruclips.net/video/vG013hWAZwc/видео.htmlsi=NDA12ZYY4hCIg_C5
      ruclips.net/video/XffDExSYIOA/видео.htmlsi=4OZ7WUrlQRCcw-KP
      AI 發展的3 大組成; 各產業領域的專家,建模數理理論,算力編程的提供及組織。
      這就是我早就預見
      如果由算力或資訊工程來主導AI ,外行領導內行,將會走的很偏很快撞牆
      再看看這一報導,今天的結果,在我今年(2024 )初的part 1) 2) 3) , 先前的論述中都精準的表達過。
      ruclips.net/video/ojndlMzGZZk/видео.htmlsi=wuEqsPUOzxuPrcRR
      目前(2024-10 月)生成式大模型 AI 的發展基本撞牆了。 由 資工主導的必然性- 泡沫化, 已確定了。 因為以上三份報告都是非常權威的。
      再看看這份報告:弄出人命了!
      陪聊AI 沒有心理咨詢醫生做專業恊助/ 溝通/ 警示/ 防範等等, 由碼農直接單幹,太多的心理專業知識手段應對都沒有投入,是造成這事件背後的主因!
      ruclips.net/video/yNZsC7zvTgw/видео.htmlsi=_RK7ZM6Xaa_oQn7E
      這就是我在個人相關分享中 part 3) 談及的;
      AI的健康發展是以各領域專業專家組為主導,數理統計為核心,編程及算力只是工具,否則用提供算力及工具的這些人來leading AI 發展,會形成外行領導内行,並為AI 發展種下低效偏差甚至高風險的發展。
      譬如新藥開發/氣象預報/各種不同語言等等都是以領域專家為核心,否則就亂套了。
      更可行的作法, 各國加緊立法,用國家特准许可的方式,來認證並核准各領域不同應用AI 的開發許可及成效認證,譬如目前自動駕駛這領域,不能僅憑廠家自行認證,必需由國家相關單位認證,納入國家法規制約。其實其他領域也應該如此,即便服務大眾的生成式大模型也要納入規範管理,絕對不能任由AI 公司自行任意發佈,一個小電器產品都需有関認證,才能上市銷售,目前AI 大模型實在是太無序了,AI 公司任意上市推出由市場決定其優劣,客戶當白老鼠,完全沒有任何管理約束機制。
      任何AI 應用開發的公司,必須有相關該應用領域專業專家為主導,及數理統計的人員的參與,如果沒有通過這些人員資質審核要求的公司或團隊,一律不得從事AI 開發及應用工作。否則視為違法。如同醫師證照,沒證照的醫師坐診,診所如何能執業?!
      建立政府職能的審核監管制度,才能防止並追蹤AI 的錯誤使用/ 違規使用/違法使用, 也進而能排除人們對AI 發展造成危害人類的擔憂。
      再看看下面報導:
      ruclips.net/video/TRxYKidqY8E/видео.htmlsi=ukFmC8XGPa17d6It
      ruclips.net/video/mXlaAto1qx0/видео.htmlsi=B_gy3Uq8JXOM2NF8
      ruclips.net/video/uPZ-eyDyo4A/видео.htmlsi=AL1EkqW7uM1EhpQh
      AGI 基本就是建立一套從千萬上億 由領域產業專家建立的專業小模型進行徵用的智能機制(藉由針對使用者一些基本需求的梳理,形成分門別類確立問題的機制)不能一昧的用大模式(發散式包攬所有)。
      其實人類的思維也是如此,先確定問題是屬於那𠆤範籌,再從我們的大腦內調出已確認範籌的相關知識及經驗進而進行各種響應。
      生成式大模型,只適用於sequences 高度相關的時間序列資料分析。 如語言文字前後字文分析,圖像點分析或是語音樂律分析等等。不可盲目外延。

    • @janchangchou777
      @janchangchou777 2 дня назад +2

      Part 1):
      任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。
      所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。
      而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。
      40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。
      在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
      近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。
      因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。
      ”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
      何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。
      目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。
      人類有許多其他不同型態非常複雜的智慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。
      另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
      其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
      只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
      此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
      而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。

    • @janchangchou777
      @janchangchou777 2 дня назад +2

      Part 2):
      另外面對服務大衆的生成式服務,也是要面對大衆各種不同的需求,因此其所需處理消化的資料也是天文數字的龐大,也要各行各業領域專家介入協助指導進而形成並建立大模型。
      其實生成式AI 可以理解成升級版的超級搜索引擎,傳統的搜索引擎,用関鍵字/詞,從數據庫內匹配/找出並羅列出可能所需資訊,現在進步升級到如果你給出更具體規範的需求,系統就能從數據庫內拼湊出並提供更完整的接近最終需求的服務內容。這只是把過往已存在的數據庫(已長年經各行業領域專家組維護並梳理過的)更完善的整理優化後予以呈現。而這𠆤更完善的過程使用了大量多層次的統計數字分析的手段。
      ****主要在處理序列性高度相關的語言陳述序列,圖像高度相關的像素點関係以及音樂弦律的序列呈現。
      相應數理統計的手段主要是使用高度相関的時間序列分析自㢠歸建模。
      把這個完善化的過程誇大的比擬成人類的思考及智慧(其誇大的目的-圈錢),將造成極大的誤導。
      其實生成式大模型(語言/ 圖像/ 音樂等時間序列高度相關資料)所建立的預測模型, 就是用即存服務於大衆的大型搜索的資料庫,如google , Bing 等等,以數理統計的時間序列分析為核心,結合資訊工程及硬體工程為工具,而進行更貼切於使用者需求的優化過程和結果。所以生成式大模型最終會回到過往提供搜索服務的大型公司的對決。
      因此CIC 或是AI 是以特定領域專家組為主導,數理統計為核心,資訊工程及硬體工程都是配合的工具而已。 這樣的發展才會健康/ 不浪費/ 高效率/ 高精確度。
      但目前的發展方式, 以資訊工程及硬體工程來主導開發服務大衆的大模型,只是因為這方面天文級別的龐大算力需大資本投入,這是一𠆤比較理想的快速盈利回報的營運方式,但這種情況就會造成眼下嚴重的誤導及錯誤的認知,沒有效率及喪失精準度,甚至如當下出現諸多以提供算力及編程服務的所謂AI 公司出面圈錢的亂象。
      其實眼下的蓬勃發展是假象。 不管怎麽發展,從事這𠆤領域研究工作的人不能不具備相關數理統計的知識,也不能缺少專家組對資料的專業的選定/收集/整理。而資訊程序員和電腦只是工具。特別在早期各專業領域內的中小模型的智能發展和恊作,編程只是工具。但當算力上來後,服務大眾的類搜索引擎的生成式及語言大模型,就變得可行了, 但不管怎樣可行,仍是以數理統計為核心,更龐大的專家組仍是關鍵。 只是這種大模型下算力變成稀缺的主要投資成本, 使得這些編程及硬體人員不得不高舉這𠆤旗幟來圈錢, 如果這些編程及硬體人員拿不出這些算力(如果由國家直接投資),他們在整個AI(CIC) 的發展上,根本算不上什麼角色。但這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆。
      這些搞編程所謂AI 專家,其看待事物的内容實在令人啼笑皆非。
      譬如: 看到報導某AI 頂流科學家,其模型在AI 大賽中,以16%失誤率, 遠勝於另 一AI 大佬的23% 失誤率,而得到冠軍。
      a)殊不知數理統計迥歸分析的誤差要求是5% 甚至到3% , 一個誤差率高達16% 的模型,居然可以拿出來比賽甚至取得冠軍, 真不知這羣頂流AI 的外星兼外行的科學家在玩什麼遊戲?!
      b)人類智慧的誤失率基本都趨近於零。
      任何事務的成果,都不是線性的。 這群AI 科學家居然誤導性的告知世人,宣稱他們現在誤差率已達16 % , 他們離成功不遠了。
      殊不知任何人學習或做事務的成果,達到90 分是很容易的,只要多付出就可輕易達成,但90-100 分,那完全不是和努力付出成正比的,那是和天份及其他綜合因素有関,90 分後要再成長其難度是巨大非線性的。
      人工智慧的誤失率16% 要成長到 人類智慧的0% 誤失率,給其500 年都難以達到。
      另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式或進行矩陣相乘。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積或是乘積和。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
      GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片, 或是Tesla 的針對矩陣暴力運算的NPU 。英偉達的GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 算力工作,則晶片設計可採用其他非常簡化有效率的方式,而且成本便宜很多。
      未來可能的發展模式:
      1) 資訊及硬體工程提供集中算力設備及模型編程的開放平台,供各領域的專家組使用。
      有點像當下晶片產業,各應用領域產業由專家組組成公司後,進行各領域的智能開發和應用(如晶片應用的design house,聯發科,海思等 ) , 而算力的提供及收費則由資訊及硬體工程提供(這需要密集资本投入,甚至國家力量投入,如台積電)。
      2) 由於網路的高度發展, 另外一種提供龐大算力的方式,是由巨量萬家萬戶閒置PC 𠆤人電腦,各類雲,工作站甚至各𠆤大模型參與分散型算力的提供,恊作,整合,這也是需由資訊及硬體工程來實現的。

    • @janchangchou777
      @janchangchou777 2 дня назад +2

      Part 3)
      另外希能進一步說明為何這一輪由算力提供方來主導的AI 發展,將會走得很偏,而且會很快撞牆?
      除在Part 2) 談及眼前這些所謂台面頂流AI 專家或團隊,粘粘自喜於眼前所謂模型誤失率16% , 殊不知在很多專業領域,16% 的誤失率,那可能帶來災難( 金錢損失, 人員傷亡, 大自然破壞) ! 例如,自動駕駛,氣象預報,股票期貨買賣決策等等。即便生成式模型,其誤失也可能帶給人們直接或間接的損失或傷害。
      若不是由領域產業專家參與並主導的建模,要突破10% 誤失率,是極其困難的。
      我說𠆤故事(不是在炫耀自己的賭技),大家也就明白領域產業專家的重要性。
      我2000 年在香港公司上班, 每兩周回深圳家一趟, 每雙周末回深圳前,我會帶2 萬港幣去澳門葡京玩輪盤,每回我嬴到10 萬就走人,由珠海回深圳, 我次次去次次嬴,從沒輸過。
      這就是有專業領域人員恊助的建模,誤失率很低,回報很高(投入少收益高)。
      機率論是認為發生機率的事件是背後有些不明的隱變數,如果把這些隱變數儘可能的説明白,讓機率性的發生現象就會變得越來越小。
      簡單的說,一個銅板正反面,前十次都開正面,第十一次開正還是反,數學家據於機率論的真蒂,告訴你一定開正面。因為從前十次已看出存在開出正面的未知隱變量。但一般人仍會認為正反各一半機率,甚至有人會錯誤認為連開那麽多次正面,這次肯定會開反面。
      我玩輪盤下注前,一定會找現場的賭友看一下他們記錄卡上先前及近期是否有某𠆤特定數字常開出,若沒有,我會忍住不下注。一旦出現連續常開數字,我就立刻下注押這常開數字,以及輪盤面靠這數字左右各兩組數字,共5𠆤數字, 基本中率非常高, 可達到20% 押中率, 20% x35(賠率)/ 5( 押注數), 我每玩五次總投入是25 中一次賠35。 賺10 。 基本上2-4 小時達標10 萬港幣走人。
      1)其實在現場賭友記錄卡上先前中球的數字就是領域產業專家去掌握數據的過程。
      2) 我會解讀機率論,因此也是玩輪盤的專家。
      因此我玩輪盤,就是具專業知識參與的領域產業專家, 另外我的投注策略,就是我建的模。
      而眼前台面以算力為主導的AI專家,因為他們手上握有大量的算力籌碼,因此他們是次次都36 𠆤號碼全押, 所以次次都中, 但是每次總輸一𠆤籌碼。 這種暴力的押法, 就是沒有引入產業專家的結果。大量浪費算力在無味的押注上。基本上不是大力出奇蹟, 而是大力出爛成績。
      另外眼前生成式大模型,最大的資料來源是取自提供搜索引擎服務的大型公司的資料庫。
      而這些資料庫的data base 早已經過各行各業領域產業專家幾十年投入,進行維護梳理,並進行了多維度的數位標記。
      因此目前生成式大模型真正的主要貢獻者是,各行各業領域產業專家幾十年的投入,進行維護梳理,並進行了多維度的數位標記。
      所以缺乏產業領域專家主導,而由算力提供方來主導的AI 發展,可預見的是將會走得很偏,而且會很快撞牆!
      AI 的良性發展, 不是靠蠻力的大力出的爛成績。(把算力浪費在一些関聯性不高的變數上,不當不專業的取定變數)
      而是要靠產業專家的巧力進而形成的大力出的好成績(奇蹟)。
      Nature刊发最新研究 ,目前當紅4 大语言模型, 参数越大越不可靠! 简单任务更容易出错, 誤失率高達40%
      這𠆤問題很容易理解。
      當我們的需求是專業有限變數的問題, 如股票決策/ 海洋及気象動力/ 無人架駛/ 化學工程/ 土木工程/ 等等,許多專業的有限變數, 這些已建立完成很長一段時間模型的精準度非常高。
      而大語言模型想要用海量變數去涵蓋這些專業模式,其自然的結果就是錯誤率極高。
      也就是說針對專業有限變數模型,那些大語言模型的99% 變數不旦是垃圾, 還是有毒害的垃圾。
      因此使用AI 一定要知道什麼問題什麼場景使用什麼模型。
      AGI 必須建立一套專業模型徵用的智能機制。不能一昧的用大模式。
      AI的健康發展是以各領域專業專家組為主導,數理統計為核心,編程及算力只是工具,否則用提供算力及工具的這些人來leading AI 發展,會形成外行領導内行,並為AI 發展種下低效偏差甚至高風險的發展。
      譬如新藥開發/氣象預報/各種不同語言等等都是以領域專家為核心,否則就亂套了。
      更可行的作法, 各國加緊立法,用國家特准许可的方式,來認證並核准各領域不同應用AI 的開發許可及成效認證,譬如目前自動駕駛這領域,不能僅憑廠家自行認證,必需由國家相關單位認證,納入國家法規制約。其實其他領域也應該如此,即便服務大眾的生成式大模型也要納入規範管理,絕對不能任由AI 公司自行任意發佈,一個小電器產品都需有関認證,才能上市銷售,目前AI 大模型實在是太無序了,AI 公司任意上市推出由市場決定其優劣,客戶當白老鼠,完全沒有任何管理約束機制。
      任何AI 應用開發的公司,必須有相關該應用領域專業專家為主導,及數理統計的人員的參與,如果沒有通過這些人員資質審核要求的公司或團隊,一律不得從事AI 開發及應用工作。否則視為違法。如同醫師證照,沒證照的醫師坐診,診所如何能執業?!
      建立政府職能的審核監管制度,才能防止並追蹤AI 的錯誤使用/ 違規使用/違法使用, 也進而能排除人們對AI 發展造成危害人類的擔憂。
      另外這也和在Part 2) AI 產業發展形成呼應。
      AI 發展的3 大組成; 各產業領域的專家,建模數理理論,算力編程的提供及組織。
      此外,最讓人擔心的應該是產業領域專家組主導的AI 開發, 他們開發AI的效率及精度都是最高的,而且他們非常淸楚如何使用及駕馭它,也因此容易造成有心人藉此做出違法犯罪甚至傷害人類的事。
      而算力提供者主導的AI 開發,往往效率及精度都比較差,頂多只是多浪費點資源,失誤率高點,但傷害性不強。
      大家思考一下,我們該擔心AI 算力提供者弄出來的作戰機器人,還是該擔心軍方專業人士主導開發的作戰機器人?!
      特別是在敏感的專業領域,如核暴/氣象/大気動力/海洋動力/基因工程等等,我記得40 多年前,這些參與CIC(AI)建模的產業專家組人員,基本都被政府列管登記在冊。
      因此整𠆤AI 產業的發展, 政府必須義無反顧的出面建立審核/ 監管機制,這樣才能確保有序/ 健康的發展。 而眼前無序的亂象也得以解決。

    • @tianxia6004
      @tianxia6004 21 час назад

      遇见一个懂点技术的人了。

  • @proud_chinese_traitor
    @proud_chinese_traitor 2 дня назад +13

    特朗普大大废除所有担心AI安全的禁令,功德无量

    • @poyih
      @poyih 2 дня назад

      @@proud_chinese_traitor 跟中国对等而已,中国也没限制啊。只能说潘多拉魔盒打开后就不可能关上

  • @junhongzou2717
    @junhongzou2717 2 дня назад +1

    什么时候可以不用工作😂,夸星系殖民

    • @user-lb1yq2xy9g
      @user-lb1yq2xy9g День назад +2

      不可能的 人工智能都掌握在顶级富豪的手里 他们赚的再盆满钵满也不会分配给穷人