黄仁勋还有多少「核弹」没释放?深度解读英伟达B200 GPU

Поделиться
HTML-код
  • Опубликовано: 10 янв 2025

Комментарии • 244

  • @DiedLiu
    @DiedLiu 9 месяцев назад +26

    最後的一段話是重點,訓練部分目前看來Nvdia GPU是可預見未來內看不到對手,但是推理部分,不同架構競爭對手是有機會搶市場的。

    • @Dragon_k9
      @Dragon_k9 3 месяца назад

      英伟达已经占据市场太大的份额,它倒台单凭新型产物是很难实现的,市场的垄断和技术的提升方面以及大众的需求等都是需要考虑到的因素,苍蝇不叮无缝蛋,顺其自然就好,你觉得呢朋友?

  • @dragonfuintw88
    @dragonfuintw88 9 месяцев назад +16

    老黃說了~~新的GB200的能力~~ 訓練即是推理~~上季財報推理能力的市占40%以上~~加上輝達自家開發已久~~越來越多功能的軟體服務的護城河~~別家要做出比的過輝達GB200的推理能力~~是有可能? 但是要花多久時間~~花多少錢完成? 使用上順不順? 穩不穩定? 有多少客戶能冒險接受輝達以外的產品?

    • @yun-chenyen2834
      @yun-chenyen2834 9 месяцев назад +4

      CUDA第一個版本是2007年,目前大多數AI訓練推理都是用CUDA在nVidia的產品上跑,想必使用者編寫程式也會繞著CUDA下去優化。後面若有競品出現,他的客戶必須放棄以CUDA為核心開發程式的成本,那競品非得要有更好的效用才值得客戶變更使用。

    • @frank.li.0912
      @frank.li.0912 3 месяца назад

      傻逼

  • @yu-mingchang2256
    @yu-mingchang2256 9 месяцев назад +21

    大劉真的牛,謝謝你的解說

  • @weiyi0609
    @weiyi0609 9 месяцев назад +14

    B100 根據黃的說法是訓練推理都能用 而且nvda也有能力為顧客客製晶片(ASIC)
    NVDA成本那麼低利潤那麼高 到时就算有竞争,只要降一降價競爭者也難存活 当然各大云计算业者也会想养第二个供应商(AMD 或自家ASIC) 不能让NVDA随意开价

    • @鄭先勇
      @鄭先勇 9 месяцев назад +4

      重點是生態系....他的CUDA已經形成
      其他的對手現在根本還在想著怎麼繞開
      更不用說客製化ASIC.......也是用自家生態系客製化給特殊廠商

    • @chientehsu4423
      @chientehsu4423 9 месяцев назад +1

      成本(不包含研發),真的利潤很高欸

    • @suihongki3280
      @suihongki3280 9 месяцев назад

      @@鄭先勇 推理晶片需要用到CUDA?

    • @Sun-lf5hn
      @Sun-lf5hn 9 месяцев назад +2

      還得看台積電有沒產能

    • @kop5276
      @kop5276 9 месяцев назад

      台積電一堆智障主管在搞內鬥 無言

  • @johnroberts5225
    @johnroberts5225 8 месяцев назад +2

    真心希望大刘聊聊看好的ai 公司,万分感谢

  • @cywei3529
    @cywei3529 9 месяцев назад +4

    非常有幫助的視頻 感謝分享

  • @vvikimo
    @vvikimo 9 месяцев назад +10

    厲害,
    超流暢啊。

  • @Mems12342
    @Mems12342 9 месяцев назад +6

    這種兩個die整合成一個晶片是基於台積電的封裝技術!以前的AMD 的64核CPU,是由8個8核die與1個IO die整合而成, 台積電的CoWoS技術能整合Chiplet技術發展很久了,以後8個互連對台積電來說也可以克服...

    • @阿才-f1x
      @阿才-f1x 9 месяцев назад

      謝謝你
      不然我都不知道

    • @KelvinKMS
      @KelvinKMS 9 месяцев назад

      雖然說是整合,但是之前每一個 die 是有間距的,這個 B200 是直接拼接在一起,性能上更強 !! 延遲極低 !!

    • @Mems12342
      @Mems12342 9 месяцев назад

      @@KelvinKMS沒有直接拼接,也是CoWoS製程設計,都是2.5D封裝

  • @徐志達
    @徐志達 9 месяцев назад +1

    可能到後來AI處理架構的解決方案也會類似之前CPU的複雜指令和精簡指令之爭一樣-架構合併,一處理器中含有多種處理單元,各自在擅長領域運行,共同完成運算。

  • @jammiec.4612
    @jammiec.4612 9 месяцев назад +23

    8:15 总之就是一个字--大力出奇迹🤣

  • @boonsingthia2336
    @boonsingthia2336 9 месяцев назад +4

    希望大劉可以cover推理部分,能够和nvida競爭的是那些架構。

  • @Wanise1987
    @Wanise1987 9 месяцев назад +5

    非常清楚❤

  • @LawzSkull
    @LawzSkull 6 месяцев назад

    大刘真棒,你是第一个讲解NVDA 在 Inference 架构缺点的,围绕这一点可以讲的更好一细一点吗?市场上现在都是说 NVDA多牛逼,我更想知道这家公司面临的挑战是什么?有没有其他竞争对手有超越潜力,和NVDA 如何应对挑战。谢谢

  • @licson0729
    @licson0729 9 месяцев назад +1

    不知道怎麼看待新的 Cerebras WSE-3 呢?他耗電量是 DGX GB200 NVL72 的 1/5 但是算力基本上一樣呢 模型訓練能力最高能到 24T 參數的

  • @hzm779
    @hzm779 9 месяцев назад +43

    看到有的视频评价老黄其实是个营销高手,他很喜欢追逐前沿技术,并且不予余力地推销自己的产品,有点像巅峰期的孙正义,或者巅峰期的苹果

    • @octoberdht
      @octoberdht 9 месяцев назад

      井底之蛙..不懂可以闭嘴...

    • @MuhammadPoohBear
      @MuhammadPoohBear 9 месяцев назад

      营销看华为,这个世界上能把三年前的落后技术卖到10000块的企业,那一定是营销大师,这个世界上除了任天堂,就是华为了,前者懂什么叫游戏,后者懂什么叫民族主义,

    • @nathanliu4274
      @nathanliu4274 9 месяцев назад +2

      看看老黄前段时间的采访:create new market then the inventions

    • @龙龙海-o7i
      @龙龙海-o7i 9 месяцев назад +3

      巅峰期却是老黄的起步期!

    • @mr.penguin4906
      @mr.penguin4906 9 месяцев назад +9

      老黄是技术流的,孙正义是投资者,乔布斯是产品经理。

  • @伍台國-c1o
    @伍台國-c1o 9 месяцев назад +3

    有看到應用了嗎

  • @gomask
    @gomask 7 месяцев назад +4

    所以黃仁勳的強大不完全在於他的GPU晶片比起其他各種新創AI晶片例如Cerebras WSE-3是否領先,而在於他掌握結合了台灣相關供應鏈廠商來形成強大的台灣隊,沒有這群台灣廠商共同的合作,其他的AI晶片再強也無法組合成規模龐大的AI算力工廠。

  • @taieric8978
    @taieric8978 9 месяцев назад +1

    對比下是否量子電腦快過英伟达B200 GPU

  • @王八乌龟
    @王八乌龟 9 месяцев назад +3

    我是英伟达的投资人之一,如果英伟达赚钱了,我的身价也会跟着水涨船高。

  • @张雪琴-s1h
    @张雪琴-s1h 9 месяцев назад

    谢谢分享!❤❤❤

  • @tangtienji
    @tangtienji 9 месяцев назад +1

    有人能告訴我,,那個用一片12吋wafer只做一個晶片成品的事是怎麼做到的?

  • @jobelou2805
    @jobelou2805 9 месяцев назад +1

    建议结果用图表对比

  • @HONG-ow2kh
    @HONG-ow2kh 9 месяцев назад +2

    推理沒有定案,因為不像nvda一樣有獨有市場

  • @paklulu5218
    @paklulu5218 9 месяцев назад +2

    认真学习

  • @Zhuxiaowei
    @Zhuxiaowei 9 месяцев назад

    一个Tensorcore 不就是一组cudacore吗 那多用几个cudacore不也一样吗

  • @OAAGOD
    @OAAGOD 9 месяцев назад +1

    下一步量子计算训练大模型突破时间瓶颈

  • @军锅锅
    @军锅锅 9 месяцев назад +1

    说话能不能严谨一点,MVlink switch的连接速度是1.8T不是1800t

  • @yangminghuang1509
    @yangminghuang1509 9 месяцев назад

    挺有深度的技术分析!能否分析一下英特尔的制程技术现状和竞争力?

  • @shaoyingwang
    @shaoyingwang 9 месяцев назад +3

    英伟达同特斯拉比较,相对应的在汽车自驾应用的水平差距如何? 在这方面,特斯拉同英伟达从最初的合作伙伴关系,渐发展成竞争关系: 特斯拉不断地向上游深挖,英伟达带领着特斯拉的竞争对手不断地向下游深挖。
    做为特斯拉的投资者,很关心特斯拉的fsd, 比较英伟达支持并参与下的竞争对手的自驾系统,其领先地位如何? 尽管马斯克去年说其fsd的下位竞争者还看不到影子. 今年三月,在特斯拉fsd12.3版及英伟达blackwell的B系列 脚跟脚地launch之后,特别是英伟达与比亚迪及众多新能源车企在此方面日益紧密的合作下,很关心特斯拉fsd的competitive strength 到底有那些,还可以维持多久,这将是决定特斯拉命运的一个关键要素之一。请大刘客观地谈一下。

    • @RichardLiu-h3g
      @RichardLiu-h3g 9 месяцев назад +1

      英伟达在自动驾驶领域有通用型软硬一体解决方案

    • @Jersey1225
      @Jersey1225 9 месяцев назад

      ​@@RichardLiu-h3g可是英伟达沒有特斯拉這種一款車型的訓練数据,所以我赌特斯拉贏

    • @RichardLiu-h3g
      @RichardLiu-h3g 9 месяцев назад

      @@Jersey1225 没有?那你是不了解,可能英伟达的数据比特斯拉的还多,对,记住我这句话,不是以后,就是现在可能比特斯拉的还多

    • @Jersey1225
      @Jersey1225 9 месяцев назад

      @@RichardLiu-h3g 你這是可能,我是說特斯拉的單一類型車的行使数据一定是最多的。另外我不喜歡特斯拉也不是特斯拉吹,也不喜歡馬斯克,只是说下這是事實。

    • @RichardLiu-h3g
      @RichardLiu-h3g 9 месяцев назад

      @@Jersey1225 特斯拉不是最多的

  • @HJKO2
    @HJKO2 9 месяцев назад +3

    Transformer 本身在處理 long sequence 內容太沒效率,且會佔用大量的記憶體空間,新出的deep state space model (MAMBA)模型看有沒有機會改善這種只有有錢人才能玩得起的訓練方式。

  • @kerwinliao8641
    @kerwinliao8641 9 месяцев назад +6

    長遠來看,輝達的瓶頸也是人類的瓶頸;目前看來,短期內也沒別家廠商能超越,輝達還不需我們旁人替他們擔心,其他想追上的廠商才更需擔心自身的瓶頸呀!

  • @atehe9589
    @atehe9589 9 месяцев назад +1

    意思就是技术上没有什么进步,但是设计变了,可以做大一些,可以把2个组在一起。看样子半导体的制造技术的确接近到头了。

    • @yifan9014
      @yifan9014 9 месяцев назад +1

      还没有到头,但提升空间越来越小是真的

  • @黄王-y1h
    @黄王-y1h 9 месяцев назад +3

    聊聊未来端到端全视觉方案如果接近完美。会怎么样

  • @ngweisoon4809
    @ngweisoon4809 9 месяцев назад +3

    其实如果AI的能力持续非线性成长,CUDA 的护城河是不是也没有那么深了, 因为大厂能用比较短的时间写出CUDA 的替代品? 如果不能, 是不是代表其实AI 离真正落地其实还有很远? NVIDIA 的成长可能不是那么sustainable?

  • @wpgc2
    @wpgc2 9 месяцев назад +1

    Congrats for surpassing 100k subscribers!

  • @marvinzhang3734
    @marvinzhang3734 6 месяцев назад

    HGX b200现在卖多少钱???

  • @polectoular4712
    @polectoular4712 7 месяцев назад

    7:47 应该是1800GB/s才对

  • @wyean9087
    @wyean9087 6 месяцев назад

    我門外漢,更好奇米玉傑,魏哲家的埃16,關鍵的cpo,光傳輸的實現時間讓rubin早實現,這意味時光隧道實現了嗎,天馬,行空

  • @叶之秋-v9g
    @叶之秋-v9g 9 месяцев назад +4

    应该多谈谈AI应用。

  • @son0011
    @son0011 9 месяцев назад +3

    感覺和蘋果的很像!都是一個思維方式

  • @stanlu1
    @stanlu1 6 месяцев назад

    从头到尾都是干货 真的牛

  • @jerry51311
    @jerry51311 9 месяцев назад +1

    推理領域是負責什麼的?

  • @linlinhe9864
    @linlinhe9864 9 месяцев назад +1

    再讲一期AMD吧

  • @dl0_0
    @dl0_0 9 месяцев назад

    可以添加英文字幕吗?😢

  • @florent9456
    @florent9456 9 месяцев назад +1

    我只關心nvda還能漲多少

  • @阿才-f1x
    @阿才-f1x 9 месяцев назад +2

    以推理來說
    通用GPU的架構
    肯定比不上專項發揮的電路

    • @kingofkors
      @kingofkors 9 месяцев назад

      我也在想,可不可以有专门算ai的硬件,比GPU更节能高效。但是不大懂硬件设计原理。有什么具体思路吗

    • @paultsao6152
      @paultsao6152 9 месяцев назад

      @@kingofkors 已經有了 Groq就是 但是可能只適用於特定模型

    • @nwohocan
      @nwohocan 9 месяцев назад

      功耗也是必須考量,有時候不是快就好@@paultsao6152

    • @kop5276
      @kop5276 9 месяцев назад

      @@kingofkors 已經有了,GPU的天花板肉眼可見,NVDA遲早會被超越,除非轉型開發TPU之類的

    • @irvingzed
      @irvingzed День назад

      但是目前模型算法迭代依然还在继续,ASIC固然是最终方向,但是目前来看推理领域依然需要GPU的通用性和灵活性吧~

  • @tianchudang6242
    @tianchudang6242 9 месяцев назад +3

    请问推理芯片有什么公司/股票值得关注呢?

    • @Abe-fb2lj
      @Abe-fb2lj 9 месяцев назад +1

      ㄎ NVDA 😂

    • @chrizyuen
      @chrizyuen 9 месяцев назад

      😂英伟达本尊咯

    • @riverschang612
      @riverschang612 9 месяцев назад

      唯一NVDA

    • @sombie121
      @sombie121 7 месяцев назад

      NVDA拆股的一年內就是漲漲漲。

  • @東京大屠殺2037
    @東京大屠殺2037 9 месяцев назад +2

    阿婆主,以你的专业解读,5090游戏卡是否也到了一种瓶颈,未来不采用拼接方式的话,50系60系最高阶是否能完成比上代提升50%以上的提升?单从游戏性能或者结合ai算力性能?求解答,谢谢

  • @Willdragon2008
    @Willdragon2008 9 месяцев назад +2

    老黄将来会是比肩Steve jobs 的行业领跑者。他的气势现在已经天下第一,超越了苹果的库克和巨硬的印度籍CEO

  • @andyliang9037
    @andyliang9037 5 месяцев назад

    大刘分析有道理,推理场景一下GPU不一定是最佳的解决方案,端侧要求是低功耗低延时的体验,这与目前GPU的推进方式是背而迟的。这也是许是中国的一个突破口!

  • @BiyaPayUsstocktrading
    @BiyaPayUsstocktrading 9 месяцев назад

    赞👍🏻

  • @NickZhang-x5x
    @NickZhang-x5x 8 дней назад

    NVlink 经过超过9个月的开发修改,已经证实无法支持512GPU的NVlink链接,目前最多的测试是只能将72GB200 放在同一个NVlink架构下,而且功耗太高令人望而却步,B300的推出应该在功耗和稳定性以及产品良率上有进步。 判断:GB200 将不会是一个成熟且大卖的产品,目前只能寄希望于GB300 或者HVDC 产品

  • @henrygu6149
    @henrygu6149 9 месяцев назад

    大刘聊聊在算力方面,华为如何实现弯道超车?

    • @niama12345
      @niama12345 9 месяцев назад +1

      剽窃呗

    • @蕭柏鴻-q5r
      @蕭柏鴻-q5r 9 месяцев назад +2

      遙遙領先 .遙遙領先 .遙遙領先 . 然後就弯道超车了

    • @kevin680930
      @kevin680930 7 месяцев назад

      賣西瓜的整天說要超車賣雞蛋的,有病嗎? 華為幹什麼的?是賣消費性電子產品的。跟一個設計晶片設備的比超車幹什麼? 還是全世界的尖端產業華為都要遙遙領先才行? 😂

  • @candygirl0223
    @candygirl0223 9 месяцев назад

    Nvidia可能單獨開發類似TPU的晶片嗎?

  • @海森威
    @海森威 25 дней назад

    NV內部很早就意識到這問題...他們的未來其實很有限,所以只好在這幾年瘋狂地推陳出新,以便在短期間迅速占領資本的高地

  • @suningtech
    @suningtech 9 месяцев назад +2

    是不是核弹不知道,反正以后在后面不接个核电站是会自动降频的

    • @Invokeeeeeeeee
      @Invokeeeeeeeee 9 месяцев назад +1

      未来发展微生物处理器,只需要食物就可以用!

    • @suningtech
      @suningtech 9 месяцев назад +1

      那也是蓝鲸级别的怪兽,一口吞掉几十人@@Invokeeeeeeeee

  • @annecylevieux8965
    @annecylevieux8965 9 месяцев назад +3

    我ㄧ個字都聽不懂但欽佩黃仁勛的堅持。

  • @timh3365
    @timh3365 9 месяцев назад +1

    之前一直觉得NVIDIA的东西太贵了不值得,但是看到视频里面芯片的面积后,我觉得价格可以接受了。。。。 那么那么大,良率必然高不了,买那么贵是有道理的。虽然就算如此他们利润非常非常高,但是。。。。 真的很难,利润不高也支撑不了后续研发了。

    • @KelvinKMS
      @KelvinKMS 9 месяцев назад

      貴不單單是晶片,而是軟體,晶片再好,軟體驅動不行也沒用。

  • @HowardChung-b3c
    @HowardChung-b3c 9 месяцев назад +2

    老黄是营销高手

    • @m0003506
      @m0003506 9 месяцев назад

      他的眼界遠高於99.9的華人

  • @idontknooo188
    @idontknooo188 9 месяцев назад

    大刘说说 B200这种东西Apple公司能做吗

    • @m0003506
      @m0003506 9 месяцев назад

      怎麼會問這麼外行的問題😂😂😂,你以為Apple在AI軟硬體是領先者嗎

    • @idontknooo188
      @idontknooo188 9 месяцев назад

      @@m0003506 苹果M芯片+统一内存架构就是很领先啊 你这么内行你来说说看为什么苹果做不了B200?

  • @box9871-j7x
    @box9871-j7x 9 месяцев назад

    mi400有的打吗

    • @鄭先勇
      @鄭先勇 9 месяцев назад

      沒有....生態系人家建立了幾十年了
      尤其是NV要做ASIC.......現在20~30幾家有能力自己做的都在瘋狂想建立自得AI生態系
      懷胎十月ㄚ~
      一個4nm或5nm晶片需要10億美元投入到你手中測試
      你認為nv cuLitho跟新思.TSMC....做的是什麼

    • @linlinhe9864
      @linlinhe9864 9 месяцев назад

      有的打,反正都是堆料。卖的便宜更多,ROCm也能用

  • @yifter4043
    @yifter4043 9 месяцев назад

    下一代應該是NV第一次使用Si-Pho

  • @lionsham8181
    @lionsham8181 9 месяцев назад +2

    据说gpu的难度没有制程大,各位大佬说说看是这样吗?

    • @chenenjoytheluxury2668
      @chenenjoytheluxury2668 9 месяцев назад +2

      GPU確實理論可以靠無腦堆核提升效能,但功耗會上升,而且現實上還會遇到一堆問題比如io和計算效率等等。
      實例可以參考GCN架構。

  • @ntr1381
    @ntr1381 9 месяцев назад +2

    戰略核顯卡

  • @Dixx10046
    @Dixx10046 9 месяцев назад

    NV向aaple的M係cpu學習堆料技術🤣

  • @lphiro5602
    @lphiro5602 9 месяцев назад

    类似tesla 道场架构

  • @xiaolong174
    @xiaolong174 9 месяцев назад

    为什么不这代就四个Die拼接?下代就八个Die。。。

  • @tigeryellow-x4r
    @tigeryellow-x4r 9 месяцев назад

    add disk to gpu

  • @zohar6006
    @zohar6006 9 месяцев назад

    兩個die之間就是靠NVLink連結的

  • @JeffCaio
    @JeffCaio 9 месяцев назад +2

    总结:差不多可以卖了

  • @CaocaoXI
    @CaocaoXI 9 месяцев назад +1

    历史证明游戏产业的重要性😂

  • @卢霄氷
    @卢霄氷 7 месяцев назад

    哈哈,单核到头了,开始搞双核了

  • @candygirl0223
    @candygirl0223 9 месяцев назад

    下次是超過一兆個電晶體的晶片嗎?

    • @空-y9l
      @空-y9l 9 месяцев назад

      時間問題而已

  • @柴犬-t3r
    @柴犬-t3r 9 месяцев назад

    算力這麼'強 比特幣會跌嗎😊

    • @js888886
      @js888886 9 месяцев назад

      這個算力強又不是在製程上升級,並沒有節能的效果,而且挖礦成本只是決定關機還是開機,幣的價錢還是取決於資本炒作,和挖礦無關。

    • @蕭柏鴻-q5r
      @蕭柏鴻-q5r 9 месяцев назад

      至少短期內不會 . 中國政府會印超多人民幣給權貴換成外幣然後再買比特幣把財富藏在裡面 ..

  • @阿里磅-e4z
    @阿里磅-e4z 9 месяцев назад +1

    大刘,能不能说说这对中国的影响?

    • @刘家林
      @刘家林 9 месяцев назад +1

      中国ai训练慢12个月甚至2年以上,你ai训练追不上人家。出的产品落后两代没有竞争力。

    • @johnchen6783
      @johnchen6783 9 месяцев назад +5

      中國有遙遙領先的華為,看不上這個B200吧?😂😂😂

    • @chrizyuen
      @chrizyuen 9 месяцев назад +1

      海外很多华人继续发展。正如文革大跃进时代。等中国又开放,又是另一轮的飞跃成长。

    • @wooshawn5274
      @wooshawn5274 9 месяцев назад

      @@刘家林 慢一点好过没有。中国在车机智驾、工业应用等方面已经吊打世界上除美国外的绝大多数国家和地区了。就比如台湾的台积电制造晶片天下独步,但智纳捷N7的车机系统相对同价位的小米SU7,没法看。

  • @扇风点火
    @扇风点火 9 месяцев назад +1

    如果你認真研究顯卡產業,你就會發現,老黃永遠留2手,非常可怕

    • @KelvinKMS
      @KelvinKMS 9 месяцев назад

      但是 AI 晶片,這次的 B200 很明顯沒有保留 !! 滿血升級 !! 跟遊戲顯卡根本不一樣 !!

    • @sombie121
      @sombie121 7 месяцев назад

      @@KelvinKMS 因為是超越蘋果市值、上打MS的衝刺期。
      壟斷市場的時間沒人知道有多長,GPU端全力衝刺把市場上的資金全部席捲過來。
      在別人還在摸索要怎麼跳脫CUDA框架的時候,老黃已經有成堆的資金支持他打造取代GPU的後手。
      他能早20年布局算力需求爆炸的今天,看著自家的產品,老黃會不知道天花板近在眼前?

  • @fsteam2176
    @fsteam2176 9 месяцев назад

    有听懂的吗

  • @DULENSHK
    @DULENSHK 9 месяцев назад

    還沒看到現在所謂的AI有什麼革命性作用😅

  • @WuJackme-ui4kg
    @WuJackme-ui4kg 9 месяцев назад +7

    最新的B200還是四奈米,而不是三奈米制程

    • @ps3301
      @ps3301 9 месяцев назад

      3nm良率不高,appleSoc小,所以不介意,NVIDIA用3nm利润就降低

    • @johnchen6783
      @johnchen6783 9 месяцев назад +7

      @@ps3301誰跟你3nm良率不高,那現在滿載的3nm客戶都是笨蛋?
      是因為輝達用4np就能屌打所有對手,根本用不上相對貴的3nm

    • @-Badwini-
      @-Badwini- 9 месяцев назад

      @@johnchen67833nm現在良率大約80~85%,去年才出一個新聞,TSMC為了留住APPLE,願意吃下不良率的部份,產生35至40億帳款退回。

    • @lumanliu8457
      @lumanliu8457 9 месяцев назад

      @@johnchen6783请问英伟达的gpu是台湾哪几家公司代工的 只有台积电吗?是不是制造难度比逻辑芯片低 为什么很少见人提起

    • @鄭先勇
      @鄭先勇 9 месяцев назад

      @@johnchen6783
      原諒這種吧~他認定的良率不高永遠都是人家量產初期的良率
      跟一群ㄚ陸仔一樣
      對這世界極近無知
      3nm產能NV不想要? 不介意?
      超好笑的......
      排隊吧~ 我只能說....排隊吧
      不管H100.B100....還是有的沒的.....COWOS產能根本不夠
      台積把台灣6座COWOS廠做好都不夠.....加日本也不夠

  • @paulyi729
    @paulyi729 9 месяцев назад +1

    有什麼實用的產品嗎?ChatGPT and Sora 的用途是?

  • @mjk7530
    @mjk7530 9 месяцев назад +1

    算力決定 AI

  • @yl8698
    @yl8698 9 месяцев назад +1

    謝謝分享!門外漢去買相關美股就對了。公司儘管去燃燒無數的肝和腦,我還是好好當股東坐收其利就好了。

  • @waffenss1234567
    @waffenss1234567 9 месяцев назад +3

    據估算B200是華為昇騰AI晶片910B效能的14倍, 不過實際差距可能更大,是能與不能,
    因為910B集群能力只能滿足GPT3水準的訓練參數
    理論上算力可以用數量彌補,功耗可用補貼彌補,但集群規模就是不可改變的差距
    所以黃仁勳說:
    就算競爭者的晶片都免費,它們依然不夠便宜
    趨勢不夠強就是”0”
    你訓練AI不可能縮小參數,也不可能拉長時間來做.
    因為強者沒在等你

  • @PeterPan-rr6qg
    @PeterPan-rr6qg 9 месяцев назад +1

    大刘:黄总打钱……

  • @minglu7598
    @minglu7598 9 месяцев назад

    5:36
    擺拍😂

  • @lokiice
    @lokiice 9 месяцев назад +3

    switch 是交换,不是路由(route)

    • @eee_rocket
      @eee_rocket 9 месяцев назад +1

      根据这个上下文,这个switch发挥的作用确实是路由,正如同三层交换机也能配置静态路由一样,一个设备的实际作用可能远超他的名字

  • @taieric8978
    @taieric8978 9 месяцев назад

    英伟达 遲早要用核電廠先能供電

  • @1110-d3r
    @1110-d3r 2 месяца назад

    🎉🎉🎉❤❤❤

  • @haoosc5017
    @haoosc5017 9 месяцев назад

    天天载入史册,震惊人类,类人之光,改变世界。

  • @johnchen6783
    @johnchen6783 9 месяцев назад +2

    不用3nm是因為輝達用4np就能屌打所有對手,根本用不上相對貴的3nm,
    而輝達在3nm也早就開始跟台積電合作了,從開始研發到量產,過個一年都算正常的時程

    • @鄭先勇
      @鄭先勇 9 месяцев назад

      不是.....根本沒產能給輝達......
      一個設計方案2~3年起步(尤其是COWOS根本不夠)
      沒嘗過三星帶來的噩夢~誰會知道TSMC得好
      別忘了NV可是踩過三星的雷.....再看看高通那鳥樣

    • @JaneChiang-hh4nb
      @JaneChiang-hh4nb 9 месяцев назад +1

      @@鄭先勇是的,不過你漏掉特斯拉也踩了三星的雷,現在回台積電乖乖排隊

    • @jogojo9561
      @jogojo9561 9 месяцев назад

      聽說5090又要用三星了.....雖然好像是用記憶體還麼~我還是等60系好了.....

    • @沈匡正
      @沈匡正 9 месяцев назад

      主要原因是2024積積的3奈米,蘋果全包下,所以輝達在年底可能有🎉🎉🎉

    • @sombie121
      @sombie121 7 месяцев назад

      @@jogojo9561 記憶體用三星SK也正常吧,韓製記憶體相對成熟啊。

  • @syletie
    @syletie 9 месяцев назад +5

    估计华为又傻眼了

  • @leehuat5945
    @leehuat5945 9 месяцев назад +1

    4np其实还是5纳米

    • @Dksfu
      @Dksfu 9 месяцев назад +2

      4np 是接近 3nm,不是 5nm。

    • @johnchen6783
      @johnchen6783 9 месяцев назад

      @@Dksfu不是吧,4np跟5nm同一個產線,都是台積18A廠,而3nm是18B廠

    • @Dksfu
      @Dksfu 9 месяцев назад

      @@johnchen6783 4np 是台積電對 4nm 的改進版,雖然用的是 5nm 的產線,但製程仍是有所不同,就像中芯可以用 DUV 靠著多重曝光技術達到了 7nm 的晶片製造,然而一般 DUV 機台普遍只做到 14nm。

  • @Ocean-nz3cg
    @Ocean-nz3cg 9 месяцев назад

    tsmc,3nm=Fin Fet,2nm=GAA Fet,1nm=C Fet

  • @Benjamin_w2025
    @Benjamin_w2025 Месяц назад

    😊

  • @haoransheng6916
    @haoransheng6916 9 месяцев назад

    10分钟听完脑子都烧干了还是只理解了皮毛

  • @hsujack-sl4wu
    @hsujack-sl4wu 9 месяцев назад

    講話真的很快 聽起來有點吃力

  • @醉落魄
    @醉落魄 9 месяцев назад

    让天网去开发天网吧

  • @georgechang4163
    @georgechang4163 9 месяцев назад +6

    數據搬運限制?那是你的知識不足。OPT 的矽光片會與GPU 結合在同一個 Die 裡面,而 Die 與 Die 也可用矽光片互連。SOT-MRAM 也備妥了。

    • @faberbeta
      @faberbeta 9 месяцев назад

      他说的是大规模多gpu集群,集群内部的通信能力?

  • @twgreenplus
    @twgreenplus 9 месяцев назад

    高耗電是AI的敗筆,也是結束人類的開始

  • @MoveCax
    @MoveCax 9 месяцев назад

    过时还尚早。问题是现在没有一个公司可以取代超越代英伟达。