It's not easy to create new memory. it usually take decades and eventually fails. take a look at PCMEM, MRAM, FRAM... all are B.S. and can't deliver as promise after huge amount of budget and years of R&D. There are noise like this often in the industry.
@歸虛,您好,電子業常用FPGA來模擬製作各式各樣的CPU,一個大型的F P G A可以同時模擬出很多個CPU或是各種數位電路,例如模擬386,486,有一些F P G A還用來模擬各種A R M再加上幾個小核心的8051或其他CPU,很適合開發初期使,不需要花費高額的經費設計晶片設計光罩與投入生產,但是大型FPGA單價也很高,如果有市場大量生產還是比較划算,網路上也 有很多資源與現成的作品可以下載來玩玩看喔。
半導體產業年度盛典!SIEMENS EDA FORUM 2024!
馬上報名👉 wenk.in/i09TYBNz
CRAM 只不过是 Spintronics 的一种。 STT-MRAM yes Spintronics 的一种。
CRAM在現階段還不太可能完全取代GPU,特別是在需要高性能並行計算的場景,如圖形處理、遊戲渲染、高性能計算等。GPU在這些應用中的優勢在於其高度並行的架構和專門為圖形處理優化的指令集,儘管說CRAM可能會在某些特定領域取得突破,但GPU在圖形處理和通用計算(GPGPU)方面的地位短期內仍不太可能撼動,換句話說CRAM更有可能與GPU協同工作,而非完全取代它們,也許未來我們可能會看到CRAM技術與傳統GPU和CPU架構的結合,以經濟的提高整體計算效率
效率比nvda好。nvda就可能被淘汰。一切看利益。
@@1etuk 理想理論是好的 達成率是多少有待考驗~~!!! 有競爭是好的 期待新的操作模式開發成功~~!!!
我覺得應該是會用來取代HBM和硬碟吧。最終或許是協助讓計算更快,而不會取代GPU
CUDA是另一個門檻
@@1etuk 這邏輯有點不太對,CRAM偏向底層電路設計,EDA廠家會有底層邏輯設計包,台積電會有相關製程,不管你是nvda / amd/ intel應該都可以採用。
以前在學計算機概論就有講到
computing in memory
這應該算是圖靈機的終極聖杯
難度當然就會很高
像軍隊體系,士兵既是存儲又是處理器,班長是12位士兵的處理器,排長是三到四個班的處理器,連長是三到四個排的處理器。。。一個金字塔形的記憶與處理器結構。
存算一體晶片最近很多人在講,不用像GPU那樣效能大部分都用在搬運數據上,直接在每個儲存單位上計算完後又更新參數⋯節能又高效。我覺得技術一旦成熟上兆等級甚至10兆等級參數量的AI都不是夢,到那時AGI應該就是大功告成之日吧⋯
直接上正京等級
上京等級
存算一體,建議可觀察旺宏即將在德國電子展展出的FortiX(3D Nor架構)功耗大幅降低、可靠性大幅上升😊
有注意到這個消息 功耗低=不太會熱
所以旺宏要擺脫水溝股的劣名了嗎?
可以進場布局了嗎?
這技術的想法不錯, 不過裡面沒提到運算速度? 能操作的工作頻率? 這也是很重要的指標!!
应该不是新概念了,但落地情况怎么样?
整合在一起的觀念看起來很直覺,請問技術難度在那兒?為什麼直到現在才有點端倪?
原來不是新概念了啊...
如果理解沒錯, 很像Intel 當初先發展了DRAM, 後來發現修改設計, 即可做出邏輯IC, CPU. 現在是在MRAM上進行此操作. 不知想得對不對? 另外, 視頻中提到的此CRAM設計基於 STT-MRAM結構來修改. 那台積電正研發的MRAM是同樣的嗎? 印象中好像也是STT-MRAM. 多放個電晶體就可做運算, 台積電版的MRAM應該也可做到吧?
CRAM其實就是compute in memory的概念而已,並沒有一種記憶體叫做CRAM。可用新型的記憶體如 RRAM, PCM, FeRAM, MRAM或傳統得Flash memory來實現。而目前MRAM是比較突出的一個選擇,台積的MRAM應該是目前做最好的MRAM沒錯。
构想不错。
所有运送不过是把资料搬来搬去,
经过太多关卡,速度就慢了。
相当于把一个高速CPU可能是128位元,还是256位元,
反正把需要运算的都在这边计算 ,
对外是高宽带,
整体速度就提高
减少功耗,减少发热量,
应该就可以突破现在积木堆叠式电路设计方法。
曲博真的是我聽過講科技發展講最好的,說的內容大致學過基本計概還有邏設就能理解了
謝謝你的支持!
不知道曲博老師什麼時候可以說一集英特爾出大包的CPU XDDD
跑車出包了, 結果廠商說... 我們的解決方案就是更新微瑪, 車車不要開那麼快就好了..........
@@trainlooper 環保材質啦~ 買 INTEL 愛地球~
@@GeorgeLinC ba~~~ nice ~~~
只用I社說法,無法解釋現況。
引用網路大神說法,有可能說造謠不專業
再說,問題本身還沒爆完。要搶先沒機會,要完整還不是時候
聽起來跟NPU有點像,都是計算跟儲存在同一個單元? 不知道兩者的差異? (門外漢求解)
就是NPU邏輯推理加速晶片
具體取代時間何時?
想聽曲博說 英特爾是怎麼會讓有問題的產品上市
@lamda5727 在工廠裡的QC不一定能把所有的問題都測出來。
邏輯運算的準確率必須是100%,這種運算是不能有誤差的。
除非你裝好幾組,來規避同時產生誤差的極低概率。
AMD 的X3D封裝不是差不多嗎?
Is the measured resistance a function of the temperature of the working environment?
初期萌芽階段目前只能與GPU協同分擔
待技術成熟後才有望取代GPU成為新趨勢
以 人類 這台生物電腦來說,腦運算及視覺運算,都各自有 運算系統及暫存設備。個人覺得CPU及GPU 最終會獨立運作又互相配合
好像在搞電路學理論,很不切實際。
這個方法要很多電路穩定運作。
而且這個電路對電源的穩定度要求可能很高。
直接用PIM記憶體的處理單元跟CPU解碼電路結合會不會實際一點。
但還是在二進制計算,如果到了能量產時候。那時候需求的是包含量子態 1/0位元的計算?是不是還是不符合需求?
可以聊聊可程式化邏輯(FPGA)在未來邊緣運算的關鍵運用嗎?
感覺這就是把ram由主板轉移到gpu這給Nvidia 來做應該是非常簡單的,但可以省越多錢越好
有ARAM/BRAM嗎?RRAM/MRAM還要多久才能大量商業化呢?
@Ttedsf 其實RRAM/MRAM都已經量產了,只是技術不成熟成本高,容量都很小,應用受限,所以發展還需要時間。
所有新的創新思維當它要落實的過程中
都會引發檯面上各大巨頭之間的商業/政治角力
就看最後是誰勝出囉!
也許CRAM的發展會有兩個大分支:
1. 內建記憶體的CPU
2. 內建運算功能的DRAM
nVidia Blackwell又太熱了?
任何新东西出来,都会引发巨多的质疑,这很正常,这将一直到有一天某个人将它用在该用的地方,才会让大部分人恍然大悟!
要實現複雜的邏輯電路看起來還是脫離不了繞線
只是一個加法器而已
如果要做乘法器甚至浮點數乘法器
用這種word line/bit line的結構
應該做不出來吧
另外就是製程問題
要拿CRAM製程跟tsmc N5 N4競爭
我看是有點難
等他能商業化 tsmc製程都不知道飛到哪裡了
有競爭才不會壟斷輝達自己會知道該如何因應。
只想知道合併後電量和電壓可以降多少?
這樣不就會大幅增加晶片的面積了嗎? 也不利於板卡廠透過子選記憶體來降低成本
不過架構來說,看起來相當適合GPU
想請教一下,1. 如果是為了增加交換資料的速度跟節省能量 那這樣直接整合在cpu內他的路徑不是就更短了嗎?
2. 理論上會需要多大的容量能夠cpu的速度能整合在一起呢?
3. 內部磁通的變化時 所產生的磁通量 該如何轉化或是抑制呀?
@jjchan456 把記憶體整合到處理器內,和把處理器整合到記憶體內其實概都差不多,所以效果都差不多,容量當然是愈大愈好,磁通變化是用自旋電子學產生的,關於處理器與記憶體整合的容量可以參考這個影片:
台積電助攻史上最大晶片!美國新創Cerebras網站產品大解密!
ruclips.net/video/ZHdLTxGKr9I/видео.html
晶心科不是跟TetraMem 打造出來了嗎?MIC憶阻器
不一樣,Tetramem只是把記憶體和處理器整合在同一個晶片內,但是兩個元件還是分開的,資料還是要在晶片裡搬來搬去,而CRAM是把兩個元件融合成一個了!
謝謝曲博老師,親自回答,晶心科在邊緣運算,跟NPU ,AI加速晶片有TetraMem 加盟,似乎能有出息,可惜股價超級鳥的,哈哈哈哈哈!我有買!早知道五月就去買營建股,買什麼台灣ARM ,主力跟本不甩你什麼台灣芯,祝曲博老師平安順心@@Ansforce
@@Ansforce顯示其 RRAM 驅動的模擬計算形式能夠以任意精度執行計算。它表示,在可以輕鬆形成陣列的單一電子設備中執行高精度乘法的能力為降低基於人工神經網路的機器學習的功耗提供了空間。先流片先贏,五角大廈都投資了,台灣主力只會炒作神盾,安國之類的
請教 曲博 :
西門子 EDA 論壇活動會有專屬視頻導讀 ???
沒有耶!
請問CRAM是否跟現在的DRAM一樣 沒有電資料就會不見 如果是這樣 算完是否只是"暫存"在記憶體當中 實際還是需要透過PCIe存到SSD?
比較接近MRAM,不需要一直充電保持資料。而且它包含運算單元,算到一半資料遺失,這效率損失很恐怖的。
@bryanlee0628 是的,CRAM比較接近MRAM,和DRAM的原理不同。
以现在的电脑设计架构,基本上CPU已经不再是最主要的功能,所以美国正在想办法延续CPU(英特尔)的重要性,并淡化GPU功能性,但是这可能吗?就看辉逹是否有能力扩充功能性与降温问题。
請問力積電是不是在做這個呢?
不是耶!
有磁性又有兩個電晶體,燙到不行
How about CUDA?
輝達花了將近 20 年的時間去鋪成 CUDA ,這可能會讓大家有第二選擇,但是要快速 deploy 還是只能選輝達的 GPU,倒是 AMD 的 GPU 有可能被取代 XD
美国有Nvidia(輝達)和AMD/Radeon个人电脑桌面图形显示卡。
近年来,中国已成为全球 GPU 市场的重要参与者,众多制造商正在彻底改变该行业。随着技术的进步和对高性能 GPU 的需求猛增,中国排名前 10 的 GPU 制造商已成为生产尖端显卡的先驱。
景嘉微电子
中船重工
芯原微电子
燧原科技
航锦科技
必仁科技
MetaX
伟世泰科技
摩尔线程
兆芯
@@wildfire8126 當然可以說很厲害,但是實際點來看全世界已經變 Nvidia 綁架了,就算中國的 GPU 很厲害,我要跑 AI 模型,我套CUDA 下去不到 10 分鐘我就正在訓練模型了,我用 AMD 光是搞定 Driver 跟 software 之間的溝通就花了一個多月,還跑的比 Nvidia 慢,做晶片是一回事,搞 driver 是一回事,搞軟體又是一回事,說老實話中國很封閉每個都要自己做這件事我很不看好。現實世界不是喊一句厲害了我的國就可以贏。像台灣就只有代工晶片強,其他都像一坨屎。
重點還是成本 很多好東西大家都知道 但研發成本就擺在那裡 非到必要到需要割肉般的競爭時刻 哪家公司會舊產品的研發成本還沒回收就推出更新的自己打自己
還有普及的問題,高成本=高單價=現階段難普及 例如蘋果那台要近3000美金的東東,大家都覺得不錯,先撇除使用習慣不說,光要做到人人能入手手機般的價格普及至少還要幾十年
你說的對,一般人不需要超跑。
是属于TPU的 升级吗
好酷哦 如果这是用磁性来做记忆体
会不会能够 断电之后 超过某个时刻 再恢复电源 也能继续保留原有的计算? 有限制停留电源之后它们 1T1M 的值还是会永久性保留吗?哦 也是有个概率的哦 因为这个靠量子穿随
大概了解了 哈哈
@Ruhgtfo 這個和Google的TPU不一樣唷!TPU還是要外掛DDR的。
罐子老師的書法教
簽到
結論懂,理論建構過程有聽多數不懂 🦸🏻♂
有點好奇的是,若要弄一顆2TB的CRAM,該不會一顆CPU要一個機櫃那麼大顆吧...😅
第一句就錯了 合併成一個元件功耗從來就在那 也沒低過
請問曲博這東西跟MRAM有什麼差異?我分不出來了😂
若是MRAM的話,那是不是跟之前很紅的記憶體計算是一樣的東西?
這個整體看起來更像是要取代硬碟+DRAM的而非HBM吧,目前latancy最大的瓶頸就是這裡,而目前業界也都是在這部分發力。反而HBM是改架構的方式想繞過去
@chenenjoytheluxury2668 為了在記憶體單元實現邏輯操作,增加了第二個電晶體以及邏輯線(LL)、邏輯位元線(LBL),形成「2T1M」的結構。
@@Ansforce 抱歉曲博,請問他算不算一種記憶體運算呢
@@chenenjoytheluxury2668 應該要算呀!
新的微縮賽道即將展開?
短時間內很困難,整體感覺是CRAM取代SRAM比較符合設計概念.HBM已經是要考量的問題已經是跨chip存取問題,目前NV72/NV36主打都是NV link的連接頻寬,不太是CRAM能取代的概念.
@@zxwxz 如果我理解沒錯的話CRAM大概就是MRAM,那麼大概很難取代SRAM,因為就算MRAM很快也還是跟SRAM有2-3倍以上的差異。
現在反而都認為FeRAM有能力取代SRAM,MRAM則是能把記憶體和硬碟整合
@@chenenjoytheluxury2668 存算一體的優勢在你有大量運算+存儲需求會展現優勢,不能只當sram看待,所以要連同運算與數據搬移的cost一起看。但跨chip已經是偏純數據搬移問題,單顆chip永遠都有大小限制,大集群運算下,都不能只以單顆gpu 來設計考量,所以我才會說取代sram而非hbm
台灣專業EDA。興櫃益芯科。年底轉上市。
軟體上也有瓶頸
我認為想彎道超車還是得往光子、量子領域發展
CRAM設計製程對三星有利還是台積電有利?
岀來時先買它的股票,反正市面上吹泡泡的多的是,分散投資就對了
據了解,這類的學術論文多如牛毛,只是從實驗室到上市實用,還差十萬八千里,至少要十年以上。
It's not easy to create new memory. it usually take decades and eventually fails. take a look at PCMEM, MRAM, FRAM... all are B.S. and can't deliver as promise after huge amount of budget and years of R&D.
There are noise like this often in the industry.
有機會 但是限量產
以MRAM目前可笑的容量密度跟DRAM比起來差很多, AI運算利用高容量高頻寬HBM才是主流, CRAM跟MRAM扯上邊就很難趕上真正的GPU&HBM的組合,看看就好
Cerebras搞出來了,比GPU運算高20倍,價格更便宜。
台灣唯一專業EDA。iP。興櫃。益芯科。台積電。孫公司。世界先進。子公司。年底可轉上市。年底有一次認列。iP智財。
興櫃代號7707
CRAM dementia could happen any time?
我最愛的Siemens過濾沙子的杓 終於要復活了?😂
曲博真是厲害
把運算放到記憶體真的是想太多,最高層的HBM用疊的方式去增加頻寬,發熱問題嚴重都很難解決了,何況還增加運算單元
另外die越大,晶圓利用率越低,主流都是chiplet設計再用封裝技術合併,整合在同一棵die不切實際
再者AI很吃記憶體資源,整合再一起,你就想像一張顯卡把GRAM通通合併在一塊die,那台積電報價還不貴到翻天
現在的B200 也是基於chiplet設計,就算記憶體整合在一起,在運算與記憶體間免不了還需要控制介面,一定有效能贏瓶頸
沒錯,與其存運一體來說,不如全力發展量子技術應該更快也更省電。
美國明尼蘇達大學開發出顛覆性的先進記憶體 CRAM 技術,能將 AI 應用的能耗降至現有技術的千分之一,甚至萬分之四。
發熱量可能也降一千倍到萬分之四。
@@Balaboomboom
我看到後面也在想量子電腦的應用跟這個比起來好像更有優勢
雖然是不算是同一個領域的技術
但這個CRAM技術要是真的發展起來 應該只會是一個過渡型的科技
端看哪邊能夠更快有技術上的突破
現在量子電腦應該在投資者眼裡比較香
真的要有人敢有規模的投資CRAM試看看才能知道端出來的是神之美食還是微波食品
@@james751211 我曾經看過海外一個科技博主,他用了一個比喻假如目前以HBM處理器用128位元計算的晶片製造成本,相當於CRAM用256位元計算製造成本。
如果用量子電腦來處理幾乎沒有什麼位元計算上限,但是製造成本卻是CRAM256位元計算的成本。(不確定這博主的成本計算哪裡來的)
只不過目前礙於成本考量所以主流的HBM 64位元計算跟128位元計算差距不大。
但是用量子電腦差距就是非常明顯的,因為計算能力幾乎是爬坡式的成長。
總歸,以長遠的目標來看,量子電腦的研發一定是重點,如果用AI模擬依照現在的成長速度。可能還要5年以上。雖然目前已經有原型機運用在大公司領域。
用到民間可能要再20年。
儘管量子和CRAM的領域不同。但是我還是比較看好量子技術,因為量子技術跨領域範圍比CRAM更多更複雜。
@@arlisanda 這種理論上的發熱量降低,跟本不切實際,該發表實驗局限在連續CRAM數據內部,不考慮別的Cram的數據,存取其它Cram數據都需要額外消耗,大學實驗室出來的東西都太理論化了
下一次直播什麼時候開啊?
@user-os7mo4so7g 這個週四晚上是直播唷!
我的天呀
我一個素人平常大家認為的高材生
要聽好幾次才能聽懂
到底曲博的聽眾智商加起來可以繞地球幾圈
我也聽不是很懂 , 哈哈哈。
我也不懂 只要知道是人車合一馬蓋仙 人劍合一柳生劍影就好 不然就是水乳交融的概念!🏳🏳
I only need to know when it can apply in pornography.
真正懂得人不多,想改變的人更少
只能告訴你!魔鬼終結者的劇情由此開始
這是硅基生命的開端
給馬斯克希望他看見了
現在GPU 太耗電。
這標題下的真的爭議性太大,讓我覺得是在騙點擊。① CRAM 是幾百年後才會上市?②只取代NVIDIA,不取代AMD?
Mram已经说了几十年了
當初不就是因為同時處理處理不來
才誕生了獨立gpu?
現在又走回頭路了?
就是现在这么gpu耗电的方法明显是没有未来的
要不乾脆 CPU 跟 GPU 跟 RAM 全部綁在一體
@user-qz3nx4xy8c 還真的有唷!用SRAM就可以把CPU、GPU和記憶體全部放在同一個晶片內。
@@Ansforce 難道這就是最終形態嗎🤣
如果能够成功,将具有划时代的意义!
至少要安才能商業化。若要平價可能15~20年。
😢
謝謝曲博❤
cram seems too costly to make.
Intel以前就整合了很多功能晶片進cpu,其甚至一度傳出要整合GPU,但為什麼沒成功?如果成功了,那Nvidia那時就玩完了,也沒有今日大殺四方、打趴intel的事了
那不就弄了L3/L4架構記憶體?
這不就是apple m1晶片嗎?
CRAM 落地到大規模商業應用,恐怕要10年吧?!
😂😂🤔🤔😅😅
個人認為 只要先把CPU的佈局 改善一下 就可以獲得不錯的能源效率 舉例把cpu內的記憶體 放在CPU的中間 各個core核心 就像城牆一樣圍繞著CPU內的記憶體 就可有效縮減資料往來的距離
以前CPU就有L2、L3 Cache了,不就是把這元件做大一點就好了!?
只是早期這種CPU價格都比較高,現在CRAM技術不知道能否把價格壓低
成本
容量 大 成本高
以前的設計 通常是以區塊來切割 例如計算單元 記憶體單元L2 L3 都分佈在CPU的各個角落 強調的是計算性能
造成資料搬移距離過長 而產生的延遲現象
現在只要將l2 L3 整合成稍微大一點的l2記憶區 而core 哲是圍繞著該記憶區部署 這樣可縮短運算及資料搬移的距離
不是把記憶體整顆放到CPU裡
@@微風-c7u
cache 一昧加大也不行
過大 快取命中降低反而造成效能問題的
而且瓶頸不一定是在cache上面
目前x86 pc 瓶頸上最明顯的就是在dram 上面
統一記憶體架構才能拉高現在x86 pc 的瓶頸上限
Have Better Money (HBM)生產廠股東們表示, 下午茶還沒喝完, 新的技術要慢一點上市 😬
NVIDIA 目前过于垄断了,也是价格居高不下的主要原因,希望其他的 IC 厂商能早日打破这个局面。
AMD的也不錯用呀,便宜又大碗
論性能,雖然總是在Nvidia後面追,但是那個性價比確實很香
光是顯卡打遊戲方面,用A卡綽綽有餘,買N卡那多出來的價格跟提升的那一點點效率根本可有可無,很不划算
之前研究的時候還是再用SRAM勒
這應該是很多記憶體大廠都有在研發吧?
NVIDIA輝達GPU將被取代? Nvidia 就不能CRAM來設計下一代的產品嗎?怎麼會被取代?
看來很難了, NAND都可以算錯, 難以大量堆疊了
nice
大概五年到十年吧~
意思是CRAM的單元,可以當記憶體單元來用,也可以當作組合成基本邏輯閘;是吧?
可為了運算處理速度也只能做簡單的加法器或乘法器
那應該一塊CRAM也要用一個CPU或起碼也要一個MPU來做統籌工作,包含一般讀寫跟燒錄邏輯閘規劃
另外如果CRAM真可行,我的一個想法 也許能成真
原本的想法是在想有沒有辦法用可程式化邏輯閘去組合 做成CPU
例如我還有486的主機板 可是沒有CPU了 那有沒有辦法用可程式化邏輯閘去作出一個486的CPU來 讓這片486主機板能動起來
同樣的道理 也可以做成通用型的CPU 例如我缺486的CPU 就改做成486相容模式 缺P3就做改作成P3 CPU。
(例如我現在還在用一台AMD FM1腳座的CPU主基板做NAS,FM1 CPU很差勁 可當年買的主機板擴充性還不錯。)
問題是就我所知 現在的可程式化邏輯閘元件 沒人做到那麼大的
CPU可以說都是做到幾億幾十百千億個電晶體組成的 而可程式化邏輯元件沒有到幾億個可程式化邏輯閘那麼大的
另一個想法是用基本的單元 如8237 8259 8255 8086...在去組合成更高位階的CPU 當然這樣適用性範圍會受限。
如果CRAM真可以實現 也許能輕而易舉地做到億級的邏輯閘
不過複雜的邏輯閘組合出來的速度............也許會很感人...........
如此也需要專門的EDA設計程式 不然數億個邏輯閘....怎麼規劃也是問題吧
@歸虛 你很有想法呀!這些都可以做為就讀研究所的研究題目,說不定可以找到新方法唷!
這篇論文的 CRAM是某半導體業的 PCM,20多年了不是新想法,處理器OK了,SSD還有電阻位移問題。
估計 處理器 + SSD 整好了再推出,一次嚇死寶寶比較單純,也許 SSD的問題有把握,才暫時緩一緩。
@歸虛,您好,電子業常用FPGA來模擬製作各式各樣的CPU,一個大型的F P G A可以同時模擬出很多個CPU或是各種數位電路,例如模擬386,486,有一些F P G A還用來模擬各種A R M再加上幾個小核心的8051或其他CPU,很適合開發初期使,不需要花費高額的經費設計晶片設計光罩與投入生產,但是大型FPGA單價也很高,如果有市場大量生產還是比較划算,網路上也 有很多資源與現成的作品可以下載來玩玩看喔。
說的比較容易,做的比較難
@@cjc65 感謝告知 原本以為模擬386 486可能都有困難 沒想到已經可以做到。
但請問可以模擬到AMD A6-3670 4核APU的程度嗎?
或說現在FPGA可以模擬到多高的CPU呢?
勞煩告知一下 感謝~~
想知道台灣哪間公司代工
還在實驗室階段,精確度尚待提升,體積也還太大,還沒導入商化
csmc
應該還是在IBM內試產,國內可能要等旺宏了。只是我很想問旺宏產品一大堆,有那個產能嗎?
曲博想放空輝😅達😂
說一堆理論,實際上行不通的,照你這麼說為何桌上型電腦不把記憶體整合到cpu?因為散熱跟本做不到,可能大量運算時可能跑不到1分鐘就熱當了.....,所以實際上是沒有必要整合在一起的,因為匯流排頻寬夠大,影響運算速度不大,所以以現階段來說整合在一起是弊大於利
THE BEST OF THE BEST MASTER !!!!!!!!!!!!!!!!!
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
我一直想要知道 : 量子電腦 有沒有可能取代 GPU ? 因為圖形處理(比如3D動畫render), 業界的實際速度需求, 至少是目前gpu顯卡的10倍以上. 以 rtx4090來說, 業界的速度需求 可能是 rtx4090的20倍.
美国有Nvidia(輝達)和AMD/Radeon个人电脑桌面图形显示卡。
近年来,中国已成为全球 GPU 市场的重要参与者,众多制造商正在彻底改变该行业。随着技术的进步和对高性能 GPU 的需求猛增,中国排名前 10 的 GPU 制造商已成为生产尖端显卡的先驱。
景嘉微电子
中船重工
芯原微电子
燧原科技
航锦科技
必仁科技
MetaX
伟世泰科技
摩尔线程
兆芯
@@wildfire8126 眾仙排隊領補貼.
突破性發展,很猛的美國科學家。
辉能量产了吗
理想很豐滿現實很骨感。幾個問題
1.speed --> cmos logic gate vs CRAM
2.size --> cmos logic gate vs CRAM
3.architecture --> just a FA ??? target goal : convolution/ matrix multiplier
4.control unit ???
慢慢吃瓜看戲....
所以在練笑話?!一個記憶體配一個電晶體也不能變為邏輯運算單元,必需多個併或串連才行,因為數據處理可是比1BIT或!Byte大到不可想像,所以問題是你如何儲存大塊的記憶內容?!還不是要從各個記憶體取出併起來讓一個大型處理單元來處理!!真不知道這東西優勢在哪?!
你反過來想喔
DRAM不是也容量不高嗎
這東西也許能先取代DRAM的定位,成為記憶體的組成單元之一,讓CPU/GPU快速抓「處理過」的資料,那麼離完全取代記憶體就不遠了,以這東西的運算速度來看,發展起來可怕到不行
至於取代CPU/GPU就太超乎想像了,抱持樂觀態度享受科技進步的果實吧