Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
馬上報名英特爾AI科技論壇👉 plan.seek.intel.com/AISummit-...今年開始大家應該有發現,人工智慧(AI)在產業上有各種創新的應用不斷推陳出新,開啟了一個新境界,AI人工智慧的發展不再只是個選擇,而是變成了「必備品」,因此這場活動非常推薦AI開發人員,包括:科學家、架構師以及軟硬體研發工程師,可以是在產業界的ISV或是新創,也可以是學校老師教授,都能夠一同參與,了解更多關於Intel在資料中心、雲端和邊緣加速AI的發展願景以及更多開發者關切的生成式AI專題!時間:03/27星期三 地點:板橋新板希爾頓酒店
影片中你已很清楚說明其互相轉換的架構, 讚!
@@alexk9513这边网上ONN的不是您说的光子神经网络,请问这个技术英文全名是什么?
原理是沒甚麼問題,但是一般人想的是電轉光光轉電能量損耗,會比電轉AI的功損失更大算了MIT都考不上的人質疑MIT,我比較想知道讀波訊號的方法多是使用傅立葉轉換這有RGB三個變數還能用傅立葉轉換讀訊號?
曲博士!在夕基光量子晶片的技術上在我看來:全球只有中國大陸和美國是競爭對手,是共同的領頭羊,其他都是陪跑的罷了。前段時間我看輝達王教主來了一次整個臺灣科技業都像是經過了一次高潮,但是在我看來臺灣半導體歷史的拐點可能也就在這期間了,但願是我杞人憂天吧。我們也是有很多合作夥伴是中國大陸的企業,他們其實對於人工智慧和算力基礎並不是那麼的緊張和迫切,反而給人的感覺是步步為營,不緊不慢。反觀我們臺灣在人工智慧時代只有在製程代工上有時間的領先優勢,至於大模型、AI系統架構類的等等毫無建樹。所以我們臺灣之前的興奮和言之鑿鑿:未來的AI世界臺灣占有一席之地的說法是危險的。
哈哈!你是清醒的,我的影片大多時候就是在提醒大家這一點,台灣目前只有先進製程領先,但是對新科技我們是落後的,特別是量子電腦,這裡你談到的人工智慧系統架構和大模型其實也是,不過這樣的說法可能被留言說是吹捧誰,是誰的同路人,這就是過去十年來台灣的政論節目訓練出來的,唉!
請教 如果台灣 在AI硬体制造是no.1 AI演算法還能是no.1嘛 到時是盟國的眼中釘也說不訂 派研究生去美國發表展演算法 然後回中研院當種子教官 不更好老二生存哲學
computex逛了一圈下來我基本同意你的看法😢
就是把類神經網路給硬體化使用雷射, 但是其中還有很多問題: 1.光干擾 2.如何縮小, 這是一直未解決問題, 實驗室的東西參考一下就好
看你说的,很多新科技都是从Lab孵化的 再说曲老师也提到了VCSEL已经能达到微米级 还有望提升几个数量级 以其速度和能耗的优势 并不需要等到放入手机里才能应用 可以先大规模用于数据中心也是革命性进步😊
@@evianq5719 不是說不好, 只是難度沒有實際上的大, 最大的問題還是沒解決, 若上述2問題沒解決, 說真的最後就是實驗階段
这个不是实验的 光模块早就有 cpo是这个进阶版本
@@evianq5719 就是在微米級,再往下就會遇到光通道製作上的問題,現有的光子拓普與量子點計算也是遇到這個問題,沒那麼簡單。看看Intel級Global Foundry在這方面花了多少年只能做到多少就知道了?
電晶體不就是這樣來的麼😆
NVIDIA is the best of the best investment stock
当初慧聪老板也是这么说的😂那个视频真是名场面
00:17:30 請問a向量和b向量,在LeNet模型中具體分別是什麼?a向量通過DACs後,為什麼變成那樣的類比訊號?感謝曲博的分享,讓我又學到了新的知識。
AI主要是 图形和 声音的处理 有极大的实用意义!人工神经网路都是基于背后有已知的数据,再来学习比较,说的神秘,有什么必要?(各位去读读哪篇人工神经网路没有隐蔽的已知的数据做比较)
理想與現實總有很大差距,實現後再來計較吧!
這種事交給台積電跟老黃去做就對了😊
Let Shuji Nakamura R & D and he will invent incredible ONN .
這個好像是我當年的同學Nick Harris去MIT做的,後來他畢業之後做了一間startup我就沒fallow了
有競爭才會成長
唯一问题,那个光发生器耐用吗?一般发光器件都不太耐用。
@kor-pl3by 有道理,這個的確是問題。
最主要的問題是光源通常都會衰退,衰退率是不是常數又是另一個問題
@@AnsforceLight decay or aging problem might happen.
大神级教学。感恩 🙏。
他如講錯你聽得出來嗎我是聽不出來😂😂😂
@@develentsai3215 我聽得懂
運作原理其實可以想像成 矩陣運算 (點積) 是透過類比的方式進行, 只不過這個類比訊號是 光 而非 電, 除了點積運算外, 其他都還是得交由電子數位電路來處理. 現在很多技術若不透過數位手段根本無法解決, 應該想一想怎麼從光學的角度做出一個基礎邏輯閘, 讓從頭到尾都是光學運算才比較有未來性.
就是!要一步到位!
這影片是Intel 贊助😂
可是老黄的优势不是生态和系统稳定性么
再好的理論也要實際的工業製造,並符合商業成本,目前能夠身體力行的企業,首選tsmc,個人甚至不會寄望於Intel。
没人鸟你寄望于谁,你谁啊?😂
台積電早已佈局矽光子+矽電子+3D封裝做成一顆晶片的技術開發,等著晶片設計公司來下單。
@@motizuki1275同樣的,也沒有人鳥你😢
@@motizuki1275你翻牆出來丟臉,有跟公安報備嗎,沒有的話趕緊去
1990年代的網路發展剛起步,投資人一頭熱栽進金融泡沫中,這種教訓也將在AI法展的初期發生,各種AI公司吸收大量投資客資金,目前只有搞硬體的NVIDIA股大漲賺的盆滿波滿,其他搞軟體的幾乎看不到營利效果,金融泡沫在滾沸,投資客慘了 又被割韭菜了!
如果可以用光學傳導,傳統PCB Layout電傳導的高速線differential,reference,EMC,阻抗,都可以完全忽略,Intel 已經有一顆利用利用光switch傳輸高速線的平台
說的沒錯,輝達現在很多錢可以買過來就好😂
等於是用光學原理的晶片去代替電學原理的晶片,看到的MIT在23年8月已經出有關消息,到現在,有沒有什麽新的進展?文章所提到的幾個問題解決情況怎麽樣?
一定會走這個方向的,這是從二維走回類比的臨門一腳,要走入量子運算最後還是以類類比完成再譯成數位讓終端產品解讀
要能量產
麻省理工的領隊如果是謝阿涼我就相信甚麼都有可能發生
ONN針對特定應用設計,要做效能比較應該找ASIC,例如google的TPU,而不是通用計算的GPU,不然TPU能效早吊打GPU,ONN是怕比不過TPU拿不到研究經費嗎
TPU 在推論AI已落后GPU
很有收益.矽光子運算必然要會取代圖形運算的功耗.速度將更快
錯,矽光子,是由德十幾年前研發出的科技,是用玻璃折射光線來計算,這計算機的體積,足足有十幾個足球場大,要由電來造光,運作十幾個足球場大,你覺得會很省電嗎?玻璃折射,跟奈米科技是不一樣的,他的體積無法縮小……
可以做一期介紹Groq在inference速度上的突破麼?幾個LLM在Groq上真的超快。Grow的LPU Inference Engine會是NVDA的競爭對手麼?
第一 我們知道的 黃董都知道..第二 黃董沒必要把他當對手 人找過來就好了..
能给50%股份吗?
這中傳輸方式能夠更快的理由是不是因為光譜的原因?不同顏色有不同的光譜而且彼此不干擾?
不同顏色的光彼此互不干擾,不同顏色的光波長不同,這種技術稱為波長多工(WDM)。
請問一下 這矽光子的部分 是否跟最新的photon-counting detect computered tomography的技術有類似關係呢?
矽光子,是由德十幾年前研發出的科技,是用玻璃折射光線來計算,這計算機的體積,足足有十幾個足球場大玻璃折射,跟奈米科技是不一樣的,他的體積無法縮小……
感謝!
人類細胞生成 才是最有價值的科學
所以說為什麼透過電壓調變的雷射光會更省電?直觀理解上多了一次轉換不應該是更耗電嗎?
坦白說,這也是被科技封鎖的中國正在做的方向。既然微縮下不去缺設備耗品人才技術,就從尺度大很多的微米等級下手,去做能明顯省電快速的矽光子去減少延遲,反正訓練和使用是兩回事。先把該訓練學習的人工智慧算法找到,終端要安裝在飛彈或戰爭武器的晶片需求就不用那麼大 (但太慢還是問題)。中國在用各種方法突破半導體封鎖。
硅光子 中国研究 一点不落后 ..中科院各大学包括华为 都在研究 ..这篇论文作者 应该都是中国留学生
@@taorente7438照樣 華為來下的單 老美先下封殺令 Tàm白忙
太棒了!又有新科技。
中国光子芯片早量产了,光迅科技,中际旭创上市公司好几家
@@Lee-ym8dn 是不同程度的科技呦
@@Lee-ym8dn哥们翻墙犯法你知道吗
@@Lee-ym8dn跟中國的手刻晶片一樣對吧,又又贏麻了
對對對 但是製造不出顯示卡@@Lee-ym8dn
如何散热?电压一定稳定?
先生你太捧了
做出來後是不是就沒有散熱問題?儲存裝置速度跟得上嗎?
存算一体,不需要存储,转瞬即逝给个答案就行。没有散热问题,但估计有deactivation延迟,但同样比电的快
風吹,有風會飛得很高,還是風吹斷了線就無影無踪!
18:44 一張運算卡的功率就300瓦實在是高的嚇死人
其實這個最重要的就是 這個系統已經不像是gpu的線性計算, 人類的神經所以我們不是線性思考
不太明白原理, 電壓來控制光? 光的速度那麼快, 電壓是不變的嗎> 如果改變了, 電的速度是否會限制到光的處理速度?
但是電訊號是傳遞電磁波,本身就是光速了
@Dina-jc9if 這裡談的不是電或光本身的移動速度,而是電或光調變的速度,光的速度很快,但是要調變光的亮暗就必須用通電和斷電,這個速度才是傳送0和1的速度,也就是資料傳輸率,所以是用電壓來調變光。
@@Ansforce 謝謝,這樣解釋我就明白了.
請問我們能用AI 來計算、創作另一個新的AI 網路嗎?
科技的進步,就該如此,並給予支持。看看英女王的黑洞眼睛,ketty perry, 眼皮快掉下來那副模樣,蜥蜴人科技,比人類機器人強多了,所以我很支持更先進的光訊,電訊太慢了。
为什么机器算的又快有准确,而人脑却不行?机器和人脑各自的优势什么?机器和人脑是互补还是取代?可不可以设计模拟人脑的机器?未来的机器会不会就是一个超级人脑?
還在大學裡的東西,應該還要再等10幾年。
持續降低功耗、提升算力,究竟產出的「智慧」,會是什麼樣智慧呢,只能說,拭目以待…。
@Pallden_Tai 哈哈!你這個問題讓我想起武狀元蘇乞兒裡的對話:ruclips.net/video/mwvKjY0Mg6g/видео.html所以計算機持續降低功耗、提升算力,究竟產出的「智慧」,會是什麼樣智慧呢?還是計算機,呵呵!
矽光子不是甚麼新鮮事,2000年時我在台大電機旁聽時就有老師在研究了, 記得是王維新研究積體光學,林清富研究矽光子...
@Mems12342 你也太厲害了吧!都被你說中了!這兩位都是我的老師。
@@Ansforce 2000年時我念博班,我都有上過他們的課,所以我知道...
@Mems12342 那我們是同學耶!說不定還一起修過課唷!兩位老師的課我都修過,我是1998年入學2003年畢業的。
快速又低損耗的把光導進外部波導才是新鮮事
光處理器很快,還不行!記憶體跟不上?Nvidia 亦是一樣,GPU特快,但記憶體沒有那麼快,一樣要放慢等。
是確定Nvidia不會投入ONN嗎?又是一個academic 吹噓的新科技撈錢的局?我等了十年的石墨烯電池去了那?
TSMC 跟MIT 有長期合作的plan
請問曲博,目前美國有哪家公司實際在搞ONN技術的晶片呢?
有耶!之前我有查到一家公司在做,想不起名字了,可以先參考一下這個文章:www.researching.cn/ArticlePdf/m00002/2023/60/6/0600001.pdf
光學計算省到的電和增快的速度最後又被AD,DA轉換給秏掉了。不知曲博怎麼看
確實ADC在極高轉換率 能耗是指數倍率上升 ĐẶC還在合理條件
請教曲博:TSMC 混合製程 FinFET & Bipolar OP Amp 已到量產良率嗎 也許不用ONN 類比式神經網路會更成熟且低耗能!
確實可以這樣做,我不確定台積電的進度耶!
不過就是矩陣運算嘛!
不知道kaspa的光矿机什么时候能研究成果
是我的錯覺嗎,整個影片講這麼複雜,最後感覺是用物理的方式取代傳統矽晶片進行矩陣運算(或者矩陣運算的其中一個步驟)?
你沒有錯覺,是這樣的。
台積電也在研究光晶片喔,先進技術本來就是會有很多問題要克服,也不一定每樣技術都會成功,所以也不需要唱衰。
大廠考量自身利益,不採用也只能是實驗室成品
想想就算了,只是需要用到激光,體積上絕對無法一直一直縮小
你很聰明🎉
這跟過去的光纎傳輸介質有何不同?
10:25 這圖示 感覺用OPA運算放大器就可以做到,但用運算放大器真可以做到嗎 有那麼簡單嗎?請問a1a2..是什麼內容? 如何判定需要輸出多大的放大倍數?
a1a2..是輸入的資料,一般是浮點數,放大倍數就是權重,那是用大量資料輸入訓練出來的,一般是浮點數,其實類神經網路就是一個數學模型,數值分析用的,和人類的大腦沒有關係。
@@Ansforce你說的對 用數學是也可以做但思考良久 我還是覺得 不太對勁 但我也說不上來今天想到AMD的FSR技術 跟NV的DLSS都在試圖用更小的資料流量 做出更高的解像力。這也是我的疑惑 似乎這樣用龐大的數學運算不斷地疊加造成了傳輸資料上的需求加劇。這樣堆料下去 傳輸上的問題也越來越大但感覺怎還不如人類的感官那麼簡單就做到是不是該用某種方式來精簡需要傳輸的資料量或者開發出一套 電腦對電腦 介面對介面的傳輸語言。很抱歉我難以組織好 該怎麼說。
曲博士,有没有麻省理工文章的连接啊,或者文章的标题。想看一原文。谢谢
Nature上面的:Deep learning with coherent VCSEL neural networks
@@matthewchen0724 谢谢 去看看
為什麼wdm mux 可以把不同的光訊號相加?能否解釋一下原理呢?
波長多工的原理很簡單,就是利用類似三菱鏡的原理,因為不同波長(顏色)的光在固體介質裡的光速不同,只要讓不同波長(顏色)的光長不同的距離就可以把不同波長(顏色)的光分開,反過來就是混起來了!查一下三菱鏡的原理吧!
mux概念比較簡單,就想像把不同的東西從不同館子倒到同一個管子。demux就是利用不同波長的光速度不同或是折射角度不一樣,去把他分別導到不同的導線這樣的概念。
NVIDIA
我比較在意電池技術進展
你这就东拉西扯了!
@@genehuang2478 你還違法翻牆嘞
那台積電的技術還有用嗎?
用光學元件做運算其實50年前科學家就提出來了!但是很難實現,現在人工智慧推論看起來很適合,但是也只限於部分應用而已,對台積電沒什麼影響的。
太棒了❤❤❤
类比神经计算比数字神经计算高效节能又不是什么新发现。机器学习之父Geoffrey Hinton近4-5年一直在进行这方面的尝试。他的实验室直接用类比电路(电流=电压X电导)来进行神经网络的矩阵计算,号称比数字神经计算节能好几倍。问题是这种类比计算系统可靠性成问题,因为不同元器件间以及同一元件随时间(衰变)和环境(如温度)变化而导致的属性(如电导率)差异会直接影响计算结果,导致系统不够robust。这也是为啥说前苏联搞类比计算机是点错了科技树。就算一向推崇类比神经计算的Hinton最近在牛津大学的演讲里也承认数字神经计算会是AI超过人类大脑(类比计算)的最大优势。
至于光芯片,如果用来作类比计算(如MIT这个项目)也是死路一条(他们应该去请教俄罗斯的科学家,人家早40年前就在搞这个了),如果是数字神经计算就需要用光讯号开关来表示二进位数字,效率如何还很难说。
对了,类比神经网络还有个关键问题是无法进行神经网参数的反向扩散(back propagation,即其无法支持BP-神经网络计算),只能进行低效正向传输(迄今无法实现正向深层扩散)或者用强化学习的方法进行非常低效的更新(人类大脑的方式)。这种仿生模式的好处是节能,坏处是学习非常低效。受进化压力所迫,人类大脑在节能上非常突出,但这是以大量浪费硬件(神经元)潜力为代价的。要知道大脑神经元的数目远超过GPT-4百倍,但是其对知识的学习和记忆能力已经不如GPT-4这种AI百科全书。正如Hinton教授所说,人类的大脑善于从微量的信息中提取对世界的局部认识,但是没有能力掌握和处理海量的信息。这导致我们每个人的认知局限性,再加上寿命的限制,人类社会只能以语言文字为载体通过模仿学习或者强化学习(试错)进行非常低效率的知识传递与整合更新。而数字AI完全没有这些限制。
請問面射雷射波長是?
矽光子一般都是用1550奈米的波長。
@@Ansforce 再請教面射雷射是那種第三類半導體材料?謝謝
@@glenho2653 通訊用的雷射波長1550nm或1310nm大部分是磷化銦,屬於第二類半導體。
@@Ansforce 謝謝曲博 我記錯了
這種是用mbe或move?
You are the best ❤❤❤
这个可是真的颠覆了, 估计一堆公司在弄,看谁最先推出光子AI芯片了。。
裡面只有點積是用光學技術, 其他都不行. 是很創新的想法, 但離真的能量產有很大的距離. 基本上矽光子的應用還是在傳輸上比較靠譜, 運算上如果只會乘加, 很難成大器.
和量子電腦?
我從佛經的開悟,提供自己的見解,從英女王的黑洞眼,還有,凱特派芮的演唱會時,眼皮掉下來,我認為(他們的)的六根技術中:眼睛,皮膚(身識),都只到達2段技術的第一段:400功德,而且還在掉漆;所以,第二段400功德的技術,還沒能力製造。機器人們加油啦!
雖然是新科技神經網路路很長很長,還是須要大量的資訊重置比對,我家有個光學分光儀,我們藉由它來比對顏色,雖然它是有三原色光跟象限比對計算理論上它可根據你所輸入大量顏色數據運算藉由此可達到電腦配色可是數十年來它從來無法應用與使用,是什麼原因不知從來沒準確過相差色比太多了永遠不及眼睛上的判比,分光儀上的數據只能做個統一的界線數據,大家不用依各人色差判定產生争議,要達到用電腦來配色這30-40年來幾乎辦不到,我的意思是人腦的神經辯事能力神經元再百年仍辦不到,是人適應類神經網路,還是類神經網路適應人的神經網路,醫療上的應用也是如此,上帝造人太微妙了它
其中轉化器的速度將會成為瓶頸
好讚
请问有相关的技术文案链接吗?谢谢
影片下面有唷!
@@Ansforce没找到具体的分析的doc。不过我搜了一下,它目前是一个concept。
隔了一段時間看到這些論述,又是個笑話
可以參考一下這個新聞,光子晶片運算其實50年前就有人想過了,但是後來證明不可行,那是因為一般的運算有簡單也有複雜,不適合光子晶片。但是類神經網路滿足簡單、重複、大量,這些恰好是光子晶片的強項,但是技術現在還不成熟,需要更長的時間去發展。info.taiwantrade.com/biznews/%E6%AF%94%E7%88%BE%E8%93%8B%E8%8C%B2%E7%AD%89%E6%8A%95%E8%B3%87%E7%9F%BD%E5%85%89%E5%AD%90ai%E6%99%B6%E7%89%87luminous%E6%96%B0%E5%89%B5%E5%85%AC%E5%8F%B8-1812490.html
想到刀劍神域的情節,以後是不是連靈魂都能複製了
讚,每次都能學到新的知識
講話速度太快,像機器人。
其實這頻道感覺不像在介紹科學新知識比較像在叫你投資新創公司
每一個字我都聽得懂,加在一起有點複雜😂😂😂
物理學要重修了😂😂😂
@@jmlin501 慚愧我還是讀資工的 二十幾年早就全忘光了😄😄
輝達已經賺到盆滿缽滿,MIT這個創新發明能商轉賺錢嗎?
必需承認太專業沒聽完,只想知道未來有哪些光運用廠家會出線
3081
AI照護
結果比特幣又創新高了😂😊
比特幣就算漲到100萬美元它依然是個龐氏騙局,買空賣空上線拉下線,唯一的功能就是圈錢和洗錢,你圈到的錢就是下線給你的,而你被圈的錢就是給上線拿走的,你只看比特幣漲跌其實說穿了就是圈錢,我也沒說不能圈錢呀!黑貓白貓會抓老鼠的就是好貓,所以圈錢洗錢能賺到錢的就是好錢囉!我不是說愈早進去賺愈多,愈晚進去賺愈少嗎?我從來沒有說不能買比特幣呀!
科学,无尽的前沿
給你一個建議,不要照著上面唸,講的好像A I機器人一樣!請用通俗的又有趣的方式像講故事一樣,效果會比較好!不然很少有人會撐過3分鐘!可以參考自說自話的總裁或是老高與小茉…
我的稿子是特別寫過的,所以已經很容易理解了!導讀到困難的地方,或是圖片我也都會詳細解說。
光學運算未來如果普及化~算力高~有人會拿去挖礦嗎?
晶片加上電費 可能遠大於產出數位幣
不可能啊,光元件的放大增益小于1,没办法做成逻辑元件
每一个字我都听的懂,但连起来就完全不懂了😅
就这些转换器吧!再怎么微型化,也不会像纯电原件那么容易累积😏
光要把ADC/DAC模組+光子運算器作成一個晶片就夠嗆了。
再怎麼高明的技術 沒能力量產 沒用
能取代早就取代了。實際上應用要考慮很多。信號是否容易受干擾。是否在溫度範圍使用。是否散熱能符合。是否價格能普及。是否量產能順利。是否有足夠廠商配套。電子產品目前大概是Dvd 壽命最短。就跟SSD非常快。但硬碟還是有存在價值一樣
@@小兵-j1r 這倒不一定,很多東西公佈出來的時候可能早在前幾年就以經做出來了,實際應用上先來個大刀切一下,例如矽光子晶片100分的能力,只需要裡面的20分,就能打趴所有傳統晶片,那就用刀法切一下,讓矽光子晶片只比傳統晶片強上20%或30%,結果只需要拿出矽光子晶片的10分的能力,之後每一代提升個10分。就如台積電,先前就公佈了矽光子晶片製程與封裝,等設計公司來下單,但就是不公佈何時量產,為什麼?因為還有現在的3nm廠與正要蓋的1nm廠,投資蓋廠的錢都還沒回本,怎麼可能直接用最新的矽光子晶片設計公司也是一樣的,每一代提升多少都是早就已經設定好的目標,就算發佈最新一代,也會讓上一代的產品還有一個固定的生命周期繼續為公司獲利,所以必然不會有跨越幅度的提升-------------矽光子晶片製程的公佈,我個人猜想,正在跟各大設計公司研討怎麼切蛋糕
All mimic nature.
全部看不懂,哈哈哈哈哈
屌
Baccarat new Random Strategy by Guru James Grosjean's Probability from Master Wu
❤❤❤❤❤
然後這些科學家就跑去N家了....😅
30 years later😂😂😂😂😂😂😂😂😂😂😂😂😂😂😂😂
馬上報名英特爾AI科技論壇👉 plan.seek.intel.com/AISummit-...
今年開始大家應該有發現,人工智慧(AI)在產業上有各種創新的應用不斷推陳出新,開啟了一個新境界,AI人工智慧的發展不再只是個選擇,而是變成了「必備品」,因此這場活動非常推薦AI開發人員,包括:科學家、架構師以及軟硬體研發工程師,可以是在產業界的ISV或是新創,也可以是學校老師教授,都能夠一同參與,了解更多關於Intel在資料中心、雲端和邊緣加速AI的發展願景以及更多開發者關切的生成式AI專題!
時間:03/27星期三
地點:板橋新板希爾頓酒店
影片中你已很清楚說明其互相轉換的架構, 讚!
@@alexk9513这边网上ONN的不是您说的光子神经网络,请问这个技术英文全名是什么?
原理是沒甚麼問題,但是一般人想的是電轉光光轉電能量損耗,會比電轉AI的功損失更大算了MIT都考不上的人質疑MIT,我比較想知道讀波訊號的方法多是使用傅立葉轉換這有RGB三個變數還能用傅立葉轉換讀訊號?
曲博士!在夕基光量子晶片的技術上在我看來:全球只有中國大陸和美國是競爭對手,是共同的領頭羊,其他都是陪跑的罷了。前段時間我看輝達王教主來了一次整個臺灣科技業都像是經過了一次高潮,但是在我看來臺灣半導體歷史的拐點可能也就在這期間了,但願是我杞人憂天吧。我們也是有很多合作夥伴是中國大陸的企業,他們其實對於人工智慧和算力基礎並不是那麼的緊張和迫切,反而給人的感覺是步步為營,不緊不慢。反觀我們臺灣在人工智慧時代只有在製程代工上有時間的領先優勢,至於大模型、AI系統架構類的等等毫無建樹。所以我們臺灣之前的興奮和言之鑿鑿:未來的AI世界臺灣占有一席之地的說法是危險的。
哈哈!你是清醒的,我的影片大多時候就是在提醒大家這一點,台灣目前只有先進製程領先,但是對新科技我們是落後的,特別是量子電腦,這裡你談到的人工智慧系統架構和大模型其實也是,不過這樣的說法可能被留言說是吹捧誰,是誰的同路人,這就是過去十年來台灣的政論節目訓練出來的,唉!
請教 如果台灣 在AI硬体制造是no.1 AI演算法還能是no.1嘛 到時是盟國的眼中釘也說不訂 派研究生去美國發表展演算法 然後回中研院當種子教官 不更好老二生存哲學
computex逛了一圈下來我基本同意你的看法😢
就是把類神經網路給硬體化使用雷射, 但是其中還有很多問題: 1.光干擾 2.如何縮小, 這是一直未解決問題, 實驗室的東西參考一下就好
看你说的,很多新科技都是从Lab孵化的 再说曲老师也提到了VCSEL已经能达到微米级 还有望提升几个数量级 以其速度和能耗的优势 并不需要等到放入手机里才能应用 可以先大规模用于数据中心也是革命性进步😊
@@evianq5719 不是說不好, 只是難度沒有實際上的大, 最大的問題還是沒解決, 若上述2問題沒解決, 說真的最後就是實驗階段
这个不是实验的 光模块早就有 cpo是这个进阶版本
@@evianq5719 就是在微米級,再往下就會遇到光通道製作上的問題,現有的光子拓普與量子點計算也是遇到這個問題,沒那麼簡單。看看Intel級Global Foundry在這方面花了多少年只能做到多少就知道了?
電晶體不就是這樣來的麼😆
NVIDIA is the best of the best investment stock
当初慧聪老板也是这么说的😂那个视频真是名场面
00:17:30 請問a向量和b向量,在LeNet模型中具體分別是什麼?
a向量通過DACs後,為什麼變成那樣的類比訊號?
感謝曲博的分享,讓我又學到了新的知識。
AI主要是 图形和 声音的处理 有极大的实用意义!人工神经网路都是基于背后有已知的数据,再来学习比较,说的神秘,有什么必要?(各位去读读哪篇人工神经网路没有隐蔽的已知的数据做比较)
理想與現實總有很大差距,實現後再來計較吧!
這種事交給台積電跟老黃去做就對了😊
Let Shuji Nakamura R & D and he will invent incredible ONN .
這個好像是我當年的同學Nick Harris去MIT做的,後來他畢業之後做了一間startup我就沒fallow了
有競爭才會成長
唯一问题,那个光发生器耐用吗?一般发光器件都不太耐用。
@kor-pl3by 有道理,這個的確是問題。
最主要的問題是光源通常都會衰退,衰退率是不是常數又是另一個問題
@@AnsforceLight decay or aging problem might happen.
大神级教学。感恩 🙏。
他如講錯你聽得出來嗎我是聽不出來😂😂😂
@@develentsai3215 我聽得懂
運作原理其實可以想像成 矩陣運算 (點積) 是透過類比的方式進行, 只不過這個類比訊號是 光 而非 電, 除了點積運算外, 其他都還是得交由電子數位電路來處理. 現在很多技術若不透過數位手段根本無法解決, 應該想一想怎麼從光學的角度做出一個基礎邏輯閘, 讓從頭到尾都是光學運算才比較有未來性.
就是!要一步到位!
這影片是Intel 贊助😂
可是老黄的优势不是生态和系统稳定性么
再好的理論也要實際的工業製造,並符合商業成本,目前能夠身體力行的企業,首選tsmc,個人甚至不會寄望於Intel。
没人鸟你寄望于谁,你谁啊?😂
台積電早已佈局矽光子+矽電子+3D封裝做成一顆晶片的技術開發,等著晶片設計公司來下單。
@@motizuki1275同樣的,也沒有人鳥你😢
@@motizuki1275你翻牆出來丟臉,有跟公安報備嗎,沒有的話趕緊去
1990年代的網路發展剛起步,投資人一頭熱栽進金融泡沫中,這種教訓也將在AI法展的初期發生,各種AI公司吸收大量投資客資金,目前只有搞硬體的NVIDIA股大漲賺的盆滿波滿,其他搞軟體的幾乎看不到營利效果,金融泡沫在滾沸,投資客慘了 又被割韭菜了!
如果可以用光學傳導,傳統PCB Layout電傳導的高速線differential,reference,EMC,阻抗,都可以完全忽略,Intel 已經有一顆利用利用光switch傳輸高速線的平台
說的沒錯,輝達現在很多錢可以買過來就好😂
等於是用光學原理的晶片去代替電學原理的晶片,看到的MIT在23年8月已經出有關消息,到現在,有沒有什麽新的進展?文章所提到的幾個問題解決情況怎麽樣?
一定會走這個方向的,這是從二維走回類比的臨門一腳,要走入量子運算最後還是以類類比完成再譯成數位讓終端產品解讀
要能量產
麻省理工的領隊如果是謝阿涼我就相信甚麼都有可能發生
ONN針對特定應用設計,要做效能比較應該找ASIC,例如google的TPU,而不是通用計算的GPU,不然TPU能效早吊打GPU,ONN是怕比不過TPU拿不到研究經費嗎
TPU 在推論AI已落后GPU
很有收益.矽光子運算必然要會取代圖形運算的功耗.速度將更快
錯,矽光子,是由德十幾年前研發出的科技,是用玻璃折射光線來計算,這計算機的體積,足足有十幾個足球場大,要由電來造光,運作十幾個足球場大,你覺得會很省電嗎?
玻璃折射,跟奈米科技是不一樣的,他的體積無法縮小……
可以做一期介紹Groq在inference速度上的突破麼?幾個LLM在Groq上真的超快。Grow的LPU Inference Engine會是NVDA的競爭對手麼?
第一 我們知道的 黃董都知道..
第二 黃董沒必要把他當對手 人找過來就好了..
能给50%股份吗?
這中傳輸方式能夠更快的理由是不是因為光譜的原因?不同顏色有不同的光譜而且彼此不干擾?
不同顏色的光彼此互不干擾,不同顏色的光波長不同,這種技術稱為波長多工(WDM)。
請問一下 這矽光子的部分 是否跟最新的photon-counting detect computered tomography的技術有類似關係呢?
矽光子,是由德十幾年前研發出的科技,是用玻璃折射光線來計算,這計算機的體積,足足有十幾個足球場大
玻璃折射,跟奈米科技是不一樣的,他的體積無法縮小……
感謝!
人類細胞生成 才是最有價值的科學
所以說為什麼透過電壓調變的雷射光會更省電?直觀理解上多了一次轉換不應該是更耗電嗎?
坦白說,這也是被科技封鎖的中國正在做的方向。既然微縮下不去缺設備耗品人才技術,就從尺度大很多的微米等級下手,去做能明顯省電快速的矽光子去減少延遲,反正訓練和使用是兩回事。先把該訓練學習的人工智慧算法找到,終端要安裝在飛彈或戰爭武器的晶片需求就不用那麼大 (但太慢還是問題)。中國在用各種方法突破半導體封鎖。
硅光子 中国研究 一点不落后 ..中科院各大学包括华为 都在研究 ..这篇论文作者 应该都是中国留学生
台積電早已佈局矽光子+矽電子+3D封裝做成一顆晶片的技術開發,等著晶片設計公司來下單。
@@taorente7438照樣 華為來下的單 老美先下封殺令 Tàm白忙
太棒了!又有新科技。
中国光子芯片早量产了,光迅科技,中际旭创上市公司好几家
@@Lee-ym8dn 是不同程度的科技呦
@@Lee-ym8dn哥们翻墙犯法你知道吗
@@Lee-ym8dn跟中國的手刻晶片一樣對吧,又又贏麻了
對對對 但是製造不出顯示卡@@Lee-ym8dn
如何散热?电压一定稳定?
先生你太捧了
做出來後是不是就沒有散熱問題?儲存裝置速度跟得上嗎?
存算一体,不需要存储,转瞬即逝给个答案就行。没有散热问题,但估计有deactivation延迟,但同样比电的快
風吹,有風會飛得很高,還是風吹斷了線就無影無踪!
18:44 一張運算卡的功率就300瓦實在是高的嚇死人
其實這個最重要的就是
這個系統已經不像是gpu的線性計算, 人類的神經所以我們不是線性思考
不太明白原理, 電壓來控制光? 光的速度那麼快, 電壓是不變的嗎> 如果改變了, 電的速度是否會限制到光的處理速度?
但是電訊號是傳遞電磁波,本身就是光速了
@Dina-jc9if 這裡談的不是電或光本身的移動速度,而是電或光調變的速度,光的速度很快,但是要調變光的亮暗就必須用通電和斷電,這個速度才是傳送0和1的速度,也就是資料傳輸率,所以是用電壓來調變光。
@@Ansforce 謝謝,這樣解釋我就明白了.
請問我們能用AI 來計算、創作另一個新的AI 網路嗎?
科技的進步,就該如此,並給予支持。看看英女王的黑洞眼睛,ketty perry, 眼皮快掉下來那副模樣,蜥蜴人科技,比人類機器人強多了,所以我很支持更先進的光訊,電訊太慢了。
为什么机器算的又快有准确,而人脑却不行?机器和人脑各自的优势什么?机器和人脑是互补还是取代?可不可以设计模拟人脑的机器?未来的机器会不会就是一个超级人脑?
還在大學裡的東西,應該還要再等10幾年。
持續降低功耗、提升算力,究竟產出的「智慧」,會是什麼樣智慧呢,只能說,拭目以待…。
@Pallden_Tai 哈哈!你這個問題讓我想起武狀元蘇乞兒裡的對話:
ruclips.net/video/mwvKjY0Mg6g/видео.html
所以計算機持續降低功耗、提升算力,究竟產出的「智慧」,會是什麼樣智慧呢?還是計算機,呵呵!
矽光子不是甚麼新鮮事,2000年時我在台大電機旁聽時就有老師在研究了, 記得是王維新研究積體光學,林清富研究矽光子...
@Mems12342 你也太厲害了吧!都被你說中了!這兩位都是我的老師。
@@Ansforce 2000年時我念博班,我都有上過他們的課,所以我知道...
@Mems12342 那我們是同學耶!說不定還一起修過課唷!兩位老師的課我都修過,我是1998年入學2003年畢業的。
快速又低損耗的把光導進外部波導才是新鮮事
光處理器很快,還不行!記憶體跟不上?Nvidia 亦是一樣,GPU特快,但記憶體沒有那麼快,一樣要放慢等。
是確定Nvidia不會投入ONN嗎?
又是一個academic 吹噓的新科技撈錢的局?
我等了十年的石墨烯電池去了那?
TSMC 跟MIT 有長期合作的plan
請問曲博,目前美國有哪家公司實際在搞ONN技術的晶片呢?
有耶!之前我有查到一家公司在做,想不起名字了,可以先參考一下這個文章:
www.researching.cn/ArticlePdf/m00002/2023/60/6/0600001.pdf
光學計算省到的電和增快的速度最後又被AD,DA轉換給秏掉了。不知曲博怎麼看
確實ADC在極高轉換率 能耗是指數倍率上升 ĐẶC還在合理條件
請教曲博:TSMC 混合製程 FinFET & Bipolar OP Amp 已到量產良率嗎 也許不用ONN 類比式神經網路會更成熟且低耗能!
確實可以這樣做,我不確定台積電的進度耶!
不過就是矩陣運算嘛!
不知道kaspa的光矿机什么时候能研究成果
是我的錯覺嗎,整個影片講這麼複雜,最後感覺是用物理的方式取代傳統矽晶片進行矩陣運算(或者矩陣運算的其中一個步驟)?
你沒有錯覺,是這樣的。
台積電也在研究光晶片喔,先進技術本來就是會有很多問題要克服,也不一定每樣技術都會成功,所以也不需要唱衰。
大廠考量自身利益,不採用也只能是實驗室成品
想想就算了,只是需要用到激光,體積上絕對無法一直一直縮小
你很聰明🎉
這跟過去的光纎傳輸介質有何不同?
台積電早已佈局矽光子+矽電子+3D封裝做成一顆晶片的技術開發,等著晶片設計公司來下單。
10:25 這圖示 感覺用OPA運算放大器就可以做到,但用運算放大器真可以做到嗎 有那麼簡單嗎?
請問a1a2..是什麼內容? 如何判定需要輸出多大的放大倍數?
a1a2..是輸入的資料,一般是浮點數,放大倍數就是權重,那是用大量資料輸入訓練出來的,一般是浮點數,其實類神經網路就是一個數學模型,數值分析用的,和人類的大腦沒有關係。
@@Ansforce你說的對 用數學是也可以做
但思考良久 我還是覺得 不太對勁 但我也說不上來
今天想到AMD的FSR技術 跟NV的DLSS都在試圖用更小的資料流量 做出更高的解像力。
這也是我的疑惑 似乎這樣用龐大的數學運算不斷地疊加
造成了傳輸資料上的需求加劇。
這樣堆料下去 傳輸上的問題也越來越大
但感覺怎還不如人類的感官那麼簡單就做到
是不是該用某種方式來精簡需要傳輸的資料量
或者開發出一套 電腦對電腦 介面對介面的傳輸語言。
很抱歉我難以組織好 該怎麼說。
曲博士,有没有麻省理工文章的连接啊,或者文章的标题。想看一原文。谢谢
Nature上面的:Deep learning with coherent VCSEL neural networks
@@matthewchen0724 谢谢 去看看
為什麼wdm mux 可以把不同的光訊號相加?能否解釋一下原理呢?
波長多工的原理很簡單,就是利用類似三菱鏡的原理,因為不同波長(顏色)的光在固體介質裡的光速不同,只要讓不同波長(顏色)的光長不同的距離就可以把不同波長(顏色)的光分開,反過來就是混起來了!查一下三菱鏡的原理吧!
mux概念比較簡單,就想像把不同的東西從不同館子倒到同一個管子。demux就是利用不同波長的光速度不同或是折射角度不一樣,去把他分別導到不同的導線這樣的概念。
NVIDIA
我比較在意電池技術進展
你这就东拉西扯了!
@@genehuang2478 你還違法翻牆嘞
那台積電的技術還有用嗎?
用光學元件做運算其實50年前科學家就提出來了!但是很難實現,現在人工智慧推論看起來很適合,但是也只限於部分應用而已,對台積電沒什麼影響的。
太棒了❤❤❤
类比神经计算比数字神经计算高效节能又不是什么新发现。机器学习之父Geoffrey Hinton近4-5年一直在进行这方面的尝试。他的实验室直接用类比电路(电流=电压X电导)来进行神经网络的矩阵计算,号称比数字神经计算节能好几倍。问题是这种类比计算系统可靠性成问题,因为不同元器件间以及同一元件随时间(衰变)和环境(如温度)变化而导致的属性(如电导率)差异会直接影响计算结果,导致系统不够robust。这也是为啥说前苏联搞类比计算机是点错了科技树。就算一向推崇类比神经计算的Hinton最近在牛津大学的演讲里也承认数字神经计算会是AI超过人类大脑(类比计算)的最大优势。
至于光芯片,如果用来作类比计算(如MIT这个项目)也是死路一条(他们应该去请教俄罗斯的科学家,人家早40年前就在搞这个了),如果是数字神经计算就需要用光讯号开关来表示二进位数字,效率如何还很难说。
对了,类比神经网络还有个关键问题是无法进行神经网参数的反向扩散(back propagation,即其无法支持BP-神经网络计算),只能进行低效正向传输(迄今无法实现正向深层扩散)或者用强化学习的方法进行非常低效的更新(人类大脑的方式)。这种仿生模式的好处是节能,坏处是学习非常低效。受进化压力所迫,人类大脑在节能上非常突出,但这是以大量浪费硬件(神经元)潜力为代价的。要知道大脑神经元的数目远超过GPT-4百倍,但是其对知识的学习和记忆能力已经不如GPT-4这种AI百科全书。正如Hinton教授所说,人类的大脑善于从微量的信息中提取对世界的局部认识,但是没有能力掌握和处理海量的信息。这导致我们每个人的认知局限性,再加上寿命的限制,人类社会只能以语言文字为载体通过模仿学习或者强化学习(试错)进行非常低效率的知识传递与整合更新。而数字AI完全没有这些限制。
請問面射雷射波長是?
矽光子一般都是用1550奈米的波長。
@@Ansforce 再請教面射雷射是那種第三類半導體材料?謝謝
@@glenho2653 通訊用的雷射波長1550nm或1310nm大部分是磷化銦,屬於第二類半導體。
@@Ansforce 謝謝曲博 我記錯了
這種是用mbe或move?
You are the best ❤❤❤
这个可是真的颠覆了, 估计一堆公司在弄,看谁最先推出光子AI芯片了。。
裡面只有點積是用光學技術, 其他都不行. 是很創新的想法, 但離真的能量產有很大的距離. 基本上矽光子的應用還是在傳輸上比較靠譜, 運算上如果只會乘加, 很難成大器.
和量子電腦?
我從佛經的開悟,提供自己的見解,從英女王的黑洞眼,還有,凱特派芮的演唱會時,眼皮掉下來,我認為(他們的)的六根技術中:眼睛,皮膚(身識),都只到達2段技術的第一段:400功德,而且還在掉漆;所以,第二段400功德的技術,還沒能力製造。機器人們加油啦!
雖然是新科技神經網路路很長很長,還是須要大量的資訊重置比對,我家有個光學分光儀,我們藉由它來比對顏色,雖然它是有三原色光跟象限比對計算理論上它可根據你所輸入大量顏色數據運算藉由此可達到電腦配色
可是數十年來它從來無法應用與使用,是什麼原因不知從來沒準確過相差色比太多了永遠不及眼睛上的判比,分光儀上的數據只能做個統一的界線數據,大家不用依各人色差判定產生争議,要達到用電腦來配色這30-40年來幾乎辦不到,我的意思是人腦的神經辯事能力神經元再百年仍辦不到,是人適應類神經網路,還是類神經網路適應人的神經網路,醫療上的應用也是如此,上帝造人太微妙了
它
其中轉化器的速度將會成為瓶頸
好讚
请问有相关的技术文案链接吗?谢谢
影片下面有唷!
@@Ansforce没找到具体的分析的doc。不过我搜了一下,它目前是一个concept。
隔了一段時間看到這些論述,又是個笑話
可以參考一下這個新聞,光子晶片運算其實50年前就有人想過了,但是後來證明不可行,那是因為一般的運算有簡單也有複雜,不適合光子晶片。但是類神經網路滿足簡單、重複、大量,這些恰好是光子晶片的強項,但是技術現在還不成熟,需要更長的時間去發展。
info.taiwantrade.com/biznews/%E6%AF%94%E7%88%BE%E8%93%8B%E8%8C%B2%E7%AD%89%E6%8A%95%E8%B3%87%E7%9F%BD%E5%85%89%E5%AD%90ai%E6%99%B6%E7%89%87luminous%E6%96%B0%E5%89%B5%E5%85%AC%E5%8F%B8-1812490.html
想到刀劍神域的情節,以後是不是連靈魂都能複製了
讚,每次都能學到新的知識
講話速度太快,像機器人。
其實這頻道感覺不像在介紹科學新知識比較像在叫你投資新創公司
每一個字我都聽得懂,加在一起有點複雜😂😂😂
物理學要重修了😂😂😂
@@jmlin501 慚愧我還是讀資工的 二十幾年早就全忘光了😄😄
輝達已經賺到盆滿缽滿,MIT這個創新發明能商轉賺錢嗎?
必需承認太專業沒聽完,只想知道未來有哪些光運用廠家會出線
3081
AI照護
結果比特幣又創新高了😂😊
比特幣就算漲到100萬美元它依然是個龐氏騙局,買空賣空上線拉下線,唯一的功能就是圈錢和洗錢,你圈到的錢就是下線給你的,而你被圈的錢就是給上線拿走的,你只看比特幣漲跌其實說穿了就是圈錢,我也沒說不能圈錢呀!黑貓白貓會抓老鼠的就是好貓,所以圈錢洗錢能賺到錢的就是好錢囉!我不是說愈早進去賺愈多,愈晚進去賺愈少嗎?我從來沒有說不能買比特幣呀!
科学,无尽的前沿
給你一個建議,不要照著上面唸,講的好像A I機器人一樣!請用通俗的又有趣的方式像講故事一樣,效果會比較好!不然很少有人會撐過3分鐘!可以參考自說自話的總裁或是老高與小茉…
我的稿子是特別寫過的,所以已經很容易理解了!導讀到困難的地方,或是圖片我也都會詳細解說。
光學運算未來如果普及化~算力高~有人會拿去挖礦嗎?
晶片加上電費 可能遠大於產出數位幣
不可能啊,光元件的放大增益小于1,没办法做成逻辑元件
每一个字我都听的懂,但连起来就完全不懂了😅
就这些转换器吧!再怎么微型化,也不会像纯电原件那么容易累积😏
光要把ADC/DAC模組+光子運算器作成一個晶片就夠嗆了。
再怎麼高明的技術 沒能力量產 沒用
能取代早就取代了。實際上應用要考慮很多。信號是否容易受干擾。是否在溫度範圍使用。是否散熱能符合。是否價格能普及。是否量產能順利。是否有足夠廠商配套。電子產品目前大概是Dvd 壽命最短。就跟SSD非常快。但硬碟還是有存在價值一樣
@@小兵-j1r 這倒不一定,很多東西公佈出來的時候可能早在前幾年就以經做出來了,實際應用上先來個大刀切一下,例如矽光子晶片100分的能力,只需要裡面的20分,就能打趴所有傳統晶片,那就用刀法切一下,讓矽光子晶片只比傳統晶片強上20%或30%,結果只需要拿出矽光子晶片的10分的能力,之後每一代提升個10分。
就如台積電,先前就公佈了矽光子晶片製程與封裝,等設計公司來下單,但就是不公佈何時量產,為什麼?
因為還有現在的3nm廠與正要蓋的1nm廠,投資蓋廠的錢都還沒回本,怎麼可能直接用最新的矽光子晶片
設計公司也是一樣的,每一代提升多少都是早就已經設定好的目標,就算發佈最新一代,也會讓上一代的產品還有一個固定的生命周期繼續為公司獲利,所以必然不會有跨越幅度的提升
-------------
矽光子晶片製程的公佈,我個人猜想,正在跟各大設計公司研討怎麼切蛋糕
All mimic nature.
全部看不懂,哈哈哈哈哈
屌
Baccarat new Random Strategy by Guru James Grosjean's Probability from Master Wu
❤❤❤❤❤
然後這些科學家就跑去N家了....😅
30 years later😂😂😂😂😂😂😂😂😂😂😂😂😂😂😂😂