Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
Part 1):任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。人類有許多其他不同型態非常複雜的知慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。 其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。 只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。 此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
寫論文啊你
@@louis-dieudonne5941 與其說是寫論文,不如說是倚老賣老話唬爛。廻歸分析確實和神經網路是有關聯的,但前者應該沒有隨機性吧?而語言學家對於AI的發展,應該也不是那麼至關重要。像BERT這種將近10年前的模型都會自己學會語言的邏輯,每一層有各自不同的用途但結構卻一模一樣。這不是人教的而是模型自己學出來的。
老師講得非常深入淺出,聽一聽還會笑出來,學到很多
老师是以其昭昭,使人昭昭。讲的真好。有好些个东西,好的中文老师一讲就非常贴切,英文的质量也许不错,但就是对我们的针对性不够,经常上课听一些笑话,但只在那里傻呵呵看别人笑。
这一年听过很多AI课觉得李老师讲的是最好的!谢谢老师!
感謝老師提供這麼好的課程,從事機器學習相關工作快五年了,還是會常常回來複習或是學習新知識
绷不住了,老师教学简洁易懂有趣生动,太厉害啦
爽了?
感謝李老師,做為一個剛考完資工所的學生,在空白期的時候還有東西可以學習,雖然沒機會去台大至少學習的熱情不能輸!
謝謝教授公開影片,讓社會人士的我們也能獲取相關知識👍
李老师的课太好了, 深入浅出,离开学校这么久也能听懂,
李老师的讲解深入浅出,解惑又有趣,感谢!
現在LLM更新太快,已經等不及聽老師的新課了😂求老師指點當前趨勢下普通打工人還可能在那些方面修修補補GPT,使自己不被淘汰😅
这是全世界打工人的顾虑吗
教授做不到。他就是一个混饭的教书匠。
@@gabrielgracenathanana1713 ??
感谢李老师的精彩分享!期待继续follow下学期的《生成式AI导论》的内容:) 期待更多实操的assignments🤩
Great lecture as usual. Look forward to professor start talking about In-Context learning where I believe it's a lot of where the magic occur.
2:08 ChatGPT給了正確的答案但是錯誤的推論,但是錯誤的推論中有關鍵的正確元素,也就是如果A不是square matrix. ChatGPT在回答證明題是也有同樣的問題,但是回答中也經常有關鍵有用的推論,還是相當神奇。
另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片。英偉達GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 工作,則晶片可以非常簡化。
老师讲的真的很棒!每个视频都很有质量!!
目前看到最好的LLM入门介绍,深入浅出乃大师也
先深呼吸再作答,太有意思啦,哈哈哈,老师讲得真好!
1. 80分鐘理解大型語言模型2. 5條悟出現在5:30
好赞,找了很久的资料,到底是李老师讲得最明白
李教授您好,首先感谢您上传视频,您的视频讲解清晰,内容前沿,是非常难得的学习资料,他们帮助了无数人了解学习ai 。我是一个厨师,业余会写些ai 相关的科普,能否在标明出处的情况下,引用您ppt 的内容与部分作业代码?非商业行为祝老师龙年大吉,财源滚滚,研究有成!
沒問題
感謝老師的辛苦付出. 向您提個小建議: 調整一下mic的音量.
老師講解真的相當有趣 :)
老師說咒術有雷,但居然暴雷了獵人,想必獵人已經脫更到不算暴雷的程度了
那我這邊再多爆一個巨人的雷,男主角的媽媽會被巨人吃掉而便當
第一集就死了啊@@louislouis117228
好棒的內容,這是可以免費看的嗎!!感謝老師的分享!!
确实讲得好啊……我大学要是有个这样的老师,我……应该还是我……
感谢李老师的分享,讲的是真的棒!
我阿公追隨的ML學習寶典終於又更新啦
哈哈哈, 刚在ACML见到老师本人, 但是没来得及找老师合照。
1:04:57 处的 ref 的论文地址有 typo,好像应该是11903
干货满满,李老师讲的太好了
李老师24年春会考虑讲一下对比学习嘛❤
之前的課程其實也有講過一些 contrastive learning 喔,SimCLR, BYOL 等都有提到ruclips.net/video/lMIN1iKYNmA/видео.htmlsi=E-_dWvbgtxmPbmIH
@@HungyiLeeNTU 哦哦,刷完了您21年的课程,还没刷22年的,这就去刷,哈哈。谢谢李老师~
第一次看到老師叫學生嗚住耳朵不要聽 🤣
不知道老師能否share PPT 讓更多人協助傳達這份力量?
外地人如果來台灣可以旁聼課嗎?感覺聽課比去景點還有意思😂
去景點跟旁聽是可以比較的兩件事嗎?
他只是想表達老師的課講的很生動很有意思啦。@@aacc_okina
@@aacc_okina人家相較於玩樂,更嚮往學習有什麼問題嗎?
@@于治維-w3o 認真討論的話,雖沒什麼問題,但我個人認為拿景點跟旁聽課程做比較並不恰當。景點是讓人從體驗上得到快樂。而聽課是從獲得知識中得到快樂。共通點都是快樂。不相同的點是景點並不用消費特定個人的大量知識和時間成本。而課程是需要的。去景點不需要取得任何人的同意,因為景點本身就是為了遊客和消費而打造的。但授課無論是否收費,都是需要老師的同意,並不是像景點是完全對外開放的。這是我認為景點不適合和課程比較的原因。在想獲得旁聽機會時,將玩樂對比老師的課程,對於專業或許稍有不尊重。這是我身為一個學生的看法。但我相信樓主的本意只是想表示對老師課程的生動有趣表示認同而已。並不是一種不尊重的表現。 抱歉認真了XD
人生就是三件事, 1.出生, 2.跟李老師合照, 3.轉生異世界
謝謝老師有在標題寫出無情暴雷的時間點XD
期待生成式ai导论的课程🎉请问最早大概什么时候可以在RUclips上看到❤
沒有意外的話應該會是二月底開始上課
說得很清楚! 厲害的老師
許久沒更新, 覺得很棒!
五條體笑出來😂😂😂
AI在不斷的進步,作為一個學生,該如何面對AI的衝擊?
content loudness -14.8dB聲音有點小聲 :(
老師您好,您的課讓收受益頗多。 我能否轉載您這堂課? (純分享,非商業行為)
沒問題👍
@@HungyiLeeNTU 謝謝老師☺
我只是看到咒術迴戰就進來了
老师以后会讲联邦学习嘛?
好棒.搶到小板凳了❤來複習一下😊
终于开始更新了, 等了好久了....
想念老师的第5个月,老师更新了!
求老师讲解flash attention 和 mamba
李sir 我小音箱拉到最大声了,还是小声了点
老师,请问哪里有slides呀?
老師 請問大金助教會製造冷氣嗎?
我认为还是gemini好用 gpt基本靠吹 没对比就没有伤害
大金!! 感謝老師🐻
老师更新了,先赞后看
欢迎回来!!
非常實用,讓我想到許多IDEA ^^
现在大模型在cv领域也有很多发展了
请教各位,0基础看什么课?
李老師有對gemini的看法嗎?
很棒!一直在等
感謝分享 👍
五個月沒有課上,都面目可憎了。😂
五條體太神了吧 😂😂
1:02:17 人類的互動也需要懂得下指令啊QQQQ
最好的中文教师
心心念念 等著老師發影片阿...
终于等到你❤
老师我爱你
讲的也太清楚了
老师赶快用 GPT4.
謝謝老師
有夠讚
求老师多多更新
6:30 有猎人🤗
前排坐小板凳听
今天錄製今天上片 太狠了
李弘毅幾班,大金
右上角是什么输入法?
以下是Bing產生的結果:注音符號(ㄓㄨˋㄧㄣㄈㄨˊㄏㄠˋ),原名注音字母,簡稱注音,是標準漢語標音系統之一,以章太炎編創的「紐文」、「韻文」為藍本,於1912年由中華民國教育部制定,並於1918年正式發佈,後於1930年改為現名。注音符號是一套用來標示漢字發音的符號系統。每個注音符號代表一個音節,包括聲母、韻母和聲調。例如,「啊」的注音符號是「ㄚ」。與拼音不同,拼音是按照普通話音節的構成規律,將聲母、韻母急速連續拼合並加上聲調而成為一個音節的過程。而注音符號則是直接標示漢字的發音,不涉及拼讀音節的過程。總之,注音符號是一個重要的工具,用來幫助人們準確地讀出漢字的發音,特別在小學國語教育中被廣泛使用。
5:00 很臭😅😅
这个声音忽远忽近 听起来感受真差,特别是带着耳机
我是来看咒术回战雷的
哈哈哈哈哈,请叫2.5条悟
深入浅出
陷阱题 - 都是很简单的嘛,只有教书匠会用这些词汇。😂
好了啦 不要翻牆來亂吧 自己回家爽吧
🎉🎉🎉🚀
笑到不行😂
VeryEasyHack 筆記筆記
笑死,還有咒術迴戰雷,哈哈哈😂
來了來了
簽⋯
上课啦 in Chengdu
簽到
太好了!大陆的
[ 有咒術廻戰雷 ]
五條悟被分一半放在五分半,太鬼了
國際頂尖大學的頂尖學者錄影片用個好一點的收音設備有困難嗎?
是在吵什麼,買個助聽器有困難嗎?
你去donate 不就有了嗎
感謝贊助
身為一個免費使用者,請你換個好一點的腦袋不也做不到嗎?
大家都聽的很清楚是牆內待久耳朵出問題了嗎
有人跟我一樣直接快轉到五條體嗎?
3500
22
AI那麼發達,錄音技術幹麼那麼落後呢?
Part 1):
任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。
所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。
而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。
40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。
在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。
近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。
因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。
”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。
何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。
目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。
人類有許多其他不同型態非常複雜的知慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。
另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。
其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。
只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。
此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。
而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
寫論文啊你
@@louis-dieudonne5941 與其說是寫論文,不如說是倚老賣老話唬爛。
廻歸分析確實和神經網路是有關聯的,但前者應該沒有隨機性吧?
而語言學家對於AI的發展,應該也不是那麼至關重要。
像BERT這種將近10年前的模型都會自己學會語言的邏輯,每一層有各自不同的用途但結構卻一模一樣。這不是人教的而是模型自己學出來的。
老師講得非常深入淺出,聽一聽還會笑出來,學到很多
老师是以其昭昭,使人昭昭。讲的真好。有好些个东西,好的中文老师一讲就非常贴切,英文的质量也许不错,但就是对我们的针对性不够,经常上课听一些笑话,但只在那里傻呵呵看别人笑。
这一年听过很多AI课觉得李老师讲的是最好的!谢谢老师!
感謝老師提供這麼好的課程,從事機器學習相關工作快五年了,還是會常常回來複習或是學習新知識
绷不住了,老师教学简洁易懂有趣生动,太厉害啦
爽了?
感謝李老師,做為一個剛考完資工所的學生,在空白期的時候還有東西可以學習,雖然沒機會去台大至少學習的熱情不能輸!
謝謝教授公開影片,讓社會人士的我們也能獲取相關知識👍
李老师的课太好了, 深入浅出,离开学校这么久也能听懂,
李老师的讲解深入浅出,解惑又有趣,感谢!
現在LLM更新太快,已經等不及聽老師的新課了😂求老師指點當前趨勢下普通打工人還可能在那些方面修修補補GPT,使自己不被淘汰😅
这是全世界打工人的顾虑吗
教授做不到。他就是一个混饭的教书匠。
@@gabrielgracenathanana1713 ??
感谢李老师的精彩分享!期待继续follow下学期的《生成式AI导论》的内容:) 期待更多实操的assignments🤩
Great lecture as usual. Look forward to professor start talking about In-Context learning where I believe it's a lot of where the magic occur.
2:08 ChatGPT給了正確的答案但是錯誤的推論,但是錯誤的推論中有關鍵的正確元素,也就是如果A不是square matrix. ChatGPT在回答證明題是也有同樣的問題,但是回答中也經常有關鍵有用的推論,還是相當神奇。
另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片。英偉達GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 工作,則晶片可以非常簡化。
老师讲的真的很棒!每个视频都很有质量!!
目前看到最好的LLM入门介绍,深入浅出乃大师也
先深呼吸再作答,太有意思啦,哈哈哈,老师讲得真好!
1. 80分鐘理解大型語言模型
2. 5條悟出現在5:30
好赞,找了很久的资料,到底是李老师讲得最明白
李教授您好,首先感谢您上传视频,您的视频讲解清晰,内容前沿,是非常难得的学习资料,他们帮助了无数人了解学习ai 。
我是一个厨师,业余会写些ai 相关的科普,能否在标明出处的情况下,引用您ppt 的内容与部分作业代码?非商业行为
祝老师龙年大吉,财源滚滚,研究有成!
沒問題
感謝老師的辛苦付出. 向您提個小建議: 調整一下mic的音量.
老師講解真的相當有趣 :)
老師說咒術有雷,但居然暴雷了獵人,想必獵人已經脫更到不算暴雷的程度了
那我這邊再多爆一個巨人的雷,男主角的媽媽會被巨人吃掉而便當
第一集就死了啊@@louislouis117228
好棒的內容,這是可以免費看的嗎!!
感謝老師的分享!!
确实讲得好啊……我大学要是有个这样的老师,我……应该还是我……
感谢李老师的分享,讲的是真的棒!
我阿公追隨的ML學習寶典終於又更新啦
哈哈哈, 刚在ACML见到老师本人, 但是没来得及找老师合照。
1:04:57 处的 ref 的论文地址有 typo,好像应该是11903
干货满满,李老师讲的太好了
李老师24年春会考虑讲一下对比学习嘛❤
之前的課程其實也有講過一些 contrastive learning 喔,SimCLR, BYOL 等都有提到
ruclips.net/video/lMIN1iKYNmA/видео.htmlsi=E-_dWvbgtxmPbmIH
@@HungyiLeeNTU 哦哦,刷完了您21年的课程,还没刷22年的,这就去刷,哈哈。谢谢李老师~
第一次看到老師叫學生嗚住耳朵不要聽 🤣
不知道老師能否share PPT 讓更多人協助傳達這份力量?
外地人如果來台灣可以旁聼課嗎?感覺聽課比去景點還有意思😂
去景點跟旁聽是可以比較的兩件事嗎?
他只是想表達老師的課講的很生動很有意思啦。@@aacc_okina
@@aacc_okina人家相較於玩樂,更嚮往學習有什麼問題嗎?
@@于治維-w3o 認真討論的話,雖沒什麼問題,但我個人認為拿景點跟旁聽課程做比較並不恰當。
景點是讓人從體驗上得到快樂。而聽課是從獲得知識中得到快樂。共通點都是快樂。
不相同的點是景點並不用消費特定個人的大量知識和時間成本。而課程是需要的。
去景點不需要取得任何人的同意,因為景點本身就是為了遊客和消費而打造的。
但授課無論是否收費,都是需要老師的同意,並不是像景點是完全對外開放的。
這是我認為景點不適合和課程比較的原因。
在想獲得旁聽機會時,將玩樂對比老師的課程,對於專業或許稍有不尊重。
這是我身為一個學生的看法。
但我相信樓主的本意只是想表示對老師課程的生動有趣表示認同而已。
並不是一種不尊重的表現。 抱歉認真了XD
人生就是三件事, 1.出生, 2.跟李老師合照, 3.轉生異世界
謝謝老師有在標題寫出無情暴雷的時間點XD
期待生成式ai导论的课程🎉请问最早大概什么时候可以在RUclips上看到❤
沒有意外的話應該會是二月底開始上課
說得很清楚! 厲害的老師
許久沒更新, 覺得很棒!
五條體笑出來😂😂😂
AI在不斷的進步,作為一個學生,該如何面對AI的衝擊?
content loudness -14.8dB
聲音有點小聲 :(
老師您好,您的課讓收受益頗多。 我能否轉載您這堂課? (純分享,非商業行為)
沒問題👍
@@HungyiLeeNTU 謝謝老師☺
我只是看到咒術迴戰就進來了
老师以后会讲联邦学习嘛?
好棒.搶到小板凳了❤來複習一下😊
终于开始更新了, 等了好久了....
想念老师的第5个月,老师更新了!
求老师讲解flash attention 和 mamba
李sir 我小音箱拉到最大声了,还是小声了点
老师,请问哪里有slides呀?
老師 請問大金助教會製造冷氣嗎?
我认为还是gemini好用 gpt基本靠吹 没对比就没有伤害
大金!! 感謝老師🐻
老师更新了,先赞后看
欢迎回来!!
非常實用,讓我想到許多IDEA ^^
现在大模型在cv领域也有很多发展了
请教各位,0基础看什么课?
李老師有對gemini的看法嗎?
很棒!一直在等
感謝分享 👍
五個月沒有課上,都面目可憎了。😂
五條體太神了吧 😂😂
1:02:17 人類的互動也需要懂得下指令啊QQQQ
最好的中文教师
心心念念 等著老師發影片阿...
终于等到你❤
老师我爱你
讲的也太清楚了
老师赶快用 GPT4.
謝謝老師
有夠讚
求老师多多更新
6:30 有猎人🤗
前排坐小板凳听
今天錄製今天上片 太狠了
李弘毅幾班,大金
右上角是什么输入法?
以下是Bing產生的結果:
注音符號(ㄓㄨˋㄧㄣㄈㄨˊㄏㄠˋ),原名注音字母,簡稱注音,是標準漢語標音系統之一,以章太炎編創的「紐文」、「韻文」為藍本,於1912年由中華民國教育部制定,並於1918年正式發佈,後於1930年改為現名。
注音符號是一套用來標示漢字發音的符號系統。每個注音符號代表一個音節,包括聲母、韻母和聲調。例如,「啊」的注音符號是「ㄚ」。
與拼音不同,拼音是按照普通話音節的構成規律,將聲母、韻母急速連續拼合並加上聲調而成為一個音節的過程。而注音符號則是直接標示漢字的發音,不涉及拼讀音節的過程。
總之,注音符號是一個重要的工具,用來幫助人們準確地讀出漢字的發音,特別在小學國語教育中被廣泛使用。
5:00 很臭😅😅
这个声音忽远忽近 听起来感受真差,特别是带着耳机
我是来看咒术回战雷的
哈哈哈哈哈,请叫2.5条悟
深入浅出
陷阱题 - 都是很简单的嘛,只有教书匠会用这些词汇。😂
好了啦 不要翻牆來亂吧 自己回家爽吧
🎉🎉🎉🚀
笑到不行😂
VeryEasyHack 筆記筆記
笑死,還有咒術迴戰雷,哈哈哈😂
來了來了
簽⋯
上课啦 in Chengdu
簽到
太好了!大陆的
[ 有咒術廻戰雷 ]
五條悟被分一半放在五分半,太鬼了
國際頂尖大學的頂尖學者錄影片用個好一點的收音設備有困難嗎?
是在吵什麼,買個助聽器有困難嗎?
你去donate 不就有了嗎
感謝贊助
身為一個免費使用者,請你換個好一點的腦袋不也做不到嗎?
大家都聽的很清楚是牆內待久耳朵出問題了嗎
有人跟我一樣直接快轉到五條體嗎?
3500
22
AI那麼發達,錄音技術幹麼那麼落後呢?