Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
温故而知新。时至今日,重读AlexNet论文,重看李沐老师的解读,仍然能够得到新的感悟。
2:19 第一章 : 介紹2:43 1.1 深度學習開場白4:45 1.2 用CNN作影像識別5:49 1.3 GPU已經算得動CNN6:10 1.4 論文貢獻9:26 1.5 GPU與相關工作10:11 第二章:數據集(與前處理)14:19 第三章:網路架構14:47 3.1 用ReLU跑比較快18:16 3.2 多GPU訓練(技術問題)19:12 3.3 Local Response Normalization20:58 3.4 池化層改動21:52 3.5 總架構:5個捲積層,3個全連接層(未完)
读论文不只是了解技术细节,更重要是吸收不同作者的观点,最终形成自己独特的观点。
感謝老師的分享,真的實在是太受用了!
很喜欢。必须感谢老师的工作
感谢论文带读,学到很多看论文方法
很喜欢这种深刻的阅读论文的方式,希望放出更多的video
听到沐神也承认一些不常用东西细节记不住(比如sift,或者是那个transformer的奇怪position embedding)我就放心了,说明并非我特别蠢。很多东西当时理解,但不去动手尝试的话很快就忘光了。
完美了补充学校的课程和工作之间的gap
谢谢老师,受益匪浅。
很喜欢这个系列!授之以渔!
谢谢老师。求带读“Multilayer feedforward networks are universal approximators”
非常感谢, 受益良多
领读很好,文章还是要自己看
BN, LN 不算是 regularization 吗?
大佬 可以讲讲 Network in Network 这篇论文吗
回头看,模型切割放在GPU就是现在LLM的情况,实属远见
其实580基本是当年最强显卡了,除了590。
他们发论文的时候,680已经发布3个月了
沐神用的是哪个PDF阅读器?
Goodnotes
温故而知新。时至今日,重读AlexNet论文,重看李沐老师的解读,仍然能够得到新的感悟。
2:19 第一章 : 介紹
2:43 1.1 深度學習開場白
4:45 1.2 用CNN作影像識別
5:49 1.3 GPU已經算得動CNN
6:10 1.4 論文貢獻
9:26 1.5 GPU與相關工作
10:11 第二章:數據集(與前處理)
14:19 第三章:網路架構
14:47 3.1 用ReLU跑比較快
18:16 3.2 多GPU訓練(技術問題)
19:12 3.3 Local Response Normalization
20:58 3.4 池化層改動
21:52 3.5 總架構:5個捲積層,3個全連接層
(未完)
读论文不只是了解技术细节,更重要是吸收不同作者的观点,最终形成自己独特的观点。
感謝老師的分享,真的實在是太受用了!
很喜欢。必须感谢老师的工作
感谢论文带读,学到很多看论文方法
很喜欢这种深刻的阅读论文的方式,希望放出更多的video
听到沐神也承认一些不常用东西细节记不住(比如sift,或者是那个transformer的奇怪position embedding)我就放心了,说明并非我特别蠢。很多东西当时理解,但不去动手尝试的话很快就忘光了。
完美了补充学校的课程和工作之间的gap
谢谢老师,受益匪浅。
很喜欢这个系列!授之以渔!
谢谢老师。求带读“Multilayer feedforward networks are universal approximators”
非常感谢, 受益良多
领读很好,文章还是要自己看
BN, LN 不算是 regularization 吗?
大佬 可以讲讲 Network in Network 这篇论文吗
回头看,模型切割放在GPU就是现在LLM的情况,实属远见
其实580基本是当年最强显卡了,除了590。
他们发论文的时候,680已经发布3个月了
沐神用的是哪个PDF阅读器?
Goodnotes