AlexNet论文逐段精读

Поделиться
HTML-код
  • Опубликовано: 11 янв 2025

Комментарии • 22

  • @shifangxu1054
    @shifangxu1054 2 месяца назад

    温故而知新。时至今日,重读AlexNet论文,重看李沐老师的解读,仍然能够得到新的感悟。

  • @tony_0878
    @tony_0878 8 месяцев назад

    2:19 第一章 : 介紹
    2:43 1.1 深度學習開場白
    4:45 1.2 用CNN作影像識別
    5:49 1.3 GPU已經算得動CNN
    6:10 1.4 論文貢獻
    9:26 1.5 GPU與相關工作
    10:11 第二章:數據集(與前處理)
    14:19 第三章:網路架構
    14:47 3.1 用ReLU跑比較快
    18:16 3.2 多GPU訓練(技術問題)
    19:12 3.3 Local Response Normalization
    20:58 3.4 池化層改動
    21:52 3.5 總架構:5個捲積層,3個全連接層
    (未完)

  • @shifangxu1054
    @shifangxu1054 2 месяца назад

    读论文不只是了解技术细节,更重要是吸收不同作者的观点,最终形成自己独特的观点。

  • @iceleaf97
    @iceleaf97 3 года назад +3

    感謝老師的分享,真的實在是太受用了!

  • @yongcai6883
    @yongcai6883 3 года назад +1

    很喜欢。必须感谢老师的工作

  • @babycarrot5523
    @babycarrot5523 Год назад

    感谢论文带读,学到很多看论文方法

  • @xinwang6125
    @xinwang6125 3 года назад

    很喜欢这种深刻的阅读论文的方式,希望放出更多的video

  • @tildarusso
    @tildarusso Год назад +3

    听到沐神也承认一些不常用东西细节记不住(比如sift,或者是那个transformer的奇怪position embedding)我就放心了,说明并非我特别蠢。很多东西当时理解,但不去动手尝试的话很快就忘光了。

  • @ipip247
    @ipip247 Год назад +4

    完美了补充学校的课程和工作之间的gap

  • @fanfan196
    @fanfan196 Год назад

    谢谢老师,受益匪浅。

  • @cc189tv
    @cc189tv 3 года назад

    很喜欢这个系列!授之以渔!

  • @annieren6823
    @annieren6823 3 года назад +2

    谢谢老师。求带读“Multilayer feedforward networks are universal approximators”

  • @techbays675
    @techbays675 2 года назад

    非常感谢, 受益良多

  • @muyuanliu3175
    @muyuanliu3175 11 месяцев назад

    领读很好,文章还是要自己看

  • @ikarienator
    @ikarienator Год назад

    BN, LN 不算是 regularization 吗?

  • @techbays675
    @techbays675 2 года назад

    大佬 可以讲讲 Network in Network 这篇论文吗

  • @gabelliemann322
    @gabelliemann322 3 месяца назад

    回头看,模型切割放在GPU就是现在LLM的情况,实属远见

  • @liangyuzhong1636
    @liangyuzhong1636 Год назад

    其实580基本是当年最强显卡了,除了590。

    • @wsy987
      @wsy987 Год назад

      他们发论文的时候,680已经发布3个月了

  • @yiweiru2148
    @yiweiru2148 2 года назад

    沐神用的是哪个PDF阅读器?