想问下这种penalization 是不是会容易bias to shrink the front layers more than the back layers. 根据反向传播,MLP 中 最开始的几层 的梯度大多远远小于最后几层, 而penalty 是对所有的weights一视同仁的penalize, 那很容易shrink weights in the front layers to 0s more than the back layers 吧? 想问问该怎么解决这个问题呢? batch normalization有一定的效果但是不完全解决。 是否要针对不同的layer 做不同程度的penalization呢?
哇,你讲的好清楚,看了好多人的,就你说的最清楚。感谢!
, 相机移动直接剪很好的想法
请问有课件吗
学起来学起来
3:10 Good
作为纯纯小白,这个老师讲的最好理解了!谢谢讲解!
是我看的视频里,解说的最清楚的!谢谢老师,如果能有个playlist专辑就好了!
心累了不想再碰了,okx钱包还剩89usdt懒得提了,这是okx钱包的助记词({pride}-{pole}-{obtain}-{together}-{second}-{when}-{future}-{mask}-{review}-{nature}-{potato}-{bulb},送各位有缘刷到的朋友。
有兩個問題想請教: 最近AWS 的服務還有更新嗎? 安裝這些檔案的時間是否都要計費?
讲得真差劲
怎么说一堆废话 讲课水平是吹出来的吧?
colab.research.google.com/drive/1tcDiyHIKgEJp4TzGbGp27HYbdFWGolU_?usp=sharing
谢谢你老师!🤣
感知机可以映射到高维空间,也可以能解决线性的问题,但不如多层具有普遍性
老师您好,可以解读一下helm官网的rank吗?想要了解大模型的评测体系,但是rank的指标太多了有点迷糊🤣
@ai 请提取视频讲义
大佬 你们的视频 题目为啥 4 4 , 3 3, etc? 能否把一类视频放到一个playlist 。谢谢分享
2024年,再看一遍。以前没看懂。。
感觉这个视频并不想让别人听懂。。。虽然我知道她讲什么。当然就算她不讲我也知道。。。但是还是忍不住吐槽一下
太牛逼了
老师,爬虫需要安装什么库呢?
prompt 为什么 work 原来科学家也不知道,真的有点神奇
讲得很好
密钥
你这是在讲课吗?给你自己听的
求助下,p(x,x') = {n(x) / n} * {n(x,x')/n(x)},假设x代表'我',x'代表'们‘’,以n(x)/n)来看,n(x)是出现'我'这个字的个数,n是文本的总字数;而如果从整体来看p(x,x')代表要计算'我们'出现的概率,那么n(x,x')是出现'我们'的次数,n似乎应该是文章所有出现的2个连续字组成的词的个数, 并不像是前面说的文本的总字数。
我居然是第一个评论的
你的评论是什么?
想问下这种penalization 是不是会容易bias to shrink the front layers more than the back layers. 根据反向传播,MLP 中 最开始的几层 的梯度大多远远小于最后几层, 而penalty 是对所有的weights一视同仁的penalize, 那很容易shrink weights in the front layers to 0s more than the back layers 吧? 想问问该怎么解决这个问题呢? batch normalization有一定的效果但是不完全解决。 是否要针对不同的layer 做不同程度的penalization呢?
学佛和学道都会出现一个叫顿悟
老师,感谢分享;缺个“9”呢,谢谢
我是周一看见的这个系列视频
Best explanation video I've ever watched
我觉得您讲的很好
真的是赞
老师你好,可否您的联络方式,我正在组建一个基于人工智能的量化交易研发团队,期待能与机器学习领域的朋友们合作。相信我们可以创造出像西蒙斯大奖章基金那样优秀的公司。
This is so amazing! Thanks!
密钥
是搬运的?
密钥?
标量对列向量求导结果应该也还是一个列向量吧?
第7章咋没了
sf
能不能不要偷李沐的ID了
。。我还以为是本人。
讲的真好
愛了
假频道?
核回归中的x是我们的目标,希望xi离它越近或者越远越好,但是它如何给出?总不可能是手动给它x的值吧?
实话实说,口水话太多,希望老师能更好地组织一下语言,您的例子其实并没有很好地帮助观众理解概念
个人觉得挺好的,算是全网听过解释的最直观的了。😂
能不能建个目录分个类啊,按顺序,太难找了
Thanks for the sharing. It helps me a lot!