Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
非常感谢老师清晰的讲解!您提供的例子与代码让讲解变得更具体和易懂!
讲的非常好!!!
感恩分享,非常清晰!感觉可以考虑给H增加维度,比如32 -> 128这样
当embedding层的参数太多,从而造成overfiting的时候,可不可以减少词向量的维度,以视频里的电影评论为例,把词向量减少到32以下,这样会提升模型的整体效果吗?
Best video ever
王老师您好~。 在pretrain 模块中,您说embedding 层在大数据集中train完之后,放到LSTM中参数就不变了。 但是我理解的transfer learning中,pretrain完的参数不应该是作为之后训练的初始值,然后做微调嘛?
数据够大就应该fine tuning
谢谢王老师。对embedding 有没有更多技巧的讲座?
王老师好,双向LSTM那个听懂了,但是有点不太明白,比如在时刻t的时候,需要正向lstm的输出A,需要逆向lstm的输出A撇,可是A撇这时候是不是还没算出来啊?那这两个向量做拼接怎么做呀
可以等两个输出都拿到了,再做拼接。
谢谢老师!
王老师讲的真好,能否加个linkedin
讲的很好
求更新
你好 大佬 我想问下 5.45 的 部分 h0 和 ht‘ 就是 y1 吗? 只是 如果是一层的话 就用 ht 和 ht’结合起来 丢进 全链接层 对吧
h是整句话的输出。y是双向分别到这个词的两个参数矩阵的输出。
ht 和 ht'两个向量concat在一起,得到一个新的向量,这个向量的长度是两倍的h,这个新的向量记作y,y就是这个双向RNN的最终输出
very good
有实际代码可以分享在git吗
666
非常感谢老师清晰的讲解!您提供的例子与代码让讲解变得更具体和易懂!
讲的非常好!!!
感恩分享,非常清晰!
感觉可以考虑给H增加维度,比如32 -> 128这样
当embedding层的参数太多,从而造成overfiting的时候,可不可以减少词向量的维度,以视频里的电影评论为例,把词向量减少到32以下,这样会提升模型的整体效果吗?
Best video ever
王老师您好~。 在pretrain 模块中,您说embedding 层在大数据集中train完之后,放到LSTM中参数就不变了。 但是我理解的transfer learning中,pretrain完的参数不应该是作为之后训练的初始值,然后做微调嘛?
数据够大就应该fine tuning
谢谢王老师。对embedding 有没有更多技巧的讲座?
王老师好,双向LSTM那个听懂了,但是有点不太明白,比如在时刻t的时候,需要正向lstm的输出A,需要逆向lstm的输出A撇,可是A撇这时候是不是还没算出来啊?那这两个向量做拼接怎么做呀
可以等两个输出都拿到了,再做拼接。
谢谢老师!
王老师讲的真好,能否加个linkedin
讲的很好
求更新
你好 大佬 我想问下 5.45 的 部分 h0 和 ht‘ 就是 y1 吗? 只是 如果是一层的话 就用 ht 和 ht’结合起来 丢进 全链接层 对吧
h是整句话的输出。y是双向分别到这个词的两个参数矩阵的输出。
ht 和 ht'两个向量concat在一起,得到一个新的向量,这个向量的长度是两倍的h,这个新的向量记作y,y就是这个双向RNN的最终输出
very good
有实际代码可以分享在git吗
666
666