- Видео 93
- Просмотров 82 773
小黑黑讲AI
Добавлен 22 май 2023
Видео
什么是层归一化LayerNorm,为什么Transformer使用层归一化
Просмотров 1662 месяца назад
什么是层归一化LayerNorm,为什么Transformer使用层归一化
《从零学神经网络和深度学习》动画课程,正式发布!
Просмотров 2764 месяца назад
订阅《从零学神经网络和深度学习》添加我的小助手微信V:xheiai 198元! 买1送2:还可获得《看动画,学Python编程》和《看动画,学算法和数据结构》两套课!
被Stanford抄袭的清华多模态大模型,MiniCPM Llama3 V使用详解
Просмотров 4237 месяцев назад
被Stanford抄袭的清华多模态大模型,MiniCPM Llama3 V使用详解
如何理解Transformer的位置编码,PositionalEncoding详解
Просмотров 4847 месяцев назад
如何理解Transformer的位置编码,PositionalEncoding详解
Transformer库和BERT模型快速入门,基于BERT实现中文新闻分类
Просмотров 6317 месяцев назад
Transformer库和BERT模型快速入门,基于BERT实现中文新闻分类
Transformer模型详解,Attention is all you need
Просмотров 6 тыс.8 месяцев назад
Transformer模型详解,Attention is all you need
什么是Reinforce强化学习算法,使用强化学习玩CartPole游戏
Просмотров 39410 месяцев назад
什么是Reinforce强化学习算法,使用强化学习玩CartPole游戏
如何搭建一个好用的Python开发环境,Anaconda和Pycharm的使用
Просмотров 1,5 тыс.11 месяцев назад
如何搭建一个好用的Python开发环境,Anaconda和Pycharm的使用
哥们,想深度合作可以吗?WX: aibotworks
good
good
谢谢
降維打擊🤣
有圖有字,肯定花了很多心力作影片
讲的浅显易懂,动画做的也很棒,感谢
很容易懂的講解, 訂閱支持
非常好
传入的看似不存在的文件名“yolov8n.yaml”,其实里面的“n”用于指定模型的规模为n(nano),源码的yaml_model_load方法有说明,通过正则表达式去掉了后面的“n”,得到“yolov8.yaml”作为最终配置文件名。
謝謝老師!希望可以教學Kernel Maple Tree~感謝您!
節奏拖沓
谢谢老师!
讲得很好啊,通俗易懂,感谢大佬讲解~
想請問為什麼6:08秒那張圖片的第6行編譯後會輸出出 [Incorrect path_or_model_id: '. /google-bert-chinese']? 花很多時間想辦法了但還是處理不了,再麻煩各位回復,謝謝
你好有对应的代码吗
講得真好!
講得很好
这里的中文标注是什么意思
7:17 等式第二行w1应该是p1
感謝分享!
少提了 decode 需要加 Mask 来 不依赖 已知的 Q * K . 11:17
謝謝您的講解 可以清楚理解pytorch如何設計一個神經網絡 但針對前向傳播與反向傳播細節不太清楚 是否可以製作視頻詳細說明呢 謝謝
不同的非线性的激活函数对于神经网络的表达能力有没有区别?
👍
终于明白了!
对新手来说讲的真不错
Your GitHub
希望订阅课程的同学,可以到添加我的小助手微信:xheiai,订阅课程。目前订阅这门课,还能获取《看动画,学Python编程》和《看动画,学算法和数据结构》两套课!因为我不善推销,大家如果想了解更多,可以去我们的官网www.dhcode.cn,了解。后面我会想想如何好好介绍一下我们的产品的~
我在海外,在哪里下单? 我下单也算支持你一下, 很喜欢你视频的绝对干货 😄
添加我的小助手微信:xheiai,就可以订阅课程啦
🧐
期待博主讲讲ChatGPT里的transformer:就是只有decoder的transformer是什么样的?
很棒 很棒,我们要做一个自动收集网球的机器人,要部署一个yolo-tiny 模型,没想到还可以在windows 下训练参数。
attention 機制大概是我聽過講的最清楚的👍🏻
非常透彻明晰,厉害啊
讲的很清晰
你的 yml檔中沒有寫給模型label資訊的路徑感覺會出錯
会自动从官网下载
视频很用心 棒!
14*14*6的特征图,经过16个5*5的卷积核,得到的特征图不应该是16*6个吗?
后面那一步骤隐藏了
import torch 。。。不会弄
讲的真好!
觀念講得很好理解 厲害👍
隐藏层用于特征提取
不考虑概率吗?
如果要把录像中的方差和协方差解释的一致,方差计算需要除以(m-1)而不是m.
终于重新又弄懂了似然
讲的非常好
协方差矩阵一行二列那里写错了,应该是Cov(x1, x2)