小黑黑讲AI
小黑黑讲AI
  • Видео 93
  • Просмотров 82 773

Видео

再讲一遍,神经网络识别MNIST手写数字,最经典的神经网络案例
Просмотров 81День назад
再讲一遍,神经网络识别MNIST手写数字,最经典的神经网络案例
Transformer模型的多头注意力机制,非常详细的讲解
Просмотров 175Месяц назад
Transformer模型的多头注意力机制,非常详细的讲解
什么是层归一化LayerNorm,为什么Transformer使用层归一化
Просмотров 1662 месяца назад
什么是层归一化LayerNorm,为什么Transformer使用层归一化
从零实现一个卷积神经网络,Lenet5网络详解
Просмотров 1603 месяца назад
从零实现一个卷积神经网络,Lenet5网络详解
基于词向量和神经网络,训练文本分类模型
Просмотров 1953 месяца назад
基于词向量和神经网络,训练文本分类模型
神经网络经典案例,用神经网络模拟正弦函数
Просмотров 1424 месяца назад
神经网络经典案例,用神经网络模拟正弦函数
零基础也看得懂,从零实现一个多元线性回归模型
Просмотров 2204 месяца назад
零基础也看得懂,从零实现一个多元线性回归模型
《从零学神经网络和深度学习》动画课程,正式发布!
Просмотров 2764 месяца назад
订阅《从零学神经网络和深度学习》添加我的小助手微信V:xheiai 198元! 买1送2:还可获得《看动画,学Python编程》和《看动画,学算法和数据结构》两套课!
学习Transformer,应该从词嵌入WordEmbedding开始
Просмотров 6455 месяцев назад
学习Transformer,应该从词嵌入WordEmbedding开始
深度讲解AI大模型原理,它如何生成文本,又如何模拟对话
Просмотров 2145 месяцев назад
深度讲解AI大模型原理,它如何生成文本,又如何模拟对话
从零设计并训练一个神经网络,你就能真正理解它了
Просмотров 1 тыс.6 месяцев назад
从零设计并训练一个神经网络,你就能真正理解它了
学习神经网络,最好从逻辑回归开始
Просмотров 2466 месяцев назад
学习神经网络,最好从逻辑回归开始
被Stanford抄袭的清华多模态大模型,MiniCPM Llama3 V使用详解
Просмотров 4237 месяцев назад
被Stanford抄袭的清华多模态大模型,MiniCPM Llama3 V使用详解
如何理解Transformer的位置编码,PositionalEncoding详解
Просмотров 4847 месяцев назад
如何理解Transformer的位置编码,PositionalEncoding详解
Transformer库和BERT模型快速入门,基于BERT实现中文新闻分类
Просмотров 6317 месяцев назад
Transformer库和BERT模型快速入门,基于BERT实现中文新闻分类
Transformer模型详解,Attention is all you need
Просмотров 6 тыс.8 месяцев назад
Transformer模型详解,Attention is all you need
初中数学基础都能看懂的,梯度下降算法详解
Просмотров 2838 месяцев назад
初中数学基础都能看懂的,梯度下降算法详解
从零实现图卷积神经网络,GCN模型的设计和训练
Просмотров 7248 месяцев назад
从零实现图卷积神经网络,GCN模型的设计和训练
梯度的数学原理和性质,是理解梯度下降算法的关键前提
Просмотров 5658 месяцев назад
梯度的数学原理和性质,是理解梯度下降算法的关键前提
回溯法求解八皇后问题,理解八皇后问题的每个细节
Просмотров 2299 месяцев назад
回溯法求解八皇后问题,理解八皇后问题的每个细节
详解Pytorch的自动微分功能,自动计算函数的导数和偏导数
Просмотров 1599 месяцев назад
详解Pytorch的自动微分功能,自动计算函数的导数和偏导数
从零理解梯度下降算法,梯度下降的算法原理
Просмотров 1999 месяцев назад
从零理解梯度下降算法,梯度下降的算法原理
一道动态规划算法题完全背包变形,完全平方数LeetCode 279
Просмотров 629 месяцев назад
一道动态规划算法题完全背包变形,完全平方数LeetCode 279
VGG19卷积神经网络详解,基于ImageNet微调图像分类模型
Просмотров 26610 месяцев назад
VGG19卷积神经网络详解,基于ImageNet微调图像分类模型
如何优化非凸的目标函数,对比SGD、Adam和LBFGS三种优化器
Просмотров 21410 месяцев назад
如何优化非凸的目标函数,对比SGD、Adam和LBFGS三种优化器
什么是Reinforce强化学习算法,使用强化学习玩CartPole游戏
Просмотров 39410 месяцев назад
什么是Reinforce强化学习算法,使用强化学习玩CartPole游戏
详解逻辑回归、softmax回归和神经网络,三种模型的关联和区别
Просмотров 42110 месяцев назад
详解逻辑回归、softmax回归和神经网络,三种模型的关联和区别
如何搭建一个好用的Python开发环境,Anaconda和Pycharm的使用
Просмотров 1,5 тыс.11 месяцев назад
如何搭建一个好用的Python开发环境,Anaconda和Pycharm的使用
如何基于ChatGPT,实现智能化的爬虫工具
Просмотров 2,8 тыс.11 месяцев назад
如何基于ChatGPT,实现智能化的爬虫工具

Комментарии

  • @wolfkwin3191
    @wolfkwin3191 11 часов назад

    哥们,想深度合作可以吗?WX: aibotworks

  • @JinhaoPan-np7zy
    @JinhaoPan-np7zy День назад

    good

  • @JinhaoPan-np7zy
    @JinhaoPan-np7zy 4 дня назад

    good

  • @方和-c2v
    @方和-c2v 5 дней назад

    谢谢

  • @vitalguard
    @vitalguard 6 дней назад

    降維打擊🤣

  • @liaowethen
    @liaowethen 7 дней назад

    有圖有字,肯定花了很多心力作影片

  • @tonyyou8265
    @tonyyou8265 15 дней назад

    讲的浅显易懂,动画做的也很棒,感谢

  • @user-Li.shimin
    @user-Li.shimin 25 дней назад

    很容易懂的講解, 訂閱支持

  • @xiyamala-qh4fp
    @xiyamala-qh4fp Месяц назад

    非常好

  • @WukongSun-q2n
    @WukongSun-q2n Месяц назад

    传入的看似不存在的文件名“yolov8n.yaml”,其实里面的“n”用于指定模型的规模为n(nano),源码的yaml_model_load方法有说明,通过正则表达式去掉了后面的“n”,得到“yolov8.yaml”作为最终配置文件名。

  • @kanechen2557
    @kanechen2557 Месяц назад

    謝謝老師!希望可以教學Kernel Maple Tree~感謝您!

  • @shinjisr
    @shinjisr Месяц назад

    節奏拖沓

  • @shuyili4732
    @shuyili4732 Месяц назад

    谢谢老师!

  • @liangzhibang3470
    @liangzhibang3470 Месяц назад

    讲得很好啊,通俗易懂,感谢大佬讲解~

  • @周冠宸-w8u
    @周冠宸-w8u Месяц назад

    想請問為什麼6:08秒那張圖片的第6行編譯後會輸出出 [Incorrect path_or_model_id: '. /google-bert-chinese']? 花很多時間想辦法了但還是處理不了,再麻煩各位回復,謝謝

  • @hjhj-ur2zm
    @hjhj-ur2zm Месяц назад

    你好有对应的代码吗

  • @Giraff12
    @Giraff12 Месяц назад

    講得真好!

  • @陳文續-q5m
    @陳文續-q5m 2 месяца назад

    講得很好

  • @王鹏飞-i1u
    @王鹏飞-i1u 2 месяца назад

    这里的中文标注是什么意思

  • @wenqiangkevin9626
    @wenqiangkevin9626 2 месяца назад

    7:17 等式第二行w1应该是p1

  • @gacctom
    @gacctom 2 месяца назад

    感謝分享!

  • @Ruhgtfo
    @Ruhgtfo 3 месяца назад

    少提了 decode 需要加 Mask 来 不依赖 已知的 Q * K . 11:17

  • @percy6615-ab
    @percy6615-ab 3 месяца назад

    謝謝您的講解 可以清楚理解pytorch如何設計一個神經網絡 但針對前向傳播與反向傳播細節不太清楚 是否可以製作視頻詳細說明呢 謝謝

  • @symanwen
    @symanwen 3 месяца назад

    不同的非线性的激活函数对于神经网络的表达能力有没有区别?

  • @jackrunner4677
    @jackrunner4677 4 месяца назад

    👍

  • @johanacomlan
    @johanacomlan 4 месяца назад

    终于明白了!

  • @pengwang-ro2fp
    @pengwang-ro2fp 4 месяца назад

    对新手来说讲的真不错

  • @Computer-vision-Yolo
    @Computer-vision-Yolo 4 месяца назад

    Your GitHub

  • @xheiai
    @xheiai 4 месяца назад

    希望订阅课程的同学,可以到添加我的小助手微信:xheiai,订阅课程。目前订阅这门课,还能获取《看动画,学Python编程》和《看动画,学算法和数据结构》两套课!因为我不善推销,大家如果想了解更多,可以去我们的官网www.dhcode.cn,了解。后面我会想想如何好好介绍一下我们的产品的~

  • @Longtum
    @Longtum 4 месяца назад

    我在海外,在哪里下单? 我下单也算支持你一下, 很喜欢你视频的绝对干货 😄

    • @xheiai
      @xheiai 4 месяца назад

      添加我的小助手微信:xheiai,就可以订阅课程啦

  • @India_NO1_123
    @India_NO1_123 5 месяцев назад

    🧐

  • @yandeng3865
    @yandeng3865 5 месяцев назад

    期待博主讲讲ChatGPT里的transformer:就是只有decoder的transformer是什么样的?

  • @wusuopu
    @wusuopu 5 месяцев назад

    很棒 很棒,我们要做一个自动收集网球的机器人,要部署一个yolo-tiny 模型,没想到还可以在windows 下训练参数。

  • @charleschang2963
    @charleschang2963 5 месяцев назад

    attention 機制大概是我聽過講的最清楚的👍🏻

  • @andyhuang1034
    @andyhuang1034 5 месяцев назад

    非常透彻明晰,厉害啊

  • @andyhuang1034
    @andyhuang1034 5 месяцев назад

    讲的很清晰

  • @user-muddy
    @user-muddy 6 месяцев назад

    你的 yml檔中沒有寫給模型label資訊的路徑感覺會出錯

    • @jack-vz2dm
      @jack-vz2dm 5 месяцев назад

      会自动从官网下载

  • @devenz6994
    @devenz6994 6 месяцев назад

    视频很用心 棒!

  • @binzhang6003
    @binzhang6003 6 месяцев назад

    14*14*6的特征图,经过16个5*5的卷积核,得到的特征图不应该是16*6个吗?

  • @SoorusMoch
    @SoorusMoch 6 месяцев назад

    后面那一步骤隐藏了

  • @SoorusMoch
    @SoorusMoch 6 месяцев назад

    import torch 。。。不会弄

  • @SoorusMoch
    @SoorusMoch 6 месяцев назад

    讲的真好!

  • @joechen97
    @joechen97 6 месяцев назад

    觀念講得很好理解 厲害👍

  • @yuli.kamakura
    @yuli.kamakura 6 месяцев назад

    隐藏层用于特征提取

  • @hao-si9xg
    @hao-si9xg 6 месяцев назад

    不考虑概率吗?

  • @joexuan6739
    @joexuan6739 6 месяцев назад

    如果要把录像中的方差和协方差解释的一致,方差计算需要除以(m-1)而不是m.

  • @huazhu
    @huazhu 6 месяцев назад

    终于重新又弄懂了似然

  • @travelsin-uy1rl
    @travelsin-uy1rl 7 месяцев назад

    讲的非常好

  • @jianchaoci2405
    @jianchaoci2405 7 месяцев назад

    协方差矩阵一行二列那里写错了,应该是Cov(x1, x2)