Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
祝导师创业顺利!
多谢老师。对了,GPT-4出来了,希望能早点听到老师的评讲
小白,但都喜欢听您说话,支持!
谢谢!希望继续更新!
感恩感谢,这么多分享
导师你终于回来了😭
沐神會打算分享PaLM-E嗎
第一第一,大佬创业了吗!
谢谢导师,想听diffusion model!
赞,风趣有深度
这期李哥的发型很cool
大佬竟然如此高产
针不戳
新东西太多,搬着板凳过来听大佬讲
老师我想请问chatgpt在做推理的时候,1750亿个参数是拷贝到多台机器上,然后计算推理吗,能服务那么多用户,肯定是多个节点(分布式节点),然后每个节点有1750亿个参数.单个节点自己服务多用户的时候可以用到多线程,那么1750亿个参数可以复用,但是不同线程堆栈上下文要存好多中间层的计算临时结果
我也好奇这个模型数量的问题
chatgpt是给语言模型套了个壳,是不是直接把harmful过滤掉了,简单粗暴
老师 您方便讲一下这个文章neural ordinary differential equations嘛。谢谢老师~!
请问奖励函数设计部分在哪一分钟?视频太长了不好找。
资本就是冷血的, 2刀一小时, 一天20刀, 在肯尼亚, 也算不错的了
牛
🎉😊
能不能講講看為什麼Musk跟一些大佬要連署Pause Giant AI Experiments: An Open Letter🤔
🎉
李老师,您好,请问下,为啥这是第51个video,但是系列里面才39个viedo啊?
算力成本是不是厂商们的最大问题
老师觉得现在llm创业有些什么机会?
走私gpu到国内
一本正經的胡說八道是chatGTP的一个特點。😂😂😂
100亿美金
现在钢铁侠在PK openAI了
😂他跑我也跑,沒有什麽動作不同,他算什麽是奧運冠軍。
文心一言,不是文言一心
你们的每一份paper讲解都是反复听
文言一心,哈哈哈,故意的嗎?
你要一个无害的傻子ai。还是有害的聪明ai?
祝导师创业顺利!
多谢老师。对了,GPT-4出来了,希望能早点听到老师的评讲
小白,但都喜欢听您说话,支持!
谢谢!希望继续更新!
感恩感谢,这么多分享
导师你终于回来了😭
沐神會打算分享PaLM-E嗎
第一第一,大佬创业了吗!
谢谢导师,想听diffusion model!
赞,风趣有深度
这期李哥的发型很cool
大佬竟然如此高产
针不戳
新东西太多,搬着板凳过来听大佬讲
老师我想请问chatgpt在做推理的时候,1750亿个参数是拷贝到多台机器上,然后计算推理吗,能服务那么多用户,肯定是多个节点(分布式节点),然后每个节点有1750亿个参数.单个节点自己服务多用户的时候可以用到多线程,那么1750亿个参数可以复用,但是不同线程堆栈上下文要存好多中间层的计算临时结果
我也好奇这个模型数量的问题
chatgpt是给语言模型套了个壳,是不是直接把harmful过滤掉了,简单粗暴
老师 您方便讲一下这个文章neural ordinary differential equations嘛。谢谢老师~!
请问奖励函数设计部分在哪一分钟?视频太长了不好找。
资本就是冷血的, 2刀一小时, 一天20刀, 在肯尼亚, 也算不错的了
牛
🎉😊
能不能講講看為什麼Musk跟一些大佬要連署Pause Giant AI Experiments: An Open Letter🤔
🎉
李老师,您好,请问下,为啥这是第51个video,但是系列里面才39个viedo啊?
算力成本是不是厂商们的最大问题
老师觉得现在llm创业有些什么机会?
走私gpu到国内
一本正經的胡說八道是chatGTP的一个特點。😂😂😂
100亿美金
现在钢铁侠在PK openAI了
😂他跑我也跑,沒有什麽動作不同,他算什麽是奧運冠軍。
文心一言,不是文言一心
你们的每一份paper讲解都是反复听
文言一心,哈哈哈,故意的嗎?
你要一个无害的傻子ai。还是有害的聪明ai?