Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
13:20 LoRA讲得真好,可以用到面试回答里哈哈,不改变原来的模型,在底层大模型上加滤镜,让大模型往期望的方向走
讲解的通熟易懂,非常赞
多谢讲解,陆续看了好几遍来理解模型过程。 感觉对于CLIP 讲解的不够深入,CLIP 全称是 Contrastive Language-image Pre-Training,即 对比文本-图像对的预训练方法。训练数据使用了400 million的pairs,用来构建text embeddings,这个embeddings 里面有图像特征。
感谢分享!期待深入介绍!
楼主你好,讲得太棒了。我在内部分享会想借用两张你的图来向大家解释 Stable Diffusion的原理,完全是非盈利的,希望可以同意。谢谢
没问题
感谢🙏感谢
@@bestpartners 感谢🙏
很棒!我要多看几遍,尽可能记下来。
感謝分享,我滿好奇SD1.5中 LoRA17層blocks具體是怎麼插入 Unet25層blocks的,不是很懂為什麼in有6層 out卻有9層。另外也想了解一下正則圖片 正則化是怎麼作用的。
讲解的很棒
关于lora和微调大模型我有一个疑惑,既然lora可以起到修改大模型的作用,那我们为什么还要微调大模型呢。什么样的需求LoRA hold不住,必须要微调大模型呢?
大佬你太猛了
thank you
可以再講解controlnet原理嗎?感謝~
找时间做一期
感谢分享
大佬,请问有个人博客或者个人网站吗?
没有,就 youtube 这一个频道
怎么才这点点赞,我要有十个账号的话,想给你点十次。
哈哈,感谢支持,这个没办法,随缘吧🤣
别老出人头像啊
13:20 LoRA讲得真好,可以用到面试回答里哈哈,不改变原来的模型,在底层大模型上加滤镜,让大模型往期望的方向走
讲解的通熟易懂,非常赞
多谢讲解,陆续看了好几遍来理解模型过程。 感觉对于CLIP 讲解的不够深入,CLIP 全称是 Contrastive Language-image Pre-Training,即 对比文本-图像对的预训练方法。训练数据使用了400 million的pairs,用来构建text embeddings,这个embeddings 里面有图像特征。
感谢分享!期待深入介绍!
楼主你好,讲得太棒了。我在内部分享会想借用两张你的图来向大家解释 Stable Diffusion的原理,完全是非盈利的,希望可以同意。谢谢
没问题
感谢🙏感谢
@@bestpartners 感谢🙏
很棒!我要多看几遍,尽可能记下来。
感謝分享,我滿好奇SD1.5中 LoRA17層blocks具體是怎麼插入 Unet25層blocks的,不是很懂為什麼in有6層 out卻有9層。另外也想了解一下正則圖片 正則化是怎麼作用的。
讲解的很棒
关于lora和微调大模型我有一个疑惑,既然lora可以起到修改大模型的作用,那我们为什么还要微调大模型呢。什么样的需求LoRA hold不住,必须要微调大模型呢?
大佬你太猛了
thank you
可以再講解controlnet原理嗎?感謝~
找时间做一期
感谢分享
大佬,请问有个人博客或者个人网站吗?
没有,就 youtube 这一个频道
怎么才这点点赞,我要有十个账号的话,想给你点十次。
哈哈,感谢支持,这个没办法,随缘吧🤣
别老出人头像啊