Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
感謝黃敬峰先生提供字幕
把 ground truth 寫成"光處"了 XD
這字幕...不要也罷
大卫雕像那个生成我实验了一下,GPT4生成的效果还挺不错的
今天在桃園聽老師現場的演講和panel discussion,真的非常感謝老師。作為在場唯二的醫學系學生,能在三年前一開始進入AI領域時得到老師的循循善誘,除了感謝還是感謝。
这是目前我看到的关于这个问题最简洁和明了的说明了,非常棒👍
非常high level的解释,如果李宏毅老师能够讲解一下其中的数学原理就很棒了❤❤❤
感謝教授的無私分享,真是對小白等級的我幫助很大
讲的真好,谢谢老师的辛勤付出,让我茅塞顿开
米開朗基羅那段讓我想到海綿寶寶裡章魚哥在做雕像的那一集太生動了,這個比喻🤣
看了一圈李老师讲的是最清晰的,感恩
最精華的部分居然要下集待續 真是迫不及待
非常的学术化,信息含量很大,需要反复看好几遍,感谢用心制作
才在想denoise是不是減法製造的概念時,下一張就蹦出雕刻的說明。真是太神啦。
感谢李老师,拯救我下午的组会
感謝老師講解~淺顯易懂 受益良多
非常简明易懂!感谢你的解说!
被我刷到了 老师好!😍😍
非常清晰易懂的讲解, thanks!
通俗易懂,点赞点赞!
感谢,讲解的非常厉害!
谢谢老师,讲的太好了❤
👍讲的十分简练,学习了
李宏毅老师讲的太棒了,通俗易懂
请问forward process一直在图像上加噪声,那多个steps之后,noisy image的像素数值会不会很大啊?
我有想過,是不是能有一個編碼器專門對圖片進行簡化壓縮的預處理,可以簡化輸入模型的數量,訓練的複雜度自然減少很多,然後再透過解碼器把模型的輸出結束轉化成圖
这个想法已经有人做过啦,Latent Diffusion Model,论文名是High-Resolution Image Synthesis with Latent Diffusion Models
马上就要考研复试了,希望考到相关问题能回答的上来😂
老师太强了!
这个 “啥都有” 太亲切了!
請問一下,一開始的input圖片是從Gaussian noise來的,雜訊下一定會有個清晰的圖片嗎?
讲得好棒!但是有一个听不懂的地方,视频 8:15 到 9:00 左右,那个加入的 noise 杂讯,是一样的吗?还是每次随机正态分布得到的?如果每次杂讯一样,为何最后可以成为 ground truth?感觉会重复覆盖在图片上,而不是像视频演示的那样,使得图片越来越杂乱小白不是很懂这个Gaussian distribution(normal distribution)怎么 sample 出来的,请教大佬好吧,通宵学习,我在后面的视频自己找到答案了,ruclips.net/video/ifCDXFdeaaM/видео.html 3分38处解读算法的时候有讲解
前面一集讲解图像生成模型分类的时候,也有讲这个话题,看来学知识真的得从头到尾,不能遗漏 XD
米开朗琪罗这个例子让我醍醐灌顶
用過 diffusion model 老覺得為什麼手指都畫不好,看了老師的影片終於懂為什麼了
太有趣了!
感觉有点像masked language model, 加noise就像mask token。
老師您好,請問你有關 9:28 的noise predictor 的問題, 依照老師的圖示,noise predictor 應該要預測 step1 所加的noise,而不是step2 所加的noise。
这个denoise模型感觉和resnet有点像,预测的是残差residual,而不是直接预测denoised的结果
老師好,我是Fion, 是你的觀眾, 非常受益老師的內容。我有email到你的ntu信箱,想邀請來教學。再麻煩查收,感謝。
居然可以講得如此淺顯易懂
光truth🙃
老师,我有个疑问,如果noise predictor都是用自己sample的noise作为groud truth来训练的话,如何避免overfit呢?noise predictor不会直接把groudtruth给吃掉吗?
模型学习noise predicter而不是直接学习denoise的模型,这里的思想是不是和残差网络差不多
哈哈 我居然听到了 台湾老师的讲课
上一集說是先把圖add Noise再用denoise output 原本的圖,那這邊是說直接在Gaussian distribution裡拿一個,所以是理解為,在training時是用圖add Noise,traing 好的model再直接用Gaussian denoise output image?
是阿
机器学习里面就是很奇怪,明明没有很严谨的数学理论支撑,但它就是work!
有的,只是对于“人”来说难于理解
好難得有中文的講解 講解的好清楚!!!
老師,這個十分鐘的故事很大衛的故事很像ruclips.net/video/bwztexdi3Hs/видео.html
感謝黃敬峰先生提供字幕
把 ground truth 寫成"光處"了 XD
這字幕...不要也罷
大卫雕像那个生成我实验了一下,GPT4生成的效果还挺不错的
今天在桃園聽老師現場的演講和panel discussion,真的非常感謝老師。作為在場唯二的醫學系學生,能在三年前一開始進入AI領域時得到老師的循循善誘,除了感謝還是感謝。
这是目前我看到的关于这个问题最简洁和明了的说明了,非常棒👍
非常high level的解释,如果李宏毅老师能够讲解一下其中的数学原理就很棒了❤❤❤
感謝教授的無私分享,真是對小白等級的我幫助很大
讲的真好,谢谢老师的辛勤付出,让我茅塞顿开
米開朗基羅那段讓我想到海綿寶寶裡章魚哥在做雕像的那一集
太生動了,這個比喻🤣
看了一圈李老师讲的是最清晰的,感恩
最精華的部分居然要下集待續 真是迫不及待
非常的学术化,信息含量很大,需要反复看好几遍,感谢用心制作
才在想denoise是不是減法製造的概念時,下一張就蹦出雕刻的說明。真是太神啦。
感谢李老师,拯救我下午的组会
感謝老師講解~淺顯易懂 受益良多
非常简明易懂!感谢你的解说!
被我刷到了 老师好!😍😍
非常清晰易懂的讲解, thanks!
通俗易懂,点赞点赞!
感谢,讲解的非常厉害!
谢谢老师,讲的太好了❤
👍讲的十分简练,学习了
李宏毅老师讲的太棒了,通俗易懂
请问forward process一直在图像上加噪声,那多个steps之后,noisy image的像素数值会不会很大啊?
我有想過,是不是能有一個編碼器專門對圖片進行簡化壓縮的預處理,
可以簡化輸入模型的數量,訓練的複雜度自然減少很多,
然後再透過解碼器把模型的輸出結束轉化成圖
这个想法已经有人做过啦,Latent Diffusion Model,论文名是High-Resolution Image Synthesis with Latent Diffusion Models
马上就要考研复试了,希望考到相关问题能回答的上来😂
老师太强了!
这个 “啥都有” 太亲切了!
請問一下,一開始的input圖片是從Gaussian noise來的,雜訊下一定會有個清晰的圖片嗎?
讲得好棒!但是有一个听不懂的地方,视频 8:15 到 9:00 左右,那个加入的 noise 杂讯,是一样的吗?还是每次随机正态分布得到的?
如果每次杂讯一样,为何最后可以成为 ground truth?感觉会重复覆盖在图片上,而不是像视频演示的那样,使得图片越来越杂乱
小白不是很懂这个Gaussian distribution(normal distribution)怎么 sample 出来的,请教大佬
好吧,通宵学习,我在后面的视频自己找到答案了,ruclips.net/video/ifCDXFdeaaM/видео.html 3分38处解读算法的时候有讲解
前面一集讲解图像生成模型分类的时候,也有讲这个话题,看来学知识真的得从头到尾,不能遗漏 XD
米开朗琪罗这个例子让我醍醐灌顶
用過 diffusion model 老覺得為什麼手指都畫不好,看了老師的影片終於懂為什麼了
太有趣了!
感觉有点像masked language model, 加noise就像mask token。
老師您好,請問你有關 9:28 的noise predictor 的問題, 依照老師的圖示,noise predictor 應該要預測 step1 所加的noise,而不是step2 所加的noise。
这个denoise模型感觉和resnet有点像,预测的是残差residual,而不是直接预测denoised的结果
老師好,我是Fion, 是你的觀眾, 非常受益老師的內容。我有email到你的ntu信箱,想邀請來教學。再麻煩查收,感謝。
居然可以講得如此淺顯易懂
光truth🙃
老师,我有个疑问,如果noise predictor都是用自己sample的noise作为groud truth来训练的话,如何避免overfit呢?noise predictor不会直接把groudtruth给吃掉吗?
模型学习noise predicter而不是直接学习denoise的模型,这里的思想是不是和残差网络差不多
哈哈 我居然听到了 台湾老师的讲课
上一集說是先把圖add Noise再用denoise output 原本的圖,那這邊是說直接在Gaussian distribution裡拿一個,所以是理解為,在training時是用圖add Noise,traing 好的model再直接用Gaussian denoise output image?
是阿
机器学习里面就是很奇怪,明明没有很严谨的数学理论支撑,但它就是work!
有的,只是对于“人”来说难于理解
好難得有中文的講解 講解的好清楚!!!
老師,這個十分鐘的故事很大衛的故事很像
ruclips.net/video/bwztexdi3Hs/видео.html