Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
老師又上片了!! 感動!! 如果有 IP-Adapter 各種模型使用教學就更好了。(貪心)
之後有比較好的選像我在整理吧!!
2:58 是2D圖片AI直接生成建模嗎? 想了解一下
感覺不是(?),你仔細看會看到3D跟2D的原圖有點差別。
這是艾粒的建模練習!2D轉3D的模型我還沒測試過
@@JackEllie 原來就是在建這個!!太厲害了!
我去,这下可好了,感觉再优化优化,进化一下,真的可以不用训练lora了,太猛了。服
我用stable-diffusion-webui v2.5和controlnet v1.1.440當中IP-adapter用了single image能用到但用了multi-inputs就說找不了image請問知不知道原因?
不清楚這原因很難猜,另外stable-diffusion-webui v2.5是什麼我不太清楚?你應該要上DC問問
所以multi-inputs似乎可以取代人物類LoRA? 那這樣是否就不用弄那個該死的caption萃取了?
在不須添加新概念的情況下我覺得大多可以取代
這好方便,比之前訓練模型更方便減少了很多時間
我也覺得這功能超實用!!
您好,請問 CUDA 11.6 有辦法使用 IP-Adapter 嗎?
照理說可以
@@JackEllie 謝謝您
U質,ポケモンゲットだぜー!!(大家一起收服神奇寶貝吧!!)
這封面標題www
很棒的功能呢 這樣就不用花那麼多時間訓練了
是的我覺得實用到不行
老師又上片了!! 感動!!
如果有 IP-Adapter 各種模型使用教學就更好了。(貪心)
之後有比較好的選像我在整理吧!!
2:58 是2D圖片AI直接生成建模嗎? 想了解一下
感覺不是(?),你仔細看會看到3D跟2D的原圖有點差別。
這是艾粒的建模練習!2D轉3D的模型我還沒測試過
@@JackEllie 原來就是在建這個!!太厲害了!
我去,这下可好了,感觉再优化优化,进化一下,真的可以不用训练lora了,太猛了。服
我用stable-diffusion-webui v2.5和controlnet v1.1.440
當中IP-adapter用了single image能用到
但用了multi-inputs就說找不了image
請問知不知道原因?
不清楚這原因很難猜,另外stable-diffusion-webui v2.5是什麼我不太清楚?你應該要上DC問問
所以multi-inputs似乎可以取代人物類LoRA? 那這樣是否就不用弄那個該死的caption萃取了?
在不須添加新概念的情況下我覺得大多可以取代
這好方便,比之前訓練模型更方便減少了很多時間
我也覺得這功能超實用!!
您好,請問 CUDA 11.6 有辦法使用 IP-Adapter 嗎?
照理說可以
@@JackEllie 謝謝您
U質,ポケモンゲットだぜー!!
(大家一起收服神奇寶貝吧!!)
這封面標題www
很棒的功能呢 這樣就不用花那麼多時間訓練了
是的我覺得實用到不行