請問在安裝Ultimate SD Upscale時跳出GitCommandError: Cmd('git') failed due to: exit code(128) cmdline: git clone -v https:斜線斜線github點com斜線Coyote-A斜線ultimate-upscale-for-automatic1111點git D:\AI\stable-diffusion-webui\tmp\ultimate-upscale-for-automatic1111 stderr: 'fatal: destination path 'D:\AI\stable-diffusion-webui\tmp\ultimate-upscale-for-automatic1111' already exists and is not an empty directory. '請問有解決方法嗎?
@@JackEllie hand of guido daniele效果很讚,可以減少開啟phtoshop or Gimp次數,後來我深入查詢SD訓練模型所使用的Prompt後改了介係詞變成 hand by guido daniele,並搭配Negative prompt: missing fingers, fused fingers, twiisted hands,男主角或女主角能比較正常拿東西。
不好意思,我想請教三個問題 1.我發現SD放大的時候,有時候兩隻眼睛會在不同的格子放大,變成兩隻眼睛不一樣的狀況,這個有什麼解決方法嗎? 2.我發現我的命令提示字元跑圖的時候都會報錯,雖然圖片還是生成出來了,但不知道是什麼原因? Error running process: D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\extensions\sd-webui-controlnet\scripts\controlnet.py Traceback (most recent call last): File "D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\modules\scripts.py", line 386, in process script.process(p, *script_args) File "D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\extensions\sd-webui-controlnet\scripts\controlnet.py", line 713, in process model_net = self.load_control_model(p, unet, model, lowvram) File "D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\extensions\sd-webui-controlnet\scripts\controlnet.py", line 514, in load_control_model model_net = self.build_control_model(p, unet, model, lowvram) File "D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\extensions\sd-webui-controlnet\scripts\controlnet.py", line 525, in build_control_model raise RuntimeError(f"model not found: {model}") RuntimeError: model not found: None 3.請問你們的DISCORD有網址嗎?想進一步學習!!
請問老師 參數設定no half 和 no half vae 有加跟沒加差別在哪呢???一直都搞不太懂 🙏
現在都不建議加入喔,那是運算精度的一些選項現在都自動了
好的 感謝老師 @@JackEllie
我的常常出現連體嬰,但沒有看到高解析度修復,感覺跟你的比起來少很多東西,請問要另外安裝其他東西嗎?
高解析度修復就是hires.fix不可能沒有才對,這是預設內容
我的好像也沒有這兩個選項常常跑出一坨不知道什麼東西的美少女臉😂會不會是版本不同的關係
love you
7:33说到的移除--No-half-vae在哪里调整呢?
webui-user按右鍵編輯
影片不錯, 請教一下, 怎樣能使你這個雷姆有完整的下半身呢?
你是說圖片還要持續延伸嗎?如果是的話現在應該都透過ControlNet完成
滿滿的經驗啊 感謝分享@!!
怎么删除扩展?
找到extensions裡面對應的資料夾,直接移除就可以
老師你好 請問你們"Jack&Ellie模型分享"這個模型,適合生成什麼類型的圖片 動漫??寫實?? 感謝
那個模型有點舊了,是動漫風格的模型
感謝~!從你們的影片學到了不少!當說明書使用中~~😆
想請問一下我常常畫出頭被截掉的圖片,像影片中 2:05 和 2:07 那樣最上面頭型並不完整,請問有什麼方式可以避開嗎@@?
打上full head試試看,或者提高圖片高度,都沒用的話等我下一篇ControlNet就可以輕鬆解決
@@JackEllie 感覺還是不太行,事實上我想畫橫的圖片(來當電腦的桌面),可是就算先請stable diffusion畫出正方形的圖片都有頭補截掉的現象QQ
請問各位前輩,
我用終極SD放大
都無法使用,請問我是缺少什麼東西沒有安裝嗎?
會跳出缺少18種物件
我缺少安裝什麼嗎?
上DC貼上錯誤吧。
@@JackEllie 前輩,有貼了 求救
不好意思我又來問問題了
在後台那邊run.bat那邊那個叫--no-half-vae --xformers的要怎樣移除呢?你一開就自動運行了耶
到sd.webui\webui裡面找到webui-user一樣右鍵編輯。
阿嬤當初幫我洗澡都沒你們這麼細心
你一定不是金孫
請問我最近在練圖生圖的時候發現,其他文章跟範例有所謂的Denoising strength 降噪強度的選項,不過自己的沒有是因為版本不足還是這是擴充的?
Denoising strength 在中文翻譯中叫做重繪幅度。
@@JackEllie 原來,謝謝回答
我既然有上到電視這頻道無論講解的方式還真的非常不錯,會繼續支持下去的
btw,我3070ti 8gb vram 也是不能用 高階sd放大分辨率9k X 9k 時,也試用了--lowvram都是不行哈哈哈
感謝支持,放大到8K大概是8Gvarm的極限,在提高放大演算法只能選前三個
太多人下載模型了 現在下載不了Jack&Ellie模型
www.mytechgirl.com/tw/cloud/fix-google-drive-exceeded-download-limit-mtg6688.html 參考這個處理
謝謝~ 正在下載中 晚點就可以試試看效果了
請問6g顯卡夠用嗎?
應該不能太大張
盤點整個YT就你講的最詳細
想請教下,用google colab安裝SD放大和近期sd-webui-controlnet script時會出現AssertionError: extension access disabled because of command line flags,無法安裝,想請教是那裹出了問題呢?謝謝!
線上版的擴充想要安裝一定要透過程式頁面新增喔,我有寫擴充網址那邊
謝謝兩位的分享~這是我看過最詳細的系統教學,祝福頻道越來越多人,謝謝
請問上面說的- -no - half - vae這一段是什麼意思?
不使用半精度去運算VAE模型,這樣穩定度會提升,但是記憶體消耗會提升,速度都會下降。
請問圖生圖怎麼讓單調的背景增加細節
用controlNet把角色跟背景分開來處理試試
9:18 請問一下,匯入的圖片直接選擇則放大的參數,那上面預設的比例需要調整嗎?放大的倍率會依照圖片原有尺寸放大還是依照預設參數去放?
會這樣問是因為預設參數(寬高)有時候只是比例對,但數值比相片本身小,這樣從一個很小的解析度去放大根本也不會多大
只要選擇依照圖片尺寸縮放就不需要再調整上方的參數了
@@JackEllie 謝謝🙏
謝謝 中文化 !
想請問一下 為什麼改變尺寸會出現這個錯誤代碼ValueError: images do not match
我不確定耶說你尺寸錯誤?
真的是教科書等級的頻道,我製作的新手影片也是直接導流到貴站,真的棒,請繼續加油呢!
水准很高的视频啊!绝对支持!!
請問在安裝Ultimate SD Upscale時跳出GitCommandError: Cmd('git') failed due to: exit code(128) cmdline: git clone -v https:斜線斜線github點com斜線Coyote-A斜線ultimate-upscale-for-automatic1111點git D:\AI\stable-diffusion-webui\tmp\ultimate-upscale-for-automatic1111 stderr: 'fatal: destination path 'D:\AI\stable-diffusion-webui\tmp\ultimate-upscale-for-automatic1111' already exists and is not an empty directory. '請問有解決方法嗎?
你用什麼環境安裝這個擴充的??他說你的命令是錯的我不確定你用了什麼命令
@@JackEllie 我的步驟只有打開Webui然後進入stable diffusion然後再下載SD upscale然後他就報錯了,我自己也很納悶
@@JackEllie 在CMD裡面的敘述是這樣
Error completing request
Arguments: ('https:斜線斜線github點com斜線Coyote-A斜線ultimate-upscale-for-automatic1111點git', ['ads', 'localization', 'installed'], 0) {}
Traceback (most recent call last):
File "D:\AI\stable-diffusion-webui\modules\call_queue點py", line 56, in f
res = list(func(*args, **kwargs))
File "D:\AI\stable-diffusion-webui\modules\ui_extensions點py", line 171, in install_extension_from_index
ext_table, message = install_extension_from_url(None, url)
File "D:\AI\stable-diffusion-webui\modules\ui_extensions點py", line 145, in install_extension_from_url
repo = git.Repo.clone_from(url, tmpdir)
File "D:\AI\stable-diffusion-webui\venv\lib\site-packages\git
epo\base點py", line 1148, in clone_from
return cls._clone(git, url, to_path, GitCmdObjectDB, progress, multi_options, **kwargs)
File "D:\AI\stable-diffusion-webui\venv\lib\site-packages\git
epo\base點py", line 1086, in _clone
finalize_process(proc, stderr=stderr)
File "D:\AI\stable-diffusion-webui\venv\lib\site-packages\git\util點py", line 386, in finalize_process
proc.wait(**kwargs)
File "D:\AI\stable-diffusion-webui\venv\lib\site-packages\git\cmd點py", line 502, in wait
raise GitCommandError(remove_password_if_present(self.args), status, errstr)
git.exc.GitCommandError: Cmd('git') failed due to: exit code(128)
cmdline: git clone -v https:斜線斜線github點com斜線Coyote-A斜線ultimate-upscale-for-automatic1111點git D:\AI\stable-diffusion-webui\tmp\ultimate-upscale-for-automatic1111
stderr: 'fatal: destination path 'D:\AI\stable-diffusion-webui\tmp\ultimate-upscale-for-automatic1111' already exists and is not an empty directory.
原因我不太確定好像是你下載失敗過如果extensions資料夾底下有ultimate-upscale-for-automatic1111資料夾刪除再重新執行一次看看
@@JackEllie 我也出现同样的问题,如果没有这个资料夹呢还有其他办法解决吗?
請問有沒有不讓腳變形的咒語,是了很多咒語但還是會變形
你是說腿還是腳?我用提詞補完計畫裡面的通用反向提詞畫出來都還蠻正常的。
@@JackEllie 腿跟腳都會,多一條腿或腳變形
謝謝你的教學,請問圖片在放大後都會顔色飽和度下降是出於什麽原因?
通常都是缺乏VAE
@@JackEllie 請問有處理方法嗎?
請問我的草圖拉去SD放大時無論怎麼設置都會出現 URLError:
的提示,無法開始運算放大是怎麼回事呢?
這個我沒遇到過耶,上discord把完整的畫面貼上來才有辦法查
你好,又是我😅
我這次想請問一下我生成了一張很抽象的圖,效果不錯想保留,但有一些背景物品擋住了主體,想移除的話該怎麼處理?
因為圖除了人物外的背景都過於抽象,甚至不能確定想移除的東西是什麼,目前我只是通過蒙版畫上,并在負面詞強調不要有那個遮擋物,正詞輸入被擋的部份有什麼,可我這樣試了一天都是去不掉,甚至沒改變。
這樣的話我想請教一下你一般會怎樣處理?還是直接上ps自己畫會比較快🙈🙈
用遮罩畫上去後,你可以嘗試改遮罩矇住的內容,改成淺空間數值0或是潛空間噪聲,再用高重繪幅度(0.8以上)去嘗試
@@JackEllie 感謝你,你真是專家!
我再試試🙇🏻♂️
想請問一下,因爲生成全身圖的時候,臉部總會是很怪異,已經設置了反詞,已經輸入 clear facial feature 並加權重,但問題依然,請問如何才能正確輸出呢,感謝!!!!
這可能要形容的更詳細一點,或是上discord跟大家討論一下才知道了
好的谢谢啊
請問一下,我使用SD放大後,色彩都會灰階化,請問有甚麼方法可以解決嗎?
通常會變灰都是沒有用VAE升級導致的
我最近看到一個小技巧 只要在提示詞上反選後按著Ctrl+上下鍵就可以快速加權重❤
我也是最近才發現XD你有沒有發現別的!!
我是新來的,我生成的圖經常會在一些細節部位出現類似“紫色墨水”的斑點,請問這是怎麼回事?
這很難說耶,有時候跟選用的模型有關。你可以來DIscord跟大家討論看看
請問一下,按照步驟做完之後 我的放大還是沒有出現SD這選項耶 跟版本有關係嗎?
下方的腳本應該會出現高階SD放大,如果沒有去extensions資料夾,把ultimate-upscale-for-automatic1111資料夾移除在,重新安裝一次看看
@@JackEllie 了解,我用看看
@@JackEllie 不行,還是沒有出現SD放大這個選項.....🥲
想請問一下 請問要怎麼把眼睛畫好 我試過了好多提詞 也用過圖生圖 局部重繪 還有SD放大 但眼睛就是畫不好 畫出來要馬很小 要馬很模糊 或著是畫出很奇怪的形狀 請問有什麼辦法可以把眼睛畫的又大又生動又清楚呢?
我覺得要看你用的模型類型,在提詞補完計畫那篇,你可以參考一下關於眼睛的部分,還有臉部修復對二次元腳色非常不適合喔
原來是我把臉部修復給打開了 關掉後變好很多 謝謝!
請問在用終極SD放大的時候有圖塊的高和寬,高預設是512寬我應該調多少
我是維持預設沒有更動
@@JackEllie 謝謝
我還有個問題,請問用哪些提詞能畫出,正常清楚的手?
因為我的提詞用hand of Guido Daniele但畫出來的還是不正常
想问一下手动下载Ultimate SD Upscale的话要放在哪个文件夹里面呢?我也是在网页上下不来~~
這樣下載問題會比較多喔,但你可以放到extensions資料夾內
請問,之前就版的model是不是需要刪除?還是可以繼續用?
越來越多新功能,舊的訓練模組不知道會不會有問題。
是不用你容量不夠才需要煩惱這個問題
好的感謝您
好棒的教學影片,請問一下,6:32 的圖生圖不斷自我產生,是什麼功能可以這樣執行,還是那一段是一個影片的後製特效 ?
哈哈哈,只是後來把我做的圖片後製而已0.0
请教下,关于SD放大的问题,出现幻觉的几率和总和有关,总和是怎么算的?
具艾粒的看法除重繪幅度加總超過0.5就很容易出現幻覺,因為官方建議的數值是0.35但如果連兩次都這麼高就容易出現奇怪的東西。
不好意思,杰克融合過的models檔案無法下載,好像是Google 沒辦法負荷大檔案多人下載,請問有甚麼解決方式嗎?
還是可以在Discord 上傳檔案呢?
那個檔案太大了我晚點放到MEGA明天再來看看。
@@JackEllie 好的謝謝大大
麻煩你了!!
我有一個疑問,tag權重的放置應該是如何的呢?在頭部和衣服造型上加權多呢,還是說高畫質這種tag也要加權呢? 如果有影片就更好了 ❤
通常是用在強調主題,但是如果模型對某些狀況表現不好也可以加權,但是還是要看模型使用
@@JackEllie Thank u!
您好,想請問要怎麼知道參數在生成之前影響的什麼? 要靠經驗嗎? 還是有甚麼理論可以參考? 不同的模型就有很多種組合,想知道怎麼更有效率的設定自己要的參數和演算法,謝謝。
這個真的只能靠經驗,因為換一個模型提詞對每個模型的結果都會有落差
想問一下如果想添加Textual Inversion在google colab該怎麽辦, 我找不到embeddings的檔案在哪
直接在雲端資料夾models裡面新增embeddings再放入TI的檔案應該就可以了,我確定有這個功能但沒有測試過
敲碗期待能做Lora的訓練跟使用教學
預計是下下片或是下下下片~努力中
我也在等🙂🙂🙂
很棒
非常有用,你们做的视频每一期都有很好用的知识和技术,非常感谢,已经点赞。希望更多的人可以看到
請問一下 用SD放大時 生出來的圖片常常會有一塊黑黑的區域 但有時就不會有 請問是為什麼? 我的重繪幅度設定0.3
影片中有加入no-half-vae就是為了處理這個問題,運算有時候會崩潰導致某張圖消失。
想請問一下 為什麼我用SD圖生圖時 出來的圖片都很灰 但我一般用文生圖時都不會有這問題
通常是載到沒有VAE的模型導致
很實用的分享
不過囉嗦一下stable的t要念d(如stay, study)
哈哈哈,學到了,感謝英文小老師下次改進!!
介绍提词的网站可以推荐几个么?
下一篇會進行整理!!
@@JackEllie 6g的显卡带不起来,提示内存不足
圖片不能放太大照理說就可以,我猜6G可能極限1024*1024
@@JackEllie 1024都崩了,刚开机能带1次768的,6g显卡不配 用这个功能
杰克艾米立真的是很不錯,為大家開創很多方式,並提供很多知識與觀念,祝福頻道能越來越多人,加油!
你好,我想請問要是我詞條足夠生成正常人圖,卻每次都在開始高清修復後得到像鬼一樣的圖,
那我是不是該不開高清修復,先生成張幾百x幾百的,再用sd放大會比較好?😦
你可以直接跳過高解析修復,到圖生圖使用前再放大去增添細節,當然直接使用SD放大也是可以,但就很難像畫面這樣讓手改拿別的東西。
@@JackEllie 好的謝謝你,我有空試試!!🙇🏻♂️
查了一下 Guido Daniele 是對手進行繪圖的藝術家。
對!!使用起來效果驚人
@@JackEllie hand of guido daniele效果很讚,可以減少開啟phtoshop or Gimp次數,後來我深入查詢SD訓練模型所使用的Prompt後改了介係詞變成 hand by guido daniele,並搭配Negative prompt: missing fingers, fused fingers, twiisted hands,男主角或女主角能比較正常拿東西。
感謝你們的分享!
@杰克艾米立 改變燈光的深度模型,ruclips.net/video/_xHC3bT5GBU/видео.html
現在SD的世界非常的豐富了,之後一個個介紹吧。感謝分享
想請問一下,ultimate sd upscale放大的時候出現了一些問題。圖片分割成小塊後,有些小塊圖片內有一部分區域變成了黑色長方形,合成為大圖片後這些黑色區塊到處都是。網上找的別人的任何大小比例的圖片,我自己生成的其他比例的圖片,都能成功放大。我自己生成的比例為1比3,且尺寸大於300*900的圖片,在upscale的時候會出現這種情況。jack能試試你會遇到這種情況麼?
影片中我加入no-half-vae就是為了防止這個狀況發生喔。通常都是VAE忽然崩潰導致黑方塊
@@JackEllie 解決了!太謝謝你了!
您好這裡幾個問題想問
1.請問在圖生圖不改變提詞只改變參數直接生成的話,圖片只有畫質會改變動作不變嗎?
2.若要依次生成多張圖片是改生成批次嘛,我改5但只出來兩張圖片
3.要做到4K圖是原圖慢慢調整尺存進行生成嗎?
以上情況是在高階SD放大中
1.不改變提詞的話,動作的變化機率比較小,但不保證完全不變
2.是改生成批次沒錯喔,數量不對可能要看終端有沒有發生錯誤
3.這次的影片到4K是使用SD放大功能從1K升上去的
想請問大大 我用SD放大的時候 生出來的圖都會變很奇怪 一張圖裡面會出現同一個人物但有好幾個 或是從身體的中間又再生出一個人 但我之前用的時候都不會這樣 而且我有用接縫修復 請問是出了什麼問題?
你的重繪幅度應該太高了
很实用的教程
有夠崩潰的,不知道為啥每次新增功能就是出問題,
像是開啟臉部修復還是LDSR都會自動下載檔案,
但每次都是下載完第一個檔案就停住,在命令視窗按enter也沒反應,
導致這些功能之後都不能用T_T,到底是哪邊出問題啊?
對,這些都是已知BUG,原本的安裝篇下方包含了臉部修復的手動安裝方式,LDSR的錯誤在更新篇有提到看一下吧。
請問我要在區網內提供服務甚至對外的話 要更改哪邊的設定? 我抓您之前介紹的懶人包,我看他執行之後web ui開起來都是限定local(127.0.0.1)
等我回國再找給妳,我只知道有這個功能但沒有仔細看過方法,對外的方法跟線上版的命令是一樣的
把影片都看完了,毫無疑問是介紹Stable Diffusion的中文影片中最好的一個!這裡我有兩個問題,假如我生成了一張圖,當中有我很喜歡的臉,但是這張圖只有上半身,如何將下半身補完?第二條問題是,各種採樣方式會有甚麼差別,也許可以拍一影片附比較圖簡單解說一下?謝謝
感謝你都看完了,關於圖片切邊的問題,艾粒會再分享,不過你可以先嘗試使用圖生圖的局部重繪,加上下方腳本選用向外繪製第二板,可以達到你的要求,不過對提詞要下不少功夫,要多多嘗試。然後關於各種採樣,例如DDIM,號稱可以使用較少的步數達到精美的圖畫(大約40步),雖然網路上有很多比較圖,但我自己使用下來沒有一個能夠畫的跟euler依樣細緻,未來有適合的討論我再做一篇。
敲碗lora 希望做的簡單又明白的操作方式 每集都很有內容 讚讚
我在使用SD放大的時候,方塊之間的接縫,會出現淡淡的綠色,不知道有沒有方法可以避開這個BUG
越純色的背景接縫會越明顯,解決方法有兩個一個是放大的倍率小一點,另一個是遮罩模糊提高,填充開到最大,這樣應該可以解決。再不然就多嘗試使用接縫修復。類型使用半圖塊過濾,或是半圖塊過濾+交集效果比較好。
👍👍
圖生圖真的更好! 比用固定種子來用高分辨率修復的好!
我也覺得,可以很容易調整圖像,做出更高品質的作品。
想請問一下我也是學影片上先用小圖算出喜歡的構圖後再把圖片移到圖生圖並使用SD放大,但是隨著放大的次數越多,圖片就會變得:1.曝光度變高 2.輪廓變淡 3.色彩飽和度變低 4.亮度變高,想請問是否有哪個參數設定會導致此問題或您也遇過同樣的問題呢?
跟選用放大演算法、有無加入VAE,最後你的提詞內容,從這幾個方向去看
超有幫助 感謝
加油
超有幫助😍😍😍😍😍😍😍
虽然订阅量才几百个,但每期节目都是很认真的制作,内容都是满满的干货!
非常實用 👍👍👍
一直只会用一种放大,现在知道区别了❤
感謝杰克艾米立的分享,影片中也介紹了許多放大的演算原理,希望未來也能介紹關於stable diffusion的原理介紹,例如step 步數的概念
有辦法帶入的我會提一下,太過數學的內容可能就算了XD
我發現一個事情,如果在產生圖片時使用的模型有搭配VAE使用的話,放大的比例可能要比沒有使用VAE的時候調低一點,不然會卡在99%然後最後跑出Memory錯誤(又或者是會等很久很久)。
以上好像是對一些低VRAM:6G 這類的有問題...吧
不曉得有沒有錯🥲
所以基本上都要額外加入--medvram,還有如果怕記憶體不足不要使用LDSR。
@@JackEllie 请问下使用medvram和不使用medvram的图片会有区别或者损失吗?
@@stanleyshao6190印象中不會,只是速度會變慢
先感謝杰克艾米立的教學,真的非常實用
同時想請教一下如果我想要增添其他的放大演算法該怎麼添加安裝?
看一些討論區有時會推薦一些放大演算法的效果,例如4x-UltraSharp之類的
但研究了許久還是搞不太懂要如何安裝,所以想跟您請教看看
我問題解決了,回來回報一下
我找到我想要的放大演算法下載下來之後
放置到\models\ESRGAN的資料夾,開啟環境之後就成功讀取我想要的放大演算法了
直接放到下載放到models\ESRGAN這個資料夾底下就可以了通常檔案是.pth
very useful tutorial! thanks a lot!! 杰克,可否製作一個video,教我們怎樣混合用動漫模型和lora,因為每天civitai也更新,如果杰克教我們組合各種效果便太好了!
動漫模型其實我都用自己順手的,然後配合LoRA使用而已耶,到目前為止大部分模型都是用這篇說明的模型,我們的discord群上面很多提詞跟模型使用大師你可以上來看看喔
不好意思,我想請教三個問題
1.我發現SD放大的時候,有時候兩隻眼睛會在不同的格子放大,變成兩隻眼睛不一樣的狀況,這個有什麼解決方法嗎?
2.我發現我的命令提示字元跑圖的時候都會報錯,雖然圖片還是生成出來了,但不知道是什麼原因?
Error running process: D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\extensions\sd-webui-controlnet\scripts\controlnet.py
Traceback (most recent call last):
File "D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\modules\scripts.py", line 386, in process
script.process(p, *script_args)
File "D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\extensions\sd-webui-controlnet\scripts\controlnet.py", line 713, in process
model_net = self.load_control_model(p, unet, model, lowvram)
File "D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\extensions\sd-webui-controlnet\scripts\controlnet.py", line 514, in load_control_model
model_net = self.build_control_model(p, unet, model, lowvram)
File "D:\Desktop\stable-diffusion-webui-master\stable-diffusion-webui-master\extensions\sd-webui-controlnet\scripts\controlnet.py", line 525, in build_control_model
raise RuntimeError(f"model not found: {model}")
RuntimeError: model not found: None
3.請問你們的DISCORD有網址嗎?想進一步學習!!
我在新的這幾篇底下都有放網址喔,這個錯誤這樣看不出來,好像找不到某個東西
想問一下我生出的圖片大部份時候 角色也是背向我或鏡頭經常也close up, 不顯示半身或全身的圖
參考新的這篇用的提詞去調整吧,或是未來還會出可以直接調整動作的模型
很棒的教學