这个工作流好强!!!我最近在研究风格迁移但遇到一些问题,原图搭建使用了LineArtPreprocessor控线,AIO AUX Preprocessor深度图,参考图使用Shuffle洗牌,IPAdspter控制风格,但生成的效果缺少很多细节(精度不够,使用放大加细节也不行)。老师能出套高级的风格迁移教程吗~求求~
大佬问下这个该怎么办,我装了但是节点不显示: When loading the graph, the following node types were not found: DisplayText_Zho 🔗 OllamaGenerate 🔗 Nodes that have failed to load will show as red on the graph.
@@Datou1977 嗯,comfyui里面读不了,我就用cmd打开对话试了下,发送“please describe this image:"E:\AI\照片\IMG_8646.jpeg"”让他读图,他回复“I apologize, but I'm a large language model, I don't have the capability to access or view external files or images. The file path you provided, "E:\AI\照片\IMG_8646.jpeg", is specific to your local computer and cannot be accessed remotely. If you'd like to describe the image, please provide me with more context or information about what the image contains (e.g., objects, colors, shapes, etc.). I'll do my best to help you describe it!”
@@Datou1977 comfyui里面一直读不到图,我就用终端跑了一下让他读图,但返回是“I apologize, but I'm a large language model, I don't have the capability to access or view external files or images.”
很赞的教程,感谢大佬无私分享,comfyui的可能性远超出我想像,作为一个webui重度使用者,现在也被comfy的灵活所触动,慢慢一步步跟着大佬的脚步学习起来。
太强了,不用怎么调试就能出非常棒的图,希望大佬能多出作品。
感谢分享,这个工作流可以继续修改,现在的flux的文本编码器(CLIPTextEncodeFlux)有T5和clip_l,据说两个都填上效果更哈好,当前工作流生产的提示词是一串关键词可以接入到clip_l,可以再扩充为自然描述语言连接到T5,flux对自然语言描述理解更到位
你不能拿出现dit模型后的玩法要求sdxl时代的工作流😂😂😂现在玩法是更新了,但思路还可以沿用
感谢大头哥,多多分享!
不错不错,期待大佬更多视频作品
讲明白了吗?
这个工作流好强!!!我最近在研究风格迁移但遇到一些问题,原图搭建使用了LineArtPreprocessor控线,AIO AUX Preprocessor深度图,参考图使用Shuffle洗牌,IPAdspter控制风格,但生成的效果缺少很多细节(精度不够,使用放大加细节也不行)。老师能出套高级的风格迁移教程吗~求求~
试试这个工作流的效果?我对风格迁移的研究也就这个水平了,如果你实测下来觉得效果还行,我可以考虑做期视频聊聊 openart.ai/workflows/datou/something-weird/s0bGNzI5Q7PfeT2Xf7zx
@@Datou1977 感谢老师的分享,今天尝试了很多次,老师的工作流在迁移角色脸部,整体风格都很厉害!但感觉老师Photo 2 Anime的那套工作流最终效果更符合我在研究的风格迁移工作流,很强!不管是场景还是人物,细节很到位!如果可以在不使用lora的情况下,提供参考图就能出这样的效果直接是完美!!!(毕竟不是所有风格都有lora)希望老师出套教程哈哈哈~
@@刘智尹 ok,安排
@@Datou1977 期待!期待!
@@刘智尹 ruclips.net/video/KnFJfDtT6rw/видео.htmlsi=oh7J4Qu6CiIr5RL6
工作流还有个致命的问题,显存不够,先加载大模型精炼提示词,显存不会释放,接着加载flux模型,会使用共享显存,速度变得奇慢无比,尝试在调用语言大模型之后,加一个clean GPU used节点,并没有像期望的一样释放语言大模型,还是因为显存不足使用共享内存
那就用gemini,不要用本地llm
@@Datou1977 我自己编写了一个自定义节点,可以连接文心免费的大模型ERNIE-Speed-8K,但一直在调教系统提示词,现在很不稳定,总是在提示词前面加上解释,无论我在系统提示词如何说不要加上解释和说明,最后总是有解释,我尝试用你的系统提示词,但扩充效果一般,描述很平淡
所以,啓動的命令是啥?
推荐一个好用的梯子呗
請問大佬,可以用ollama來使用中文提示詞,讓ollama翻譯成英文並優化產生圖檔嗎?
可以,找个中文英文都懂的模型就能做到,比如qwen 2.5
威武哦,
这个语言模型是咋了= -=我说男人在森林,它说不能色情,我说仓鼠吃东西,它说不能剥削动物= -=
感谢分享。想请教下,我这是云平台的,装了 Ollama 和 If-AI 插件,但不知怎么装模型和模型存放的位置,那界面有不同。
打开cmd,运行ollama run ...,会自动下载模型。如果是linux,就是打开终端。模型默认存在c盘,不用管它存在哪,自己手动放进去可能会出问题。
@@Datou1977 非常感谢,受教
请教下大头老师,为何我的所有关于大语言模型的Custom Nodes,都是import failed...真是头疼死了,具体的如下: comfyui-qwen-vl-api, comfyui-ollama, comfyui-gemini. ollama还是我刚刚装的,就直接不行,谢谢拉!
贴一下comfyui启动时具体的报错信息
我后来发现把was node的requirements里面所有环境要求的版本都删除了,不做限制,让系统自己决定,就解决了@@Datou1977
大佬问下这个该怎么办,我装了但是节点不显示:
When loading the graph, the following node types were not found:
DisplayText_Zho 🔗
OllamaGenerate 🔗
Nodes that have failed to load will show as red on the graph.
基础安装问题参考这个视频ruclips.net/video/96GNRCq4wxw/видео.htmlsi=sskDZRXgTRw-5X66
老师您好,现在ollama generate的模型不能够复制粘贴了,导致我选择不到ollama模型,报undefined,这个怎么弄呀
更新comfyui的ollama节点,可以下拉选择模型了,不用往里填了。
@@Datou1977 是的呢,但是我在命令行里下载ollama的模型,但是为什么我在comfyui里找不到哪个模型呢
@@Xiao-g3c 如果ollama能启动模型,那你可以刷新或者重启一下comfyui
@@Datou1977 不好意思,还是上面的那个问题,他这回包错“127.0.0.1:11434/api/tags " 502 Bad Gateway" ,但是我在网址输入”127.0.0.1:11434/“,它却表示“Ollama is running“,这个问题闹了我好久,希望得倒您的回答
@@Datou1977 不好意思,还是上面的问题,他这回包错:“GET 127.0.0.1:11434/api/tags "HTTP/1.1 502 Bad Gateway" Error handling request“,但是我在浏览器输入”127.0.0.1:11434/“,他却显示:”Ollama is running“,所以我不知道该怎么办了,希望得倒您的解答
老哥,这个flux能用吗?
可以用
I used your workflow, and ollama returned the answer: I cannot generate text related to adult content. Is there something else I can help you with?
sorry, i dont know if there is nsfw llm...
我重启了就行了,突然想起之前也有这样的情况,不知道那里出了问题
我也遇到过,保险起见,可以在ksampler前面增加一个Automatic CFG节点,就稳了。
感谢分享
想问问为什么我的llama 3 不能读取本地文件呢?
ollama的命令行可以启动它,聊天吗?
@@Datou1977 嗯,comfyui里面读不了,我就用cmd打开对话试了下,发送“please describe this image:"E:\AI\照片\IMG_8646.jpeg"”让他读图,他回复“I apologize, but I'm a large language model, I don't have the capability to access or view external files or
images. The file path you provided, "E:\AI\照片\IMG_8646.jpeg", is specific to your local computer and cannot be
accessed remotely.
If you'd like to describe the image, please provide me with more context or information about what the image
contains (e.g., objects, colors, shapes, etc.). I'll do my best to help you describe it!”
@@Datou1977 comfyui里面一直读不到图,我就用终端跑了一下让他读图,但返回是“I apologize, but I'm a large language model, I don't have the capability to access or view external files or
images.”
下载的是8b-instruct-q6_K的模型
@@eyle3543 它是纯语言模型,你要下载多模态模型来读图,推荐phi3 llava
模型好大,用那个cmd命令下载总断,有什么好办法吗,提示:
pull Error: max retries exceeded:
如果你需要代理才能连上下载服务器,可能需要换个稳定快速的代理。
老师你好,请问Ollama插件的 debug开启关闭影响的是什么
我没有动过它
你前面是不是有几个讲提示词的视频删了?我刚想看,找不到了
没有啊,都在
坚哥,这个本地跑的话,有配置要求吗
语言模型丰俭由人,你的显存大就可以下载尺寸大一些的语言模型,显存小就下载精简一点的,主要就是对显存有要求。
哥,这个要是跑在云端怎么整,家里电脑配置不够
云端我还真没玩过,云端是windows系统还是linux系统还是docker我都不清楚,你搞明白了麻烦给我科普一下。
大佬为什么我出的图是黑屏的,什么也没有,K采器在跑的时候已经有图显示,到最后几步就黑屏了
comfyui更新后cfg的设置发生了一些变化,加上一个auto cfg节点可以解决,参见我漫画转真人的视频
错下的模型怎么删哪,都不小占好多空间
To list downloaded models, use ollama list. To remove a model, use ollama rm . To update a model, use ollama pull .
@@Datou1977 好的,明白了,谢谢。Okay, got it, thank you.
需要保持网络畅通吗?
语言模型是跑在本地的,只有下载的过程需要联网。如果用sdxl绘画,sd模型也是跑在本地的。
大佬,请问有云部署comfui的方案吗?
云部署是我的知识盲区,我都是在自己的4090上跑
@@Datou1977请教一下,面向ai绘画小白有比较优质的学习资源吗?博主或者书籍啥的
@@douhua_corgi 剑心老师的基础课程很好 ruclips.net/video/zB1MARF0t8Q/видео.html
@@Datou1977 感谢,再请教一下大佬电脑配置是怎样的,看618配一台电脑来探索一下ai绘画
@@douhua_corgi 压力主要在gpu,我是比较老的主板和cpu,Intel(R) Core(TM) i9-9900K,显卡是涨价前买的4090。玩AI要买N卡,显存最好能在16G以上。
ollama节点中的“URL:127.0.0.1.11434”个参数需要修改吗?
通常不需要