![Datou](/img/default-banner.jpg)
- Видео 10
- Просмотров 18 234
Datou
Добавлен 21 апр 2024
大家好,我是Datou,喜欢玩AI绘画,喜欢玩大型语言模型,也喜欢玩游戏。
聊聊SD3
SD3为什么被ban?它的能力和其他DiT模型相比怎么样?下一代图像生成模型的希望在哪?
github.com/city96/ComfyUI_ExtraModels
github.com/kijai/ComfyUI-LuminaWrapper
openart.ai/workflows/datou/dit-family/Qaxtf25JKoZcwl7tYuj2
github.com/city96/ComfyUI_ExtraModels
github.com/kijai/ComfyUI-LuminaWrapper
openart.ai/workflows/datou/dit-family/Qaxtf25JKoZcwl7tYuj2
Просмотров: 295
Видео
用inpaint一键丰胸
Просмотров 32821 день назад
全自动实现老周演示的丰胸效果。 工作流下载: openart.ai/workflows/datou/boob-boom/LwU8Semr5IGVFrPBJdQl 自定义节点下载: github.com/ZHO-ZHO-ZHO/ComfyUI-YoloWorld-EfficientSAM github.com/yolain/ComfyUI-Easy-Use 模型下载: huggingface.co/lllyasviel/fooocus_inpaint/tree/main
ComfyUI,最伟大的开放世界编程游戏
Просмотров 1,5 тыс.21 день назад
很开心能参加CLSCN,这是我在ComfyUI领导力峰会上分享的内容。 cute you工作流:openart.ai/workflows/rui400/cute-youcreate-your-cartoon-likeness-using-1-photo/2vwb81MasZTJWU7Zko6L Cargo-bot网页版:i4ds.github.io/CargoBot/?state=1
为什么IP Adapter和InstantID一起用?
Просмотров 484Месяц назад
InstantID虽然很强,但在一些情况下,还是需要IP Adpater来帮忙。 《her》工作流:openart.ai/workflows/datou/her/A45EfKxrlB8MkFItvsym
在白板Windows上从零安装ComfyUI解决InstantID报错并运行工作流
Просмотров 3 тыс.Месяц назад
发了工作流和视频后,收到最多的留言就是怎么安装运行,遇到问题怎么解决,今天我就从白板Windows开始,带大家一步步安装ComfyUI,搞定Ollama和InstantID,走上人生巅峰。 ComfyUI安装教程文字版:openart.ai/workflows/datou/manga-cosplay/SgsFFSuOeFe7Qzs3eHij
一分钟学会漫画转真人
Просмотров 5 тыс.Месяц назад
这期视频详细讲解了漫画转真人工作里的设计思路和具体实现,更基础的ComfyUI安装和自定义节点安装问题(特别是Ollama和InstantID这两个节点),请看这个视频,在白板Windows上从头安装Comfyui跑通漫画转真人工作流:ruclips.net/video/96GNRCq4wxw/видео.html Manga Cosplay workflow: openart.ai/workflows/datou/manga-cosplay/SgsFFSuOeFe7Qzs3eHij
粘土风格ComfyUI工作流和提示词优化
Просмотров 2,9 тыс.Месяц назад
介绍了两个新做的粘土风格工作流,图片转粘土和黏土头像。介绍了提示词优化后的3.0版本和3.1版本。 图片转粘土:openart.ai/workflows/datou/image-to-clay-style-ollama/Rhj7m1hsDRfDm65jOmxD 粘土头像:openart.ai/workflows/datou/clayu/8wPhkgb7oeApPCmPNgIW LLaVA模型:ollama.com/library/llava:7b-v1.6-mistral-fp16
动漫转动图 顺便科普一下提示词工程
Просмотров 500Месяц назад
基于Cameron R. Wolfe老师和宝玉老师两位对提示工程的总结,结合我自己的实践,我整理了一版提示工程的要点,以Anime 2 Live Photo工作流为案例进行了详细讲解。 Cameron R. Wolfe老师和宝玉老师的推文 x.com/dotey/status/1786168933013172235 Anime 2 Live Photo工作流(输入一张图片剩下全自动完成) openart.ai/workflows/datou/anime-2-live-photo/Rd4JNY9Dtwa9XL0KmylX DynamiCrafter工作流(修复了这个模型出图亮度抖动的问题) openart.ai/workflows/datou/dynamicrafter/quRFf6v5JFvVlgFCMPEp Ollama的网页版前端,open-webui github.com/op...
用ComfyUI玩照片转动漫 Photo 2 Anime
Просмотров 2 тыс.2 месяца назад
用视觉模型LLaVA识别图片内容反推提示词,然后给图片的主体换个视觉风格。 Photo 2 Anime工作流下载:openart.ai/workflows/datou/photo-2-anime-ollama/F7sorLhVsnZ5B8EngTjG LLaVA模型下载:ollama.com/library/llava:13b-v1.6-vicuna-q6_K 更多风格demo下载:pan.baidu.com/s/1pgqV-bt9RM08j4QFMR7Rnw?pwd=fj28
用Ollama自动优化Comfyui提示词
Просмотров 2 тыс.2 месяца назад
好的提示词是好图片的基础,但自己想提示词太麻烦了,用大语言模型自动优化就方便多了。视频里漏掉了一点,2.0版新增了中间结果这一步对质量提升非常大,1.0版让大语言模型直接输出提示词,相当于要求它心算,2.0让它把每一步的中间结果都写下来,相当于给了它草稿纸,工作难度立马不一样了。 ollama.com/ github.com/stavsap/comfyui-ollama openart.ai/workflows/datou/prompt-polisher-ollama/m1Q4k4YnpKmtAmb0yH7Y openart.ai/workflows/datou/prompt-polisher-gemini-api/jKlKunmsjWVQ2Dh2GPEq
its very helpful
先點贊再看。
从win10升级到11就出现了这种情况,要不要重置电脑? PermissionError: [WinError 5] 拒绝访问。 Error loading "D:\APP\33SD3\ComfyUI_nvidia_cu121_or_cpu_2\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.
重制电脑应该没有帮助,重新安装一下comfyui吧
请问在openart上下载的您的一个工作流,但是需要Primitive Nodes 没办法下载,请问在哪里获取呀
我不记得在哪里用过,是这个吗?comfy.icu/node/StringStaticPrimitive
感谢大佬教学
C站关于sd3的东西已经完全消失,未来生态似乎没有了😁??
如果sai不更新协议,sd3 2b的生态确实没指望了,有商业价值才会有人添砖加瓦
我觉得这些模型应该comfyui本体来支持才是最好的,不知道comfyui作者在将来会不会让所有开源的音频,视频,图片模型在本体第一时间得到支持,而不是只照顾sai,我想应该是可能的,毕竟comfyui 作者已经离开sai公司了
人的精力是有限的,他只能选择他眼中最有潜力的模型支持一下,可以理解。其他模型反正可以通过自定义节点运行,有潜力的话自然会冒出来。
先点赞再看
sd3完全可以弄个不这么流氓的收费模式
如果它能修改协议,就还是好同志。
😁
很赞的教程,感谢大佬无私分享,comfyui的可能性远超出我想像,作为一个webui重度使用者,现在也被comfy的灵活所触动,慢慢一步步跟着大佬的脚步学习起来。
大老师请问这是什么模板中的图片出自什么漫画?
《城市猎人》
@@Datou1977 感觉这种写实风格的漫画相对于其他风格效果要好一点
🎉up主讲的逻辑和分析太好了🎉
'ollama' 不是内部或外部命令,也不是可运行的程序 或批处理文件。git下载提示这个是为啥
ruclips.net/video/96GNRCq4wxw/видео.html&lc=UgxXmcxS6r22IdNRzbV4AaABAg
我也是工作流玩家,听了你的感悟不亚于看了一本风清扬的练功笔记,虽然没有教具体招式,但是感觉眼前的迷雾消散了一些,感谢。
太棒了。。
奇怪,如果试试彩色漫画,比如灌篮高手的晴子,出来的真实系图,没那么真实。如果移除了 mistone line 节点倒是可以,就是没这么准确
可以试试sketch、anytest等controlnet。
@@Datou1977 好。主要是我用你视频内的示例的黑白图出来的效果还挺还原,换了个彩色一点就不太行.
大师厉害!
按老师的视频都配置好了,语言模型也装上了,但是提示说拒绝访问 File "D:\ComfyUI\.venv\Lib\site-packages\httpx\_transports\default.py",line 232,in handle_request with map_httpcore_exceptions(): File "C:\Users\yccab\AppData\Local\Programs\Python\Python311\Lib\contextlib.py",line 158,in __exit_ self.gen.throw(typ,value,traceback) File "D:\ComfyUI\.veny Lib\site-packages'\httpx\_transports\default.py",line 86,in map_httpcore_exceptions raise mapped_exc(message)from exc nttpx.ConnectError:[WinError 10061]由于目标计算机积极拒绝,无法连接。 运行后提示 rgthree. Using rgthree's optimized recursive execution. rgthree. First run patching recursive_output_delete_if_changed and recursive_will_execute. rgthree] Note:If execution seems broken due to forward ComfyUI changes,you can disable the optimization from rgthree settings in ComfyUI. !!Exception during processing!!must provide a model Traceback (most recent call last): File "D:\ComfyUI\execution.py",line 151,in recursive_execute output_data,output _ui get output data(obj,input data all) File "D:\ComfyUI\execution.py",line 81,in get_output_data return_values map_node_over-list(obj,input_data_all,obj.FUNCTION,allow_interrupt=True) File "D:\ComfyUI\execution.py",line 74,in map_node_over_list results.append(getattr (obj,fune)(*slice_dict(input_data_all,i)))
是不是开了全局代理?
是开了全局代理
@@Datou1977 谢谢老师,工作流可以运行了
谢谢老师的课程
醍醐灌頂
謝謝分享~請問交流會歡迎澳門的小伙伴加入嗎? XD
开源世界欢迎所有朋友
heyyy datou老师!这篇分享真的学到太多了😻 感谢您的真诚与谦虚不知道能否求求您视频里提到的rui佬的自动化海报工作流进一步学习呀💐
openart.ai/workflows/rui400/cute-youcreate-your-cartoon-likeness-using-1-photo/2vwb81MasZTJWU7Zko6L
感谢!娓娓道来!!!
大头哥,这个工作流,有时候能用,有时候报这个错:(MaxRetryError("HTTPSConnectionPool(host='huggingface.co', port=443): Max retries exceeded with url: /TheMistoAI/MistoLine/resolve/main/Anyline/MTEED.pth (Caused by ProxyError('Cannot connect to proxy.', TimeoutError('_ssl.c:989: The handshake operation timed out')))"), ,好像是不能翻墙导致的吧,MTEED.pth这个文件起什么作用?如果不上网,在本地,有没有办法解决这个错误?
学习了👍👍
作者您好,麻烦问一下,视频中提到的Rui佬的id是什么?
space.bilibili.com/10570268
@@Datou1977 谢谢作者分享
下次一定
Hey Datou~ 发现自己是第1000位订阅者!
恭喜🎊
威武哦,
安装了Ollama识别不到模型怎么办,提示ollama._types.RequestError: must provide a model
windows?安装模型成功了吗?在命令行里能和模型聊天吗?
0.0 seconds (IMPORT FAILED): L:\ComfyUI_windows_portable\ComfyUI\custom_nodes\PuLID_ComfyUI 0.0 seconds (IMPORT FAILED): L:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI_InstantID 这两条始终装不上,ComfyUI_InstantID一直报安不上insightface,manager里面显示 Native InstantID support for ComfyUI. This extension differs from the many already available as it doesn't use diffusers but instead implements InstantID natively and it fully integrates with ComfyUI. Please note this still could be considered beta stage, looking forward to your feedback.
ruclips.net/video/96GNRCq4wxw/видео.html 从这个位置开始看
显卡是AMD RX580是不是就不能玩了?
8G显存,可能有点悬
按流程走的,但是出现了这些问题,请问怎么解决 Error occurred when executing OllamaVision: must provide a model File "J:\ComfyUI\execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "J:\ComfyUI\execution.py", line 81, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) File "J:\ComfyUI\execution.py", line 74, in map_node_over_list results.append(getattr(obj, func)(**slice_dict(input_data_all, i))) File "J:\ComfyUI\custom_nodes\ComfyUi-Ollama-YN\CompfyuiOllama.py", line 81, in ollama_vision response = client.generate(model=model, prompt=query, keep_alive=keep_alive, options=options, images=images_b64) File "J:\ComfyUI\.venv\lib\site-packages\ollama\_client.py", line 124, in generate raise RequestError('must provide a model')
”must provide a model“ 没有选中视觉模型?
@@Datou1977 之前是没有选择模型,选择选上了,但是出现了新的问题,视频我看了很多次,但不知道出在哪,所以再次打扰你 Error occurred when executing OllamaVision: File "J:\ComfyUI\execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "J:\ComfyUI\execution.py", line 81, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) File "J:\ComfyUI\execution.py", line 74, in map_node_over_list results.append(getattr(obj, func)(**slice_dict(input_data_all, i))) File "J:\ComfyUI\custom_nodes\ComfyUi-Ollama-YN\CompfyuiOllama.py", line 81, in ollama_vision response = client.generate(model=model, prompt=query, keep_alive=keep_alive, options=options, images=images_b64) File "J:\ComfyUI\.venv\lib\site-packages\ollama\_client.py", line 126, in generate return self._request_stream( File "J:\ComfyUI\.venv\lib\site-packages\ollama\_client.py", line 97, in _request_stream return self._stream(*args, **kwargs) if stream else self._request(*args, **kwargs).json() File "J:\ComfyUI\.venv\lib\site-packages\ollama\_client.py", line 73, in _request raise ResponseError(e.response.text, e.response.status_code) from None
A卡是不是就只能看看了。
A卡能玩
@@Datou1977 上次MJ也说最好N卡,可怜我的5700了,谢谢楼主了,我继续往下安装。
@@user-uc6yo4qk7k amd可以跑,只是我没有,没办法演示
colab 上能安装么? 我的win有点太老了
我不熟,没有发言权
昨天见到了zho佬,他就是用colab,平时在ipad上跑
大佬,提示缺少以下节点怎么办呢? MuseVPredictor V1 (comfyui_musev_evolved) MuseVImg2Vid V1 (comfyui_musev_evolved)
我并么有用到这些节点啊🤨
你能为我创建或提供我想实现的工作流程的想法吗? 我想实现的是,仅输入某人穿着的衣服 输入 上传一个人的照片 上传一个背景照片(可能1和2的照片尺寸不同,需要调整) 然后使用canny边缘检测生成背景图片,并以canny生成的背景为基础,用我输入的提示词生成背景图片, 将人物照片与背景照片合成, 并将人的脸换成reactor。
openart.ai/workflows/alansyn/ic-light-all-in-one/fXl8HZeQ1A0IpmgmMLt2
你能为我创建或提供我想实现的工作流程的想法吗? 我想实现的是,仅输入某人穿着的衣服 输入 上传一个人的照片 上传一个背景照片(可能1和2的照片尺寸不同,需要调整) 然后使用canny边缘检测生成背景图片,并以canny生成的背景为基础,用我输入的提示词生成背景图片, 将人物照片与背景照片合成, 并将人的脸换成reactor。
你这个想法有点复杂,简单的办法是给穿衣服的照片换脸,然后对换脸后的人iclight设置环境重打光
I'm happy to help! However, I need you to provide the image you'd like me to analyze. Please share the image, and I'll do my best to describe the characters' details, facial features, and physical characteristics using professional terms. If you don't have an image to share, feel free to describe it to me, and I'll create a fictional scenario for analysis purposes. Please note that if the image is copyrighted or has sensitive information, please ensure you have the necessary permissions or rights to share it.
@Nicaiko
有点不明白提示词这的作用,直接用个反推不行吗
可以,提示词精准度有点区别而已
Error occurred when executing Yoloworld_ESAM_Zho: cannot import name 'packaging' from 'pkg_resources' (D:\ComfyUI-aki-v1.2\.ext\Lib\site-packages\pkg_resources\__init__.py) 报错了怎办搞啊大佬
最好不要用整合包 ruclips.net/video/96GNRCq4wxw/видео.html
yoloworld经常检测失败,不知道为啥,换成impact pack的面部检测替代了,感谢分享!
哪个好用就用哪个
我也是,不知道为啥,到哪一步就报packaging的错,可能是插件该更新了吧
太强了
不知道名字那个好像是劳模姐
对,杰西卡·查斯坦
整了三天了,求老师解惑,同样是clip的报错。在IPAdapter style & Composition SDXL节点上:Error occurred when executing IPAdapterStyleComposition: Missing CLIPVision model. File "/Volumes/Lei’s2T/ComfyUI/execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "/Volumes/Lei’s2T/ComfyUI/execution.py", line 81, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) File "/Volumes/Lei’s2T/ComfyUI/execution.py", line 74, in map_node_over_list results.append(getattr(obj, func)(**slice_dict(input_data_all, i))) File "/Volumes/Lei’s2T/ComfyUI/custom_nodes/ComfyUI_IPAdapter_plus/IPAdapterPlus.py", line 661, in apply_ipadapter raise Exception("Missing CLIPVision model.")
CLIP_Vision下也拷贝了CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors和CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
@@ChoRay-8204 First, you should download CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors, and then put it under ComfyUI/models/clip_vision. After that, you just quit ComfyUI, and restart ComfyUI to run the whole process again. It should work.
Error occurred when executing OllamaVision: llama runner process has terminated: exit status 0xc0000005 Ollama已经安装也运行了,模型也都下载好了。为啥还出错啊,求博主解答下,就卡在这了
关注一下显存占用情况,或者先用cmd运行ollama模型看看能不能正常对话
头哥 ,我这个显卡2070s 能带的动 llava:7b-v1.6-mistral-fp16 这个模型吗。
用这个模型,只需要2.3G ollama.com/library/llava-phi3