- Видео 19
- Просмотров 36 562
Datou
Добавлен 21 апр 2024
大家好,我是Datou,喜欢玩AI绘画,喜欢玩大型语言模型,也喜欢玩游戏。
用ComfyUI生成盲盒潮玩(flux+lora+pulid)
盲盒工作流:openart.ai/workflows/datou/blind-box-studio/8BwOVElWPPetdegnQK0g
小红书工作流:openart.ai/workflows/datou/little-red-book/m5GVtvGlMRMR8ztZTBRB
诺贝尔工作流:openart.ai/workflows/datou/mynobel/GOWCDRLen1QMzw4cJGTb
潜空间噪音注入工作流:openart.ai/workflows/datou/fluxlatentdetailer/iFjadXV3dfObgo2MU7bE
简笔画工作流讲解视频:ruclips.net/video/cix9igRiUm8/видео.html
小红书工作流:openart.ai/workflows/datou/little-red-book/m5GVtvGlMRMR8ztZTBRB
诺贝尔工作流:openart.ai/workflows/datou/mynobel/GOWCDRLen1QMzw4cJGTb
潜空间噪音注入工作流:openart.ai/workflows/datou/fluxlatentdetailer/iFjadXV3dfObgo2MU7bE
简笔画工作流讲解视频:ruclips.net/video/cix9igRiUm8/видео.html
Просмотров: 466
Видео
用ComfyUI生成各种形象的小黄人
Просмотров 465Месяц назад
小黄人工作流:openart.ai/workflows/datou/minionverse/ivO6Cq653ilKICMvPPSu 图生动画工作流:openart.ai/workflows/datou/cogvideox-i2v/vLKiaWUSWpaxpYNZgWvL ollama安装和模型下载:ruclips.net/video/daKKfUReOSo/видео.html
Llama 3.2很强,但是
Просмотров 1,4 тыс.Месяц назад
本期视频对比了Llama 3.2 3B和Llama 3 8B的能力区别,更新了一版粘土风格工作流:openart.ai/workflows/datou/clay-20/nWTQ8IEln5l3vK0Jj2y4 本期视频的封面由flux inpaint controlnet生成
如何给Flux模型训练LoRA
Просмотров 1,9 тыс.Месяц назад
Sin City LoRA:huggingface.co/Datou1111/flux-sincity-movie Sin City工作流:openart.ai/workflows/datou/sin-city-movie-style/mboROcY4HS8GpxtzarZu 自动生成提示词txt文件的工作流:openart.ai/workflows/datou/auto-caption/qm2hyFZf90nFt4RVjYlN Mint制作的LoRA训练教程:ruclips.net/video/HzGW_Kyermg/видео.html LoRA训练工具:github.com/ostris/ai-toolkit
开源绘画模型新王Flux
Просмотров 5532 месяца назад
flux高清放大工作流:openart.ai/workflows/datou/flux-ultimatesdupscale/B8cyYvl0lSB8G16C1WtF flux新川洋司lora:openart.ai/workflows/datou/yoji-shinkawa/3UtvZoe9lFb573FDupng 训练flux lora的教程:ruclips.net/video/HzGW_Kyermg/видео.html flux nf4 v2工作流:openart.ai/workflows/datou/flux-nf4-v2/ewl8i7fqvv8hDFvzntMn
宝可梦工作流
Просмотров 4713 месяца назад
openart.ai/workflows/datou/pokemon-workflow-20/lXRX2XiYuZIYCRluVV2k
ComfyUI视频转绘工作流 - video2video workflow - v2v
Просмотров 1,5 тыс.3 месяца назад
工作流原作者:civitai.com/models/544534?modelVersionId=605549 原作者的讲解视频:ruclips.net/video/-E-DNhFumW8/видео.html 我修改之后的工作流:openart.ai/workflows/datou/inner-reflections-v2v/XPXOR4GrWqC72f31UXdT
新协议能不能救活SD3?
Просмотров 4603 месяца назад
聊聊SD3协议的变化和快手新发布的绘画模型可图 Kolors模型节点:github.com/kijai/ComfyUI-KwaiKolorsWrapper
聊聊SD3
Просмотров 4214 месяца назад
SD3为什么被ban?它的能力和其他DiT模型相比怎么样?下一代图像生成模型的希望在哪? github.com/city96/ComfyUI_ExtraModels github.com/kijai/ComfyUI-LuminaWrapper openart.ai/workflows/datou/dit-family/Qaxtf25JKoZcwl7tYuj2
用inpaint一键丰胸 - ComfyUI
Просмотров 6674 месяца назад
全自动实现老周演示的丰胸效果。 工作流下载: openart.ai/workflows/datou/boob-boom/LwU8Semr5IGVFrPBJdQl 自定义节点下载: github.com/ZHO-ZHO-ZHO/ComfyUI-YoloWorld-EfficientSAM github.com/yolain/ComfyUI-Easy-Use 模型下载: huggingface.co/lllyasviel/fooocus_inpaint/tree/main
ComfyUI,最伟大的开放世界编程游戏
Просмотров 2,4 тыс.5 месяцев назад
很开心能参加CLSCN,这是我在ComfyUI领导力峰会上分享的内容。 cute you工作流:openart.ai/workflows/rui400/cute-youcreate-your-cartoon-likeness-using-1-photo/2vwb81MasZTJWU7Zko6L Cargo-bot网页版:i4ds.github.io/CargoBot/?state=1
为什么IP Adapter和InstantID一起用?
Просмотров 1 тыс.5 месяцев назад
InstantID虽然很强,但在一些情况下,还是需要IP Adpater来帮忙。 《her》工作流:openart.ai/workflows/datou/her/A45EfKxrlB8MkFItvsym
在白板Windows上从零安装ComfyUI解决InstantID报错并运行工作流
Просмотров 5 тыс.5 месяцев назад
发了工作流和视频后,收到最多的留言就是怎么安装运行,遇到问题怎么解决,今天我就从白板Windows开始,带大家一步步安装ComfyUI,搞定Ollama和InstantID,走上人生巅峰。 ComfyUI安装教程文字版:openart.ai/workflows/datou/manga-cosplay/SgsFFSuOeFe7Qzs3eHij
一分钟学会漫画转真人 - ComfyUI workflow
Просмотров 7 тыс.5 месяцев назад
这期视频详细讲解了漫画转真人工作里的设计思路和具体实现,更基础的ComfyUI安装和自定义节点安装问题(特别是Ollama和InstantID这两个节点),请看这个视频,在白板Windows上从头安装Comfyui跑通漫画转真人工作流:ruclips.net/video/96GNRCq4wxw/видео.html Manga Cosplay workflow: openart.ai/workflows/datou/manga-cosplay/SgsFFSuOeFe7Qzs3eHij
請問大佬,可以用ollama來使用中文提示詞,讓ollama翻譯成英文並優化產生圖檔嗎?
可以,找个中文英文都懂的模型就能做到,比如qwen 2.5
Which Ollama model should I use? And in which folder should I put it?
ruclips.net/video/daKKfUReOSo/видео.html
不知道為什麼在1st的時候就畫雜訊圖,一直到後面全部都是雜訊圖
非常感谢博主的分享,学习到很多
你能帮我让它工作吗?我只听到噪音。
LayerUtility: Florence2Image2Prompt 'NoneType' object is not callable 老师我运行的时候出现了这样的报错是什么原因
@@Nsjsjsnxjj 后来我用了一个单独的f2自定义节点,没有用layerstyle里面的了
头哥,你b站账号咋不更新了
两边发太麻烦了
想问一下minicpm-v应该下哪个模型呀?
minicpm-v:8b-2.6-q4_K_M
@@Datou1977 谢谢
感谢up的分享~
秘密前员工发来贺电,给半个老东家点赞
pulid 加载EVA CLIP一直报错该怎么办呢?
The EVA CLIP is EVA02-CLIP-L-14-336, should be downloaded automatically (will be located in the huggingface directory). If for some reason the auto-download fails (and you get face_analysis.py, init assert 'detection' in self.models exception), download this EVA-CLIP model manually, put the file to your ComfyUI/models/clipand restart ComfyUI. huggingface.co/QuanSun/EVA-CLIP/blob/main/EVA02_CLIP_L_336_psz14_s6B.pt?download=true
网络问题
The EVA CLIP is EVA02-CLIP-L-14-336, should be downloaded automatically (will be located in the huggingface directory). If for some reason the auto-download fails (and you get face_analysis.py, init assert 'detection' in self.models exception), download this EVA-CLIP model manually, put the file to your ComfyUI/models/clipand restart ComfyUI. huggingface.co/QuanSun/EVA-CLIP/blob/main/EVA02_CLIP_L_336_psz14_s6B.pt?download=true
已按流程下载好Ollama模型,但是还是没法调用 显示OllamaVision must provide a model
File "D:\ComfyUI\custom_nodes\comfyui-ollama\CompfyuiOllama.py", line 73, in ollama_vision response = client.generate(model=model, prompt=query, images=images_b64, keep_alive=str(keep_alive) + "m") ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI\.venv\Lib\site-packages\ollama\_client.py", line 161, in generate raise RequestError('must provide a model') ollama._types.RequestError: must provide a model
不要开全局代理
@@Datou1977还是不行,ollama节点那里模型选不到
@@gouzhang-t9g 关掉代理软件?升级一下ollama节点?
@@Datou1977 找到原因了,加速器先关闭,还要把启动程序里的代理端口代码删掉,ollama客户端还要打开挂后台,已成功生图,谢谢大佬
请问下用漫画转真人里的ollama模型:llava-phi3:3.8b-mini-fp16作为视觉反推模型也能得到这样的效果吗?我试了下好像不得行,描述的和示例中从差好远,起码的猪鼻子猪耳朵都没有。
llava-phi3的能力差一些
@@Datou1977 不会吧,那个模型有8个多G呢。而且我很认真仔细的看了城市猎人漫画转真人那期,你还做了多个模型的测试,测试出来llava-phi3:3.8b-mini-fp16是效果最好的。是不是说要根据不同的工作流来选ollama模型呢?并不能一个模型打天下。
@@志宏唐-t7h 那时候还没有minicpm-v和florence2🤭新模型层出不穷,能力越来越强
Hey Thanks for this . Can you tell us comfiui path and model that we need to for ollama vision
custome node: github.com/stavsap/comfyui-ollama vision model: ollama.com/library/minicpm-v
请问哪里可以找一些无版权的中国风的图片呢?
我也不在行
說明裡面的工作流,跟影片中的不一樣
影片里的测试工作流我放在这里了 cdn.openart.ai/workflow_assets/i0Fw5vnAPfyXOXA92IIF/nWTQ8IEln5l3vK0Jj2y4/3ahg3BQ4_1727582931790.png
声音有点小
头哥,我折腾一天了,在yoloworld ESAM节点总报错。好像是生成不出蒙版,能否帮忙看看? Traceback (most recent call last): File "E:\ComfyUI-aki-v1.3\execution.py", line 317, in execute output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) File "E:\ComfyUI-aki-v1.3\execution.py", line 192, in get_output_data return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) File "E:\ComfyUI-aki-v1.3\execution.py", line 169, in _map_node_over_list process_inputs(input_dict, i) File "E:\ComfyUI-aki-v1.3\execution.py", line 158, in process_inputs results.append(getattr(obj, func)(**inputs)) File "E:\ComfyUI-aki-v1.3\custom_nodes\ComfyUI-YoloWorld-EfficientSAM\YOLO_WORLD_EfficientSAM.py", line 149, in yoloworld_esam_image masks_tensor = torch.tensor(combined_mask, dtype=torch.float32) File "E:\ComfyUI-aki-v1.3\custom_nodes\ComfyUI-YoloWorld-EfficientSAM\utils\efficient_sam.py", line 59, in inference_with_boxes mask = inference_with_box(image, box, model, device) File "E:\ComfyUI-aki-v1.3\custom_nodes\ComfyUI-YoloWorld-EfficientSAM\utils\efficient_sam.py", line 28, in inference_with_box predicted_logits, predicted_iou = model( File "E:\ComfyUI-aki-v1.3\python\lib\site-packages\torch n\modules\module.py", line 1553, in _wrapped_call_impl return self._call_impl(*args, **kwargs) File "E:\ComfyUI-aki-v1.3\python\lib\site-packages\torch n\modules\module.py", line 1562, in _call_impl return forward_call(*args, **kwargs) RuntimeError: The following operation failed in the TorchScript interpreter. Traceback of TorchScript (most recent call last): RuntimeError: invalid vector subscript
可以看一下这个工作流,我用了另外一套节点来生成mask openart.ai/workflows/datou/instant-muscles/OmEGrp7v9AQ1vCq8D5Sv
还是JOY CAPTION强😀
你好,今天偶然在B站看到你的视频,觉得你说的很好很详细,对新手很友好。但是在跑你的工作流的时候卡在了高清放大那个节点了(视频中潜空间放大那里)自己弄了很久还是没弄好,所以把后台报错的代码贴在这,希望能得到你的帮助。谢谢你了。 HighRes-Fix Script got prompt Failed to validate prompt for output 221: * HighRes-Fix Script 279: - Value not in list: pixel_upscaler: '1x-ITF-SkinDiffDetail-Lite-v1.pth' not in ['2xNomosUni_span_multijpg_ldl.pth', '4xNMKDSuperscale_4xNMKDSuperscale.pt', '4xNomos8kSCHAT-L.pth', '4xUltrasharp_4xUltrasharpV10.pt', 'BSRGAN.pth', 'ESRGAN_4x.pth', 'OmniSR_X2_DIV2K.safetensors', 'OmniSR_X3_DIV2K.safetensors', 'OmniSR_X4_DIV2K.safetensors', 'RealESRGAN_x4plus.pth', 'RealESRGAN_x4plus_anime_6B.pth', 'SwinIR_4x.pth'] - Value not in list: control_net_name: 'ttplanetSDXLControlnet_v20Fp16.safetensors' not in (list of length 41) Output will be ignored Failed to validate prompt for output 41: Output will be ignored Failed to validate prompt for output 168: Output will be ignored Failed to validate prompt for output 241: Output will be ignored Failed to validate prompt for output 229: Output will be ignored Failed to validate prompt for output 175: Output will be ignored Failed to validate prompt for output 253: Output will be ignored Prompt executor has been patched by Job Iterator! Prompt executed in 0.11 seconds
找到原因了,是少了一个1x-ITF-SkinDiffDetail-Lite-v1.pth潜空间放大模型。放进合适的文件夹就解决了。谢谢你的分享。
你好,今天偶然在B站看到你的视频,觉得你说的很好很详细,对新手很友好。但是在跑你的工作流的时候卡在了高清放大那个节点了(视频中潜空间放大那里)自己弄了很久还是没弄好,所以把后台报错的代码贴在这,希望能得到你的帮助。谢谢你了。 HighRes-Fix Script got prompt Failed to validate prompt for output 221: * HighRes-Fix Script 279: - Value not in list: pixel_upscaler: '1x-ITF-SkinDiffDetail-Lite-v1.pth' not in ['2xNomosUni_span_multijpg_ldl.pth', '4xNMKDSuperscale_4xNMKDSuperscale.pt', '4xNomos8kSCHAT-L.pth', '4xUltrasharp_4xUltrasharpV10.pt', 'BSRGAN.pth', 'ESRGAN_4x.pth', 'OmniSR_X2_DIV2K.safetensors', 'OmniSR_X3_DIV2K.safetensors', 'OmniSR_X4_DIV2K.safetensors', 'RealESRGAN_x4plus.pth', 'RealESRGAN_x4plus_anime_6B.pth', 'SwinIR_4x.pth'] - Value not in list: control_net_name: 'ttplanetSDXLControlnet_v20Fp16.safetensors' not in (list of length 41) Output will be ignored Failed to validate prompt for output 41: Output will be ignored Failed to validate prompt for output 168: Output will be ignored Failed to validate prompt for output 241: Output will be ignored Failed to validate prompt for output 229: Output will be ignored Failed to validate prompt for output 175: Output will be ignored Failed to validate prompt for output 253: Output will be ignored Prompt executor has been patched by Job Iterator! Prompt executed in 0.11 seconds
16G 内存能跑起来吗
ai-toolkit是针对24g显存的,16g显存可以用github.com/cocktailpeanut/fluxgym
老师您好,现在ollama generate的模型不能够复制粘贴了,导致我选择不到ollama模型,报undefined,这个怎么弄呀
更新comfyui的ollama节点,可以下拉选择模型了,不用往里填了。
@@Datou1977 是的呢,但是我在命令行里下载ollama的模型,但是为什么我在comfyui里找不到哪个模型呢
@@Xiao-g3c 如果ollama能启动模型,那你可以刷新或者重启一下comfyui
@@Datou1977 不好意思,还是上面的那个问题,他这回包错“127.0.0.1:11434/api/tags " 502 Bad Gateway" ,但是我在网址输入”127.0.0.1:11434/“,它却表示“Ollama is running“,这个问题闹了我好久,希望得倒您的回答
@@Datou1977 不好意思,还是上面的问题,他这回包错:“GET 127.0.0.1:11434/api/tags "HTTP/1.1 502 Bad Gateway" Error handling request“,但是我在浏览器输入”127.0.0.1:11434/“,他却显示:”Ollama is running“,所以我不知道该怎么办了,希望得倒您的解答
自动生成提示词txt文件的工作流中,需要用到的大模型要用什么格式?应该下载到哪个文件夹里面?谢谢!
大佬 问下我训练的是室内风格模型,content_or_style: balanced # content, style, balanced,我看你用的是平衡,室内风格模型要换style吗
@@黄勇刚-v2z 平衡几乎就是万能的,室内图片也包含家具、软装这些主体内容
@@Datou1977 您好,我想问一下,是否可以使用其他微调过的FLUX大模型来作为底模训练呢?是否只需要更换大模型就可以,其他配套的VAE等模型是否可以适配呢?
@@CHANGE-l2d 这个训练代码是写死了直接从huggingface上下载模型的,理论上当然可以用其他底模,但是要自己改训练代码载入其他模型。
@@Datou1977 我可不可以把模型下载下来以后,用其他微调过的模型替代FLUX模型文件这样训练呢?其他的东西能适配么?
@@CHANGE-l2d 不能直接替换,因为它用的是16位精度的模型(23G),社区里微调过的模型通常是8位精度(11G),要改一些代码才行,这块就是我的知识盲区了,我不是程序员。
我在openart上看到了你的工作流,有没有在国内网站上传过呀?
感謝大頭,找到另一套. fluxgym 不知好不好用
他这个训练工具不需要单独传flux底模进去呀
会自动下载,如果下载失败也可以手动下载放到指定的目录
训练门槛这么高吗?24g显存都吃满了
博3万岁哈哈哈
所以,啓動的命令是啥?
InstantID面部分析cuda报错紫色怎么解决
选cpu
很棒的分享
想问下,这样的结果如果用mj参考提示词来跑图,能不能实现
mj我不太懂,但这个操作不是在提示词层面,而是用模型直接读图得到一些信息后进行混合
大佬,真人转漫画怎么操作呢
openart.ai/workflows/datou/zanshou-kin-manga-style/WNQ96lyTeApBETOQF7Xt
大佬 为啥我用它换脸占比比较小的图,就会重绘脸之外的地方= -=
@@xnpotato-ko7up 这是instantid的能力短板,需要把脸切到合适的比例再操作
IPAdapter 可以比较好的继承原图像的人物表情,眼神。细节这些元素,所以反推,原始图的质量决定了成图的质量,原始图高清,成图高清,原始图有点胡子,成图胡子会加强,等等
不错
如果触发词比较常见,怎么判断生成图片的效果是 LoRA 带来的还是本身 Flux 拥有的,是不是需要起一个“另类”一点的触发词
另起一个,比如把apple变成apple1111
这个语言模型是咋了= -=我说男人在森林,它说不能色情,我说仓鼠吃东西,它说不能剥削动物= -=
Ollame不知道用哪个模型名字,默认是空的
llava-phi3:3.8b-mini-fp16
是不是因为我用c站的link评论就不会留下来?
不清楚,c站是得罪油管了吗?
测试,我评论后,刷新进视频,没看到我之前的评论
datou哥,问一下inpaint anything工作流中的checkpoint模型link
好像是这个 civitai.com/models/112902?modelVersionId=354657
@@Datou1977 我在使用灵魂画师的工作流的时候有个问题:vae_madebyollin.safetensors可以提供一下下载链接吗
datou哥,我在使用灵魂画师的工作流的时候有个问题:vae_madebyollin.safetensors可以提供一下下载链接吗
datou哥,帮忙给一下vae_madebyollin.safetensors的link
datou哥,在使用灵魂画师流程图的时候有个疑问:vae_madebyollin.safetensors可以提供一下下载链接吗?看起来vae有提示问题
老师你好,按教学安装到:2.7 创建启动文件,创建启动文件双击无法启动程序,问题如下,烦请老师帮助讲解,感谢! "Start ComfyUI" Traceback (most recent call last): File "D:\ComfyUI\main.py", line 90, in <module> import execution File "D:\ComfyUI\execution.py", line 13, in <module> import nodes File "D:\ComfyUI odes.py", line 21, in <module> import comfy.diffusers_load File "D:\ComfyUI\comfy\diffusers_load.py", line 3, in <module> import comfy.sd File "D:\ComfyUI\comfy\sd.py", line 5, in <module> from comfy import model_management File "D:\ComfyUI\comfy\model_management.py", line 143, in <module> total_vram = get_total_memory(get_torch_device()) / (1024 * 1024) File "D:\ComfyUI\comfy\model_management.py", line 112, in get_torch_device return torch.device(torch.cuda.current_device()) File "D:\ComfyUI\.venv\lib\site-packages\torch\cuda\__init__.py", line 878, in current_device _lazy_init() File "D:\ComfyUI\.venv\lib\site-packages\torch\cuda\__init__.py", line 305, in _lazy_init raise AssertionError("Torch not compiled with CUDA enabled") AssertionError: Torch not compiled with CUDA enabled 请按任意键继续. . .
2.5 安装Torch,打开PyTorch官网复制安装命令,这个安装命令经常会更新,推荐安装2.3.0,这个版本可以兼容xformers pytorch.org/ pip install torch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 --index-url download.pytorch.org/whl/cu121 可以顺便安装一下xformers pip install xformers==0.0.26.post1 和flash attention pip install github.com/bdashore3/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.3.0cxx11abiFALSE-cp311-cp311-win_amd64.whl
老师好,收到,真心感谢,我按您的方法操作;
老哥,这个flux能用吗?
可以用
我是打了杨戬的结局,打败杨戬之后只是释放了孙悟空的意识,好像没说会夺舍吧?杨戬最后说“以肉身之死,换意念永续,但愿你不会辜负他”,这里是指抗争的意识永续吧?我感觉孙悟空在游戏里是真死了,天命人还在;确实夺舍太黑暗了,应该不至于。不过西行取经的意义在这里面确实被大大削弱了。总的来说,没有破坏我心中的孙悟空主要的形象。
火焰山那段我倒是挺疑惑的,和红孩儿怎么要闹到这个地步,铁扇公主献上芭蕉扇弄得我像坏人似的,我只是要六根之一啊;红孩儿的仇人不是我吧,怎么就和我打个你死我活的;还有动画里孙悟空和猪八戒的表现看起来也很恶,我也没太理解。
如果不是为了复活孙悟空,孙悟空其实肉身不死也可以传播自己的理念,没看出来死对传播理念的正面意义。如果孙悟空没通过夺舍复活,小猴子忙活完一路,剧情停在了这里,后面要干啥,他是可以有自己的选择,还是必须做孙悟空原本想做的事情?老猴子说孙悟空可以被取代,这一点我从情感上接受不了,齐天大圣这种名号可以传承,类似蜘蛛侠的面具背后可以有不同的英雄,但是让我直接取代孙悟空,我何德何能,我配吗。
@@wjl-q6r 剧情的安排是红孩儿需要根器增强自己的能力去复仇,这就和小猴子收集根基复活孙悟空的目的冲突了,两边一抢,可不就打起来了。红孩儿一个人怎么完成复仇计划,这就和黑猴一个人想要颠覆天庭搞个无政府主义是一样的幼稚,这么大的事就自己单干啊。
女菩萨不错