Datou
Datou
  • Видео 19
  • Просмотров 36 562
用ComfyUI生成盲盒潮玩(flux+lora+pulid)
盲盒工作流:openart.ai/workflows/datou/blind-box-studio/8BwOVElWPPetdegnQK0g
小红书工作流:openart.ai/workflows/datou/little-red-book/m5GVtvGlMRMR8ztZTBRB
诺贝尔工作流:openart.ai/workflows/datou/mynobel/GOWCDRLen1QMzw4cJGTb
潜空间噪音注入工作流:openart.ai/workflows/datou/fluxlatentdetailer/iFjadXV3dfObgo2MU7bE
简笔画工作流讲解视频:ruclips.net/video/cix9igRiUm8/видео.html
Просмотров: 466

Видео

用ComfyUI生成各种形象的小黄人
Просмотров 465Месяц назад
小黄人工作流:openart.ai/workflows/datou/minionverse/ivO6Cq653ilKICMvPPSu 图生动画工作流:openart.ai/workflows/datou/cogvideox-i2v/vLKiaWUSWpaxpYNZgWvL ollama安装和模型下载:ruclips.net/video/daKKfUReOSo/видео.html
Llama 3.2很强,但是
Просмотров 1,4 тыс.Месяц назад
本期视频对比了Llama 3.2 3B和Llama 3 8B的能力区别,更新了一版粘土风格工作流:openart.ai/workflows/datou/clay-20/nWTQ8IEln5l3vK0Jj2y4 本期视频的封面由flux inpaint controlnet生成
如何给Flux模型训练LoRA
Просмотров 1,9 тыс.Месяц назад
Sin City LoRA:huggingface.co/Datou1111/flux-sincity-movie Sin City工作流:openart.ai/workflows/datou/sin-city-movie-style/mboROcY4HS8GpxtzarZu 自动生成提示词txt文件的工作流:openart.ai/workflows/datou/auto-caption/qm2hyFZf90nFt4RVjYlN Mint制作的LoRA训练教程:ruclips.net/video/HzGW_Kyermg/видео.html LoRA训练工具:github.com/ostris/ai-toolkit
简笔画工作流 & 怒喷黑神话悟空
Просмотров 6082 месяца назад
通关了黑神话悟空,被喂屎太难受了,不吐不快。有剧透。 声明:本视频录制过程中没有小猫受伤。
开源绘画模型新王Flux
Просмотров 5532 месяца назад
flux高清放大工作流:openart.ai/workflows/datou/flux-ultimatesdupscale/B8cyYvl0lSB8G16C1WtF flux新川洋司lora:openart.ai/workflows/datou/yoji-shinkawa/3UtvZoe9lFb573FDupng 训练flux lora的教程:ruclips.net/video/HzGW_Kyermg/видео.html flux nf4 v2工作流:openart.ai/workflows/datou/flux-nf4-v2/ewl8i7fqvv8hDFvzntMn
宝可梦工作流
Просмотров 4713 месяца назад
openart.ai/workflows/datou/pokemon-workflow-20/lXRX2XiYuZIYCRluVV2k
ComfyUI视频转绘工作流 - video2video workflow - v2v
Просмотров 1,5 тыс.3 месяца назад
工作流原作者:civitai.com/models/544534?modelVersionId=605549 原作者的讲解视频:ruclips.net/video/-E-DNhFumW8/видео.html 我修改之后的工作流:openart.ai/workflows/datou/inner-reflections-v2v/XPXOR4GrWqC72f31UXdT
新协议能不能救活SD3?
Просмотров 4603 месяца назад
聊聊SD3协议的变化和快手新发布的绘画模型可图 Kolors模型节点:github.com/kijai/ComfyUI-KwaiKolorsWrapper
聊聊SD3
Просмотров 4214 месяца назад
SD3为什么被ban?它的能力和其他DiT模型相比怎么样?下一代图像生成模型的希望在哪? github.com/city96/ComfyUI_ExtraModels github.com/kijai/ComfyUI-LuminaWrapper openart.ai/workflows/datou/dit-family/Qaxtf25JKoZcwl7tYuj2
用inpaint一键丰胸 - ComfyUI
Просмотров 6674 месяца назад
全自动实现老周演示的丰胸效果。 工作流下载: openart.ai/workflows/datou/boob-boom/LwU8Semr5IGVFrPBJdQl 自定义节点下载: github.com/ZHO-ZHO-ZHO/ComfyUI-YoloWorld-EfficientSAM github.com/yolain/ComfyUI-Easy-Use 模型下载: huggingface.co/lllyasviel/fooocus_inpaint/tree/main
ComfyUI,最伟大的开放世界编程游戏
Просмотров 2,4 тыс.5 месяцев назад
很开心能参加CLSCN,这是我在ComfyUI领导力峰会上分享的内容。 cute you工作流:openart.ai/workflows/rui400/cute-youcreate-your-cartoon-likeness-using-1-photo/2vwb81MasZTJWU7Zko6L Cargo-bot网页版:i4ds.github.io/CargoBot/?state=1
为什么IP Adapter和InstantID一起用?
Просмотров 1 тыс.5 месяцев назад
InstantID虽然很强,但在一些情况下,还是需要IP Adpater来帮忙。 《her》工作流:openart.ai/workflows/datou/her/A45EfKxrlB8MkFItvsym
在白板Windows上从零安装ComfyUI解决InstantID报错并运行工作流
Просмотров 5 тыс.5 месяцев назад
发了工作流和视频后,收到最多的留言就是怎么安装运行,遇到问题怎么解决,今天我就从白板Windows开始,带大家一步步安装ComfyUI,搞定Ollama和InstantID,走上人生巅峰。 ComfyUI安装教程文字版:openart.ai/workflows/datou/manga-cosplay/SgsFFSuOeFe7Qzs3eHij
一分钟学会漫画转真人 - ComfyUI workflow
Просмотров 7 тыс.5 месяцев назад
这期视频详细讲解了漫画转真人工作里的设计思路和具体实现,更基础的ComfyUI安装和自定义节点安装问题(特别是Ollama和InstantID这两个节点),请看这个视频,在白板Windows上从头安装Comfyui跑通漫画转真人工作流:ruclips.net/video/96GNRCq4wxw/видео.html Manga Cosplay workflow: openart.ai/workflows/datou/manga-cosplay/SgsFFSuOeFe7Qzs3eHij
粘土风格ComfyUI工作流和提示词优化
Просмотров 3,8 тыс.6 месяцев назад
粘土风格ComfyUI工作流和提示词优化
动漫转动图 顺便科普一下提示词工程
Просмотров 7036 месяцев назад
动漫转动图 顺便科普一下提示词工程
用ComfyUI玩照片转动漫 Photo 2 Anime
Просмотров 3,3 тыс.6 месяцев назад
用ComfyUI玩照片转动漫 Photo 2 Anime
用Ollama自动优化Comfyui提示词
Просмотров 4,1 тыс.6 месяцев назад
用Ollama自动优化Comfyui提示词

Комментарии

  • @sct55014
    @sct55014 4 дня назад

    請問大佬,可以用ollama來使用中文提示詞,讓ollama翻譯成英文並優化產生圖檔嗎?

    • @Datou1977
      @Datou1977 3 дня назад

      可以,找个中文英文都懂的模型就能做到,比如qwen 2.5

  • @creativist_ai
    @creativist_ai 11 дней назад

    Which Ollama model should I use? And in which folder should I put it?

    • @Datou1977
      @Datou1977 11 дней назад

      ruclips.net/video/daKKfUReOSo/видео.html

  • @bgbbctec
    @bgbbctec 13 дней назад

    不知道為什麼在1st的時候就畫雜訊圖,一直到後面全部都是雜訊圖

  • @Dodomiaolegemi
    @Dodomiaolegemi 15 дней назад

    非常感谢博主的分享,学习到很多

  • @LinilKomban
    @LinilKomban 20 дней назад

    你能帮我让它工作吗?我只听到噪音。

  • @Nsjsjsnxjj
    @Nsjsjsnxjj 21 день назад

    LayerUtility: Florence2Image2Prompt 'NoneType' object is not callable 老师我运行的时候出现了这样的报错是什么原因

    • @Datou1977
      @Datou1977 21 день назад

      @@Nsjsjsnxjj 后来我用了一个单独的f2自定义节点,没有用layerstyle里面的了

  • @晟叶-p3z
    @晟叶-p3z 22 дня назад

    头哥,你b站账号咋不更新了

    • @Datou1977
      @Datou1977 22 дня назад

      两边发太麻烦了

  • @breakinfogap
    @breakinfogap 22 дня назад

    想问一下minicpm-v应该下哪个模型呀?

  • @jinxing-xv3py
    @jinxing-xv3py 23 дня назад

    感谢up的分享~

  • @李欣波-p5z
    @李欣波-p5z 24 дня назад

    秘密前员工发来贺电,给半个老东家点赞

  • @蒋锋-e1i
    @蒋锋-e1i 26 дней назад

    pulid 加载EVA CLIP一直报错该怎么办呢?

    • @Datou1977
      @Datou1977 26 дней назад

      The EVA CLIP is EVA02-CLIP-L-14-336, should be downloaded automatically (will be located in the huggingface directory). If for some reason the auto-download fails (and you get face_analysis.py, init assert 'detection' in self.models exception), download this EVA-CLIP model manually, put the file to your ComfyUI/models/clipand restart ComfyUI. huggingface.co/QuanSun/EVA-CLIP/blob/main/EVA02_CLIP_L_336_psz14_s6B.pt?download=true

    • @jinxing-xv3py
      @jinxing-xv3py 23 дня назад

      网络问题

    • @Datou1977
      @Datou1977 22 дня назад

      The EVA CLIP is EVA02-CLIP-L-14-336, should be downloaded automatically (will be located in the huggingface directory). If for some reason the auto-download fails (and you get face_analysis.py, init assert 'detection' in self.models exception), download this EVA-CLIP model manually, put the file to your ComfyUI/models/clipand restart ComfyUI. huggingface.co/QuanSun/EVA-CLIP/blob/main/EVA02_CLIP_L_336_psz14_s6B.pt?download=true

  • @gouzhang-t9g
    @gouzhang-t9g 28 дней назад

    已按流程下载好Ollama模型,但是还是没法调用 显示OllamaVision must provide a model

    • @gouzhang-t9g
      @gouzhang-t9g 28 дней назад

      File "D:\ComfyUI\custom_nodes\comfyui-ollama\CompfyuiOllama.py", line 73, in ollama_vision response = client.generate(model=model, prompt=query, images=images_b64, keep_alive=str(keep_alive) + "m") ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI\.venv\Lib\site-packages\ollama\_client.py", line 161, in generate raise RequestError('must provide a model') ollama._types.RequestError: must provide a model

    • @Datou1977
      @Datou1977 27 дней назад

      不要开全局代理

    • @gouzhang-t9g
      @gouzhang-t9g 27 дней назад

      @@Datou1977还是不行,ollama节点那里模型选不到

    • @Datou1977
      @Datou1977 27 дней назад

      @@gouzhang-t9g 关掉代理软件?升级一下ollama节点?

    • @gouzhang-t9g
      @gouzhang-t9g 27 дней назад

      @@Datou1977 找到原因了,加速器先关闭,还要把启动程序里的代理端口代码删掉,ollama客户端还要打开挂后台,已成功生图,谢谢大佬

  • @志宏唐-t7h
    @志宏唐-t7h Месяц назад

    请问下用漫画转真人里的ollama模型:llava-phi3:3.8b-mini-fp16作为视觉反推模型也能得到这样的效果吗?我试了下好像不得行,描述的和示例中从差好远,起码的猪鼻子猪耳朵都没有。

    • @Datou1977
      @Datou1977 Месяц назад

      llava-phi3的能力差一些

    • @志宏唐-t7h
      @志宏唐-t7h Месяц назад

      @@Datou1977 不会吧,那个模型有8个多G呢。而且我很认真仔细的看了城市猎人漫画转真人那期,你还做了多个模型的测试,测试出来llava-phi3:3.8b-mini-fp16是效果最好的。是不是说要根据不同的工作流来选ollama模型呢?并不能一个模型打天下。

    • @Datou1977
      @Datou1977 Месяц назад

      @@志宏唐-t7h 那时候还没有minicpm-v和florence2🤭新模型层出不穷,能力越来越强

  • @p4prateektv534
    @p4prateektv534 Месяц назад

    Hey Thanks for this . Can you tell us comfiui path and model that we need to for ollama vision

    • @Datou1977
      @Datou1977 Месяц назад

      custome node: github.com/stavsap/comfyui-ollama vision model: ollama.com/library/minicpm-v

  • @zhengqin460
    @zhengqin460 Месяц назад

    请问哪里可以找一些无版权的中国风的图片呢?

  • @0FolkDance
    @0FolkDance Месяц назад

    說明裡面的工作流,跟影片中的不一樣

    • @Datou1977
      @Datou1977 Месяц назад

      影片里的测试工作流我放在这里了 cdn.openart.ai/workflow_assets/i0Fw5vnAPfyXOXA92IIF/nWTQ8IEln5l3vK0Jj2y4/3ahg3BQ4_1727582931790.png

  • @chanburns7159
    @chanburns7159 Месяц назад

    声音有点小

  • @志宏唐-t7h
    @志宏唐-t7h Месяц назад

    头哥,我折腾一天了,在yoloworld ESAM节点总报错。好像是生成不出蒙版,能否帮忙看看? Traceback (most recent call last): File "E:\ComfyUI-aki-v1.3\execution.py", line 317, in execute output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) File "E:\ComfyUI-aki-v1.3\execution.py", line 192, in get_output_data return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) File "E:\ComfyUI-aki-v1.3\execution.py", line 169, in _map_node_over_list process_inputs(input_dict, i) File "E:\ComfyUI-aki-v1.3\execution.py", line 158, in process_inputs results.append(getattr(obj, func)(**inputs)) File "E:\ComfyUI-aki-v1.3\custom_nodes\ComfyUI-YoloWorld-EfficientSAM\YOLO_WORLD_EfficientSAM.py", line 149, in yoloworld_esam_image masks_tensor = torch.tensor(combined_mask, dtype=torch.float32) File "E:\ComfyUI-aki-v1.3\custom_nodes\ComfyUI-YoloWorld-EfficientSAM\utils\efficient_sam.py", line 59, in inference_with_boxes mask = inference_with_box(image, box, model, device) File "E:\ComfyUI-aki-v1.3\custom_nodes\ComfyUI-YoloWorld-EfficientSAM\utils\efficient_sam.py", line 28, in inference_with_box predicted_logits, predicted_iou = model( File "E:\ComfyUI-aki-v1.3\python\lib\site-packages\torch n\modules\module.py", line 1553, in _wrapped_call_impl return self._call_impl(*args, **kwargs) File "E:\ComfyUI-aki-v1.3\python\lib\site-packages\torch n\modules\module.py", line 1562, in _call_impl return forward_call(*args, **kwargs) RuntimeError: The following operation failed in the TorchScript interpreter. Traceback of TorchScript (most recent call last): RuntimeError: invalid vector subscript

    • @Datou1977
      @Datou1977 Месяц назад

      可以看一下这个工作流,我用了另外一套节点来生成mask openart.ai/workflows/datou/instant-muscles/OmEGrp7v9AQ1vCq8D5Sv

  • @jinxing-xv3py
    @jinxing-xv3py Месяц назад

    还是JOY CAPTION强😀

  • @志宏唐-t7h
    @志宏唐-t7h Месяц назад

    你好,今天偶然在B站看到你的视频,觉得你说的很好很详细,对新手很友好。但是在跑你的工作流的时候卡在了高清放大那个节点了(视频中潜空间放大那里)自己弄了很久还是没弄好,所以把后台报错的代码贴在这,希望能得到你的帮助。谢谢你了。 HighRes-Fix Script got prompt Failed to validate prompt for output 221: * HighRes-Fix Script 279: - Value not in list: pixel_upscaler: '1x-ITF-SkinDiffDetail-Lite-v1.pth' not in ['2xNomosUni_span_multijpg_ldl.pth', '4xNMKDSuperscale_4xNMKDSuperscale.pt', '4xNomos8kSCHAT-L.pth', '4xUltrasharp_4xUltrasharpV10.pt', 'BSRGAN.pth', 'ESRGAN_4x.pth', 'OmniSR_X2_DIV2K.safetensors', 'OmniSR_X3_DIV2K.safetensors', 'OmniSR_X4_DIV2K.safetensors', 'RealESRGAN_x4plus.pth', 'RealESRGAN_x4plus_anime_6B.pth', 'SwinIR_4x.pth'] - Value not in list: control_net_name: 'ttplanetSDXLControlnet_v20Fp16.safetensors' not in (list of length 41) Output will be ignored Failed to validate prompt for output 41: Output will be ignored Failed to validate prompt for output 168: Output will be ignored Failed to validate prompt for output 241: Output will be ignored Failed to validate prompt for output 229: Output will be ignored Failed to validate prompt for output 175: Output will be ignored Failed to validate prompt for output 253: Output will be ignored Prompt executor has been patched by Job Iterator! Prompt executed in 0.11 seconds

    • @志宏唐-t7h
      @志宏唐-t7h Месяц назад

      找到原因了,是少了一个1x-ITF-SkinDiffDetail-Lite-v1.pth潜空间放大模型。放进合适的文件夹就解决了。谢谢你的分享。

  • @志宏唐-t7h
    @志宏唐-t7h Месяц назад

    你好,今天偶然在B站看到你的视频,觉得你说的很好很详细,对新手很友好。但是在跑你的工作流的时候卡在了高清放大那个节点了(视频中潜空间放大那里)自己弄了很久还是没弄好,所以把后台报错的代码贴在这,希望能得到你的帮助。谢谢你了。 HighRes-Fix Script got prompt Failed to validate prompt for output 221: * HighRes-Fix Script 279: - Value not in list: pixel_upscaler: '1x-ITF-SkinDiffDetail-Lite-v1.pth' not in ['2xNomosUni_span_multijpg_ldl.pth', '4xNMKDSuperscale_4xNMKDSuperscale.pt', '4xNomos8kSCHAT-L.pth', '4xUltrasharp_4xUltrasharpV10.pt', 'BSRGAN.pth', 'ESRGAN_4x.pth', 'OmniSR_X2_DIV2K.safetensors', 'OmniSR_X3_DIV2K.safetensors', 'OmniSR_X4_DIV2K.safetensors', 'RealESRGAN_x4plus.pth', 'RealESRGAN_x4plus_anime_6B.pth', 'SwinIR_4x.pth'] - Value not in list: control_net_name: 'ttplanetSDXLControlnet_v20Fp16.safetensors' not in (list of length 41) Output will be ignored Failed to validate prompt for output 41: Output will be ignored Failed to validate prompt for output 168: Output will be ignored Failed to validate prompt for output 241: Output will be ignored Failed to validate prompt for output 229: Output will be ignored Failed to validate prompt for output 175: Output will be ignored Failed to validate prompt for output 253: Output will be ignored Prompt executor has been patched by Job Iterator! Prompt executed in 0.11 seconds

  • @sichaohou9069
    @sichaohou9069 Месяц назад

    16G 内存能跑起来吗

    • @Datou1977
      @Datou1977 Месяц назад

      ai-toolkit是针对24g显存的,16g显存可以用github.com/cocktailpeanut/fluxgym

  • @Xiao-g3c
    @Xiao-g3c Месяц назад

    老师您好,现在ollama generate的模型不能够复制粘贴了,导致我选择不到ollama模型,报undefined,这个怎么弄呀

    • @Datou1977
      @Datou1977 Месяц назад

      更新comfyui的ollama节点,可以下拉选择模型了,不用往里填了。

    • @Xiao-g3c
      @Xiao-g3c Месяц назад

      @@Datou1977 是的呢,但是我在命令行里下载ollama的模型,但是为什么我在comfyui里找不到哪个模型呢

    • @Datou1977
      @Datou1977 Месяц назад

      @@Xiao-g3c 如果ollama能启动模型,那你可以刷新或者重启一下comfyui

    • @Xiao-g3c
      @Xiao-g3c Месяц назад

      @@Datou1977 不好意思,还是上面的那个问题,他这回包错“127.0.0.1:11434/api/tags " 502 Bad Gateway" ,但是我在网址输入”127.0.0.1:11434/“,它却表示“Ollama is running“,这个问题闹了我好久,希望得倒您的回答

    • @Xiao-g3c
      @Xiao-g3c Месяц назад

      @@Datou1977 不好意思,还是上面的问题,他这回包错:“GET 127.0.0.1:11434/api/tags "HTTP/1.1 502 Bad Gateway" Error handling request“,但是我在浏览器输入”127.0.0.1:11434/“,他却显示:”Ollama is running“,所以我不知道该怎么办了,希望得倒您的解答

  • @conglife
    @conglife Месяц назад

    自动生成提示词txt文件的工作流中,需要用到的大模型要用什么格式?应该下载到哪个文件夹里面?谢谢!

  • @黄勇刚-v2z
    @黄勇刚-v2z Месяц назад

    大佬 问下我训练的是室内风格模型,content_or_style: balanced # content, style, balanced,我看你用的是平衡,室内风格模型要换style吗

    • @Datou1977
      @Datou1977 Месяц назад

      @@黄勇刚-v2z 平衡几乎就是万能的,室内图片也包含家具、软装这些主体内容

    • @CHANGE-l2d
      @CHANGE-l2d 4 дня назад

      @@Datou1977 您好,我想问一下,是否可以使用其他微调过的FLUX大模型来作为底模训练呢?是否只需要更换大模型就可以,其他配套的VAE等模型是否可以适配呢?

    • @Datou1977
      @Datou1977 3 дня назад

      @@CHANGE-l2d 这个训练代码是写死了直接从huggingface上下载模型的,理论上当然可以用其他底模,但是要自己改训练代码载入其他模型。

    • @CHANGE-l2d
      @CHANGE-l2d 18 часов назад

      @@Datou1977 我可不可以把模型下载下来以后,用其他微调过的模型替代FLUX模型文件这样训练呢?其他的东西能适配么?

    • @Datou1977
      @Datou1977 10 часов назад

      @@CHANGE-l2d 不能直接替换,因为它用的是16位精度的模型(23G),社区里微调过的模型通常是8位精度(11G),要改一些代码才行,这块就是我的知识盲区了,我不是程序员。

  • @HeatherLee-h6y
    @HeatherLee-h6y Месяц назад

    我在openart上看到了你的工作流,有没有在国内网站上传过呀?

  • @weblink0912
    @weblink0912 Месяц назад

    感謝大頭,找到另一套. fluxgym 不知好不好用

  • @黄勇刚-v2z
    @黄勇刚-v2z Месяц назад

    他这个训练工具不需要单独传flux底模进去呀

    • @Datou1977
      @Datou1977 Месяц назад

      会自动下载,如果下载失败也可以手动下载放到指定的目录

  • @Richard-hx2fv
    @Richard-hx2fv Месяц назад

    训练门槛这么高吗?24g显存都吃满了

  • @Richard-hx2fv
    @Richard-hx2fv Месяц назад

    博3万岁哈哈哈

  • @杨二蛋-h3t
    @杨二蛋-h3t Месяц назад

    所以,啓動的命令是啥?

  • @xianghaiz480
    @xianghaiz480 Месяц назад

    InstantID面部分析cuda报错紫色怎么解决

  • @Azuma-0702
    @Azuma-0702 Месяц назад

    很棒的分享

  • @好好-n7v
    @好好-n7v Месяц назад

    想问下,这样的结果如果用mj参考提示词来跑图,能不能实现

    • @Datou1977
      @Datou1977 Месяц назад

      mj我不太懂,但这个操作不是在提示词层面,而是用模型直接读图得到一些信息后进行混合

  • @yuzhang9052
    @yuzhang9052 Месяц назад

    大佬,真人转漫画怎么操作呢

    • @Datou1977
      @Datou1977 Месяц назад

      openart.ai/workflows/datou/zanshou-kin-manga-style/WNQ96lyTeApBETOQF7Xt

  • @xnpotato-ko7up
    @xnpotato-ko7up Месяц назад

    大佬 为啥我用它换脸占比比较小的图,就会重绘脸之外的地方= -=

    • @Datou1977
      @Datou1977 Месяц назад

      @@xnpotato-ko7up 这是instantid的能力短板,需要把脸切到合适的比例再操作

  • @xnpotato-ko7up
    @xnpotato-ko7up Месяц назад

    IPAdapter 可以比较好的继承原图像的人物表情,眼神。细节这些元素,所以反推,原始图的质量决定了成图的质量,原始图高清,成图高清,原始图有点胡子,成图胡子会加强,等等

  • @netwing3661
    @netwing3661 Месяц назад

    不错

  • @millerliang9721
    @millerliang9721 Месяц назад

    如果触发词比较常见,怎么判断生成图片的效果是 LoRA 带来的还是本身 Flux 拥有的,是不是需要起一个“另类”一点的触发词

    • @Datou1977
      @Datou1977 Месяц назад

      另起一个,比如把apple变成apple1111

  • @xnpotato-ko7up
    @xnpotato-ko7up Месяц назад

    这个语言模型是咋了= -=我说男人在森林,它说不能色情,我说仓鼠吃东西,它说不能剥削动物= -=

  • @xnpotato-ko7up
    @xnpotato-ko7up Месяц назад

    Ollame不知道用哪个模型名字,默认是空的

    • @Datou1977
      @Datou1977 Месяц назад

      llava-phi3:3.8b-mini-fp16

  • @game-ld4ee
    @game-ld4ee 2 месяца назад

    是不是因为我用c站的link评论就不会留下来?

    • @Datou1977
      @Datou1977 2 месяца назад

      不清楚,c站是得罪油管了吗?

  • @game-ld4ee
    @game-ld4ee 2 месяца назад

    测试,我评论后,刷新进视频,没看到我之前的评论

  • @game-ld4ee
    @game-ld4ee 2 месяца назад

    datou哥,问一下inpaint anything工作流中的checkpoint模型link

    • @Datou1977
      @Datou1977 2 месяца назад

      好像是这个 civitai.com/models/112902?modelVersionId=354657

    • @game-ld4ee
      @game-ld4ee 2 месяца назад

      @@Datou1977 我在使用灵魂画师的工作流的时候有个问题:vae_madebyollin.safetensors可以提供一下下载链接吗

  • @game-ld4ee
    @game-ld4ee 2 месяца назад

    datou哥,我在使用灵魂画师的工作流的时候有个问题:vae_madebyollin.safetensors可以提供一下下载链接吗

    • @game-ld4ee
      @game-ld4ee 2 месяца назад

      datou哥,帮忙给一下vae_madebyollin.safetensors的link

  • @game-ld4ee
    @game-ld4ee 2 месяца назад

    datou哥,在使用灵魂画师流程图的时候有个疑问:vae_madebyollin.safetensors可以提供一下下载链接吗?看起来vae有提示问题

  • @ytyang1012
    @ytyang1012 2 месяца назад

    老师你好,按教学安装到:2.7 创建启动文件,创建启动文件双击无法启动程序,问题如下,烦请老师帮助讲解,感谢! "Start ComfyUI" Traceback (most recent call last): File "D:\ComfyUI\main.py", line 90, in <module> import execution File "D:\ComfyUI\execution.py", line 13, in <module> import nodes File "D:\ComfyUI odes.py", line 21, in <module> import comfy.diffusers_load File "D:\ComfyUI\comfy\diffusers_load.py", line 3, in <module> import comfy.sd File "D:\ComfyUI\comfy\sd.py", line 5, in <module> from comfy import model_management File "D:\ComfyUI\comfy\model_management.py", line 143, in <module> total_vram = get_total_memory(get_torch_device()) / (1024 * 1024) File "D:\ComfyUI\comfy\model_management.py", line 112, in get_torch_device return torch.device(torch.cuda.current_device()) File "D:\ComfyUI\.venv\lib\site-packages\torch\cuda\__init__.py", line 878, in current_device _lazy_init() File "D:\ComfyUI\.venv\lib\site-packages\torch\cuda\__init__.py", line 305, in _lazy_init raise AssertionError("Torch not compiled with CUDA enabled") AssertionError: Torch not compiled with CUDA enabled 请按任意键继续. . .

    • @Datou1977
      @Datou1977 2 месяца назад

      2.5 安装Torch,打开PyTorch官网复制安装命令,这个安装命令经常会更新,推荐安装2.3.0,这个版本可以兼容xformers pytorch.org/ pip install torch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 --index-url download.pytorch.org/whl/cu121 可以顺便安装一下xformers pip install xformers==0.0.26.post1 和flash attention pip install github.com/bdashore3/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.3.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

    • @ytyang1012
      @ytyang1012 2 месяца назад

      老师好,收到,真心感谢,我按您的方法操作;

  • @dazhuang23
    @dazhuang23 2 месяца назад

    老哥,这个flux能用吗?

  • @wjl-q6r
    @wjl-q6r 2 месяца назад

    我是打了杨戬的结局,打败杨戬之后只是释放了孙悟空的意识,好像没说会夺舍吧?杨戬最后说“以肉身之死,换意念永续,但愿你不会辜负他”,这里是指抗争的意识永续吧?我感觉孙悟空在游戏里是真死了,天命人还在;确实夺舍太黑暗了,应该不至于。不过西行取经的意义在这里面确实被大大削弱了。总的来说,没有破坏我心中的孙悟空主要的形象。

    • @wjl-q6r
      @wjl-q6r 2 месяца назад

      火焰山那段我倒是挺疑惑的,和红孩儿怎么要闹到这个地步,铁扇公主献上芭蕉扇弄得我像坏人似的,我只是要六根之一啊;红孩儿的仇人不是我吧,怎么就和我打个你死我活的;还有动画里孙悟空和猪八戒的表现看起来也很恶,我也没太理解。

    • @Datou1977
      @Datou1977 2 месяца назад

      如果不是为了复活孙悟空,孙悟空其实肉身不死也可以传播自己的理念,没看出来死对传播理念的正面意义。如果孙悟空没通过夺舍复活,小猴子忙活完一路,剧情停在了这里,后面要干啥,他是可以有自己的选择,还是必须做孙悟空原本想做的事情?老猴子说孙悟空可以被取代,这一点我从情感上接受不了,齐天大圣这种名号可以传承,类似蜘蛛侠的面具背后可以有不同的英雄,但是让我直接取代孙悟空,我何德何能,我配吗。

    • @Datou1977
      @Datou1977 2 месяца назад

      @@wjl-q6r 剧情的安排是红孩儿需要根器增强自己的能力去复仇,这就和小猴子收集根基复活孙悟空的目的冲突了,两边一抢,可不就打起来了。红孩儿一个人怎么完成复仇计划,这就和黑猴一个人想要颠覆天庭搞个无政府主义是一样的幼稚,这么大的事就自己单干啊。

  • @johnyoung4409
    @johnyoung4409 2 месяца назад

    女菩萨不错