오.. 그래픽카드 사셨군요! 성공 축하드려요~ 요고 참고하셔 lcm + 짧게 잘라서 생성하시면 더 빠르게 생성하실수 있을거에요~ ruclips.net/video/6e0ZQR6DODE/видео.html 그리고 요고 참고하셔서 얼굴 디테일은 따로 살짝돌려보세요~ ruclips.net/video/KqSBVIFZCD0/видео.html
Hi, great video. Just wanted to make a few pointers. I'm not able to get consistent faces with your flow using the detailer. But, the new Detailer for AnimateDiff seems to work great. I also took the model directly from the same ModelSamplingDiscrete node, without duplicating.
Thank you for the feedback! I agree that FaceDetailer can be a bit ambiguous, so I thought to include the Detailer for AnimateDiff workflow as well. I do like the sharpness of FaceDetailer, so I'm planning to prepare a supplementary video with TemporalNet separately. I didn't understand the part about ModelSamplingDiscrete;; If you could give me a hint about what issues might arise from not duplicating it, I would be grateful~
@@nitinburli7814 after using the detailer, if you use reactor or face ID, wouldn't it give you the consistency you're looking for? applying specific LORAs only to the face could still be effective, you know.
@@mi_chi_gwang_2 oh didn't think of adding faceid after the detailer, I was simply following your lead :) Have you uploaded a video following this method?
KSampler를 실행할 때 오류가 발생했습니다. 디바이스 0에 대한 할당이 허용된 메모리를 초과합니다. (메모리 부족) 현재 할당: 11.65GiB 요청됨: 2.32GiB 디바이스 제한: 8.00GiB 여유 공간 (CUDA에 따름) : 0 바이트 PyTorch 제한(사용자 제공 메모리 비율에 의해 설정됨) 로컬로 하는데 6:09초에 이렇게 떠서 방법이 없네요..
그래픽카드가 안좋다기보다는 vram이 낮아서 그런거 같아요~ 3060 12gb가 더 낮은사양이라도 vram이 높아서 느리더라도 생성자체는 문제가 없는.. 그런거죠;; 요즘은 8gb도 대부분은 다 가능한데 유독 힘든게 이 animatediff를 이용한 vid2vid인거 같아요;; 일단 생성 사이즈를 줄여서 생성가능한 크기를 찾아보시는게 좋을거 같아요
Hi, im a total newbie to S.D and your videos help me alot, what if i want to create an animation with a different clothing style and different background from a refrence image but with the same movement as the video, how do i do that pls
Thanks~ content you mentioned is actually quite challenging~ Since almost all of the reference images need to be changed, the denoising should be set high, above 0.8, and controlnet also has to rely entirely on OpenPose~ You might be able to mix in a very low depth. If there is something like LoRA for what you are trying to create, it will help with consistency~ And since it relies solely on OpenPose, it's better to avoid complex movements.
great result i must say but a little bit blurry at the start, did you consider using RAVE for this matter? the workflow here is pretty simple and i think RAVE + animeDIFF would work out well for you
@@neuralninja-ai RAVE gives a pretty detailed outcome with no blur and its a new node added in comfyui, i could send you a workflow if you want to test it out, also did you try to use IPAadapters? they made a new update on that and i think the results are pretty great !.
sorry, I just saw the comment;; I listened to your advice then I tried rave... it was fun! However, I confused that it seems unclear whether there is more to this than just applying the unsampler and grid. The unsampler that inverts noise is amazing! I haven't been able to properly explore the newly added features of ipadapter yet. I just annoying to have to modify the existing workflow;;;; ...I only thought about this and applied it;; ㅋ_ㅋ;;
좋은 말씀 감사해요~ 아마 openpose모델을 다시 선택하시면 될거에요~ 혹시 controlnet openpose모델이 없으시면 huggingface.co/lllyasviel/ControlNet-v1-1/tree/main 이곳에서 받고 models/controlnet에 넣으시면되요~
@@neuralninja-ai 닌자님!! 자꾸 질문드려 죄송해요. 닌자님 영상 보면 컨트롤넷에서 오픈포즈등 모델이 safetensors 로 뜨는데. 제가 받은것은 pth파일이어요. 다른 파일인건가요? 이름을 바꿔야 하는 걸까요? 죄송합니다. 귀찮으시면 답 안해주셔도 돼요 >< 여튼 depth등은 잘 캡처를 하는데.. 오픈포즈는 전혀 이미지가 뜨질 않네요. ㅜㅜ
안녕하세요 닌자님 닌자님 덕분에 조금씩 더 배워가고 있습니다 위 영상대로 따라하여 영상이 예쁘게 잘 나오고 있습니다 가로형으로 실행 할 경우 얼굴이 클로즈업 되는 부분에서는 얼굴부분이 꿀렁거리는데 어느부분을 조정해야 될지 몰라 이거저거 만져보다 또 한수 지도 부탁드려 봅니다~ 감사합니다 : )
영상 감사히 보고 있습니다! 혹시 아래 에러를 봐주실 수 있을까요? 콘트롤넷 3가지 다 적용하고 큐프롬프트 눌렀는데요. 아래처럼 에러가 뜨네요.;;; RuntimeError: mat1 and mat2 shapes cannot be multiplied (1925x2048 and 768x320) Prompt executed in 0.25 seconds
항상 좋은 강좌 감사드려요~ 쉽게 잘 설명해주신 내용으로 잘 따라하고 마지막 단계까지 갔는데요, 실행을 누르면 비디오 메모리 부족이라는 에러메세지가 나타납니다ㅠㅠ 5800X 시퓨에 3080 12gb 그래픽 카드인데 이게 부족하다 생각안하는데 왜 그런걸까요? 이미지 생성이나 다른건 다 괜찮은데 영상으로 하니 이런 에러가ㅠㅠ 참고로 10초짜리 30프레임 영상을 갖고 왔는데 계속 에러가 떠서 사이즈 360x640, 프레임을 15로 하니 또 되더라구요... 혹시 이런 오류 고치는 방법은 없을까요?
@@neuralninja-ai 먼저 답변 정말 감사해요~ 말씀처럼 프리뷰를 삭제하고 다시 큐를 눌러봤지만 같은 반응이었습니다. 혹시나 하고 K샘플러에서 lcm을 euer로 바꿔서 큐를 돌려봤는데 그건 또 진행이 됐었어요. 이미지를 바꾸는건 lcm으로 1초만에 순식간에 진행이 되는데 애니메이션은 왜 이러는지 도통 감이 안잡힙니다ㅠㅠ 로드 로라에서 lcm_lora_sd15.safetensors 이건 문제가 안되는거겠죠? 결과물을 만들고 싶은데 일주일째 문제해결만 하고 있으니 너무 답답하네요ㅜㅜ
안녕하세요 닌자님 질문이 있는데 원래 AnimateDiff를 걸면 기존에 컨트롤넷으로 잡아 났던 이미지가 변경되서 수치 변경해서 새로 잡아야하고 넣은않은 배경이 랜덤적으로 등장하고 해상도 따라서 결과문이 계속 바뀌는게 정상 적인 건가요??? 그리고 댓글 중에 어떤 분 말씀하시는거봤는데 컨트롤 넷에 Strength 값 이거 1 이 최고치고 내려 쓰는게 아니고 10 이 최고치 값이고 내려 쓰는건가요??? End percent 값을 미세 가중치라고 생각하면되고???
@@neuralninja-ai 첫번째가 예를 들어서 디프 를 끄고 결과를 보면 캐릭터가 지팡이를 들고있거나 망토를 입고 있는 상태로 출력되게 설정했는데 애니디프를 적용하면 지팡이없어지고 망토두 그냥 일반 옷으로 표현되고 배경두 검은배경 설정했는데 클럽 조명 같은 배경으로 바뀌고 그래서 컨트롤 넷 수치를 다시 변경하는데 디프 껏을때같은 결과 물이 나오질않습니다. 이게 정상인가 싶어서요...
좋은 강의영상 감사합니다. 그런데 공유해주신 스크립트를 그대로 실행하면 Comfy ui는 구글드라이브에, 나머지는 코랩 디스크에 저장되어서 comfy ui를 사용할때마다 실행환경과 모델들을 다시 다운로드받아야하는 불편함이 있었습니다. 그래서 코드를 조금 수정하여 모두 구글드라이브에 저장하도록 해봤는데 체크포인트를 로드할때부터 에러가뜨네요 ㅠㅠ 드라이브에 모두 받아서 사용하는 방법은 없을까요?
안녕하세요. 강의 너무 잘 보고 있습니다. 어려운 질문… 하나만 드리려구여… 저한테는 어려운 SD 로 만든 실사스타일 인물로 뮤직비디오 댄스 영상을 만들어야합니다ㅠㅠ(애니스타일아니구요) 이것저것 테스트하고잇는대요 ㅠㅠ 잘 안돠네여 실제 사람이 안무를하고 그 영상을 오픈포즈 등 콘트롤넷으로 적용해서 캐릭터가 따라하게하려고합니다. 캐릭터의 이미지를 ipadapter 나 faceid 로 적용해보고 잇는데 인물외의 부분들 옷이나 배경도 프레임마다 바뀌어서 영상변환이 어렵습니다. 그렇다고 인페인트를 써도 부자연스럽고 ㅜ 가장 최적화된 방법이 모일가요?? 안무를 추는 실제 사람의 캐릭터는 전혀 살리지않고 포즈와 옷만 따라해야합니다.. 얼굴과 머리만 바꿔도되는데.. 답답한맘에 이주정도 끙끙앓다가 질뮨 남깁니다 ㅠㅠ
아..아무래도 주제가 animatediff와 lcm이다보니 기초적인건 생략할수밖에 없는거 같아요~ 다만.. 생략한 기초적인부분을 설명하는 영상을 안내할수 있으면 좋을거 같은데.. comfyui 완전 기초를 하나씩 준비하고는 있지만;; 지금 두개 찍어놓고 한달지난거 같은데.. 시간적으로 쉽지 않네요;; 최대한 노력해볼게요 기초부분은 조금씩 추가하고있어요.. ruclips.net/p/PLpZBiVivl063G3pKIydwCSPDhFmVvdEdO 처음부터 영상쪽보다는 이미지 생성부터 하나씩 살펴보시면 이해하시는데 더 좋으실거에요~
EinopsError: Error while processing rearrange-reduction pattern "(b f) d c -> (b d) f c". Input tensor shape: torch.Size([2, 4096, 320]). Additional info: {'f': 16}. Shape mismatch, can't divide axis of length 2 in chunks of 16 Time taken: 25.5 sec. animediff nitghtly버전 실행하면 생성사진 밑에 이런글뜨면서 생성이안되는데..이유를 모르겠습다 1.6 v animediff입니다
올려주신 커스텀 노드 그대로 썻는데 advanced controlnet에서은 에러가 나는데 어떻게 하면 좋을까요? Error occurred when executing KSampler:0 이라고 뜨고 세부내용 보면 Advanced-ControlNet 모듈에서 get_control 및 sliding_get_control 함수와 관련된 문제로 보입니다.
지금 최신버전이 업뎃되면서 사용하신 sam loader가 다른것으로 대체되어야 할것같은데요.SAMModelLoader(segment anything) 같은것으로요. 근데 이걸로 했을때 에러가나서... impact pack에 사용하신 노드가 없습니다 ㅠㅠ 어떻게 하면 좋을까요? 해당 강의 뿐만아니라 seg쓰는 모델에서 다 지금 로더가 바뀌어야할것같아서요.. 뭘로 바꾸면 좋을까요?
외부라 자세히 확인은 못하지만 impact pack SAMLoader는 그대로 있는거 같아요 github.com/ltdrdata/ComfyUI-Impact-Pack/blob/Main/__init__.py 제가 워크플로우에서 impact pack이 아니라 다른 samloader를 이용했었던건지.. 한번 확인해볼게요
@@neuralninja-ai 아 넵넵 그러니까 SAM Loader 노드자체는 존재하지만 output이 ULTRALYTICS_MODEL로 빠져서 Face Detailer의 sma_model_opt와 이어지지 않습니다ㅠㅠ 근데 웃긴게 뉴럴닌자님 노드를 그대로 쓰면 노드가 존재하긴하지만 Face Detailer에서 뻑이 납니다 올바른 seg모델이 아니라고 하면서요. 정리하면, 한번 뉴럴닌자님 모든 노드 업뎃 이후 sam_model_opt쪽에서 sam노드/모델 어떤게 들어가는지(에러없이) 확인 한번 해주시면 감사하겠습니다.
좋은 강의 감사합니다 !! 궁금한 게 있는데요, ksampler 에서 sampler 값을 lcm으로 적용하면 이미지 퀄리티가 너무 떨어지는데, 이게 모델마다 영향을 많이 받는 모델이 있거나 그런가요 ?? 영상에서 사용했던 caramel 모델은 퀄리티가 그렇게 나쁘진 않은데, 제가 사용했던 KenCanMix는 퀄리티가 너무 많이 바뀌어서요
@@neuralninja-ai 워크플로우를 다운로드했는데, 컨트롤넷 모델이 기본 모델이 아닌거에요!! 이 분은 왜 모델을 fp16을 사용하고 있을까?? 깃헙에는 분명 기본 1.1버젼만 있던 것 같았는데!! 막 궁금해서 구글링 좀 하다가 arxiv 에서 관련 글을 보게 됐고,fp16의 사소한 잇점들에 대해서 아주아주 조금 읽어보게 되었습니다. 그리고 32비트용도 존재하더라구요? 물론 일반적으로 추론에서 쓰는 16비트 모델이랑 쓰임새나 메모리 사용량이 다르겠지만, 저는 약간 자료들이라면 무조건 챙겨두는 걸(?) 좋아해서 자료를 찾으러 다시 그렇게 모험을 떠났습죠 헤헿
뉴럴닌자님 오류가 떴습니다 ㅠㅠ Error occurred when executing VHS_LoadVideoPath: "C:\Users\O_GU\Desktop\사업\ai\모델\input\input.mp4" could not be loaded with cv. File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 152, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 82, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 75, in map_node_over_list results.append(getattr(obj, func)(**slice_dict(input_data_all, i))) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-VideoHelperSuite\videohelpersuite\load_video_nodes.py", line 228, in load_video return load_video_cv(**kwargs) ^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-VideoHelperSuite\videohelpersuite\load_video_nodes.py", line 120, in load_video_cv (width, height, target_frame_time) = next(gen) ^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-VideoHelperSuite\videohelpersuite\load_video_nodes.py", line 51, in cv_frame_generator raise ValueError(f"{video} could not be loaded with cv.") CV로 로드할수 없다는데 해결방법이 있을까요?
안녕하세요! 잘 배우고 있는데 막힌 부분이 있어서요 ㅠㅠ 죄송한데 이런 에러가 뜨고 있습니다 Error occurred when executing DWPreprocessor: 그래서 어떻게 해결 해야할지 모르겠어요..ㅠㅠ 혹시 시간 나면 한 번만 알려줄 수 있나요?\ComfyUI_windows_portable\ComfyUI\custom_nodes\comfyui_controlnet_aux\ckpts\hr16/yolox-onnx\yolox_l.torchscript.pt
@@neuralninja-ai 헉.. 답변 너무 고마워요! 말씀하신대로 openpose pose(preprocessor)를 사용했는데 이번에는 이런 에러가 뜨네요... Error occurred when executing KSampler: mat1 and mat2 shapes cannot be multiplied (308x2048 and 768x320) KSampler 쪽이 문제인 것 같아요 ㅠㅠㅠ
가끔 알고리즘에 뜰때만 봤었는데 구독을 안할 수가 없는 수준이시네요ㄷㄷ
멋진 튜토리얼 감사드립니다 선생님!
좋은말씀 감사드려요~ ㅎㅎ
진심이 담긴 강의 감사합니다. 🎉
격려 감사합니다! ㅋ_ㅋ
이렇게 쉽고 간단하게 설명해 주시다니 너무 감사합니다. 역시 뉴럴닌자님이 최고에요 👍 워크플로오까지 공유해 주시다니 너무 감사합니다 😊
감사해요~ ㅎ_ㅎ 재밌는기능들 하나씩 따라하며 같이 comfyui에 익숙해져보아요~
아 힘드네요 4060산 기념으로 한번 해봤는데 드디어 성공했네요❤
아니 근데 720*1280 5초짜리 만드는데
몇시간씩 걸리는건 너무한거 아닌가 싶네요😊
오.. 그래픽카드 사셨군요! 성공 축하드려요~
요고 참고하셔 lcm + 짧게 잘라서 생성하시면 더 빠르게 생성하실수 있을거에요~
ruclips.net/video/6e0ZQR6DODE/видео.html
그리고 요고 참고하셔서 얼굴 디테일은 따로 살짝돌려보세요~
ruclips.net/video/KqSBVIFZCD0/видео.html
이제 SD 써보기 시작한 초보자입니다.
Comfyui 써본적도 없고, 큰 장벽처럼 느껴졌었는데,
Comfyui 들어가서 앞부분 따라해보니까 할 수 있을 것 같네요.
이 영상을 보고나니 의욕이 생깁니다. 감사합니다.
네넹 재밌는 기능들 하나씩 만들어나가면서 컴파이유아이에 익숙해지는걸 목표로하고있어요~
뉴럴님 감사합니다. compy ui는 어려워서 포기하려다가 뉴럴님꺼 보고 다시 시작하려 합니다. 다운받은 모델을 어디에 넣어야 되는지도 알려주셔서도 감동입니다
models 밑에 종류에따라 넣으시면되요~ checkpoint, loras, animatediff_models
@@neuralninja-ai 저는 콘트롤넷 파일들을 어디에 넣는지 아직도 헷갈려 하고 있습니다 ㅠㅠ
헉 마찬가지로 models밑에 controlnet에 넣으시면되요~
멋진 강의 감사해요:)
좋은 댓글 감사합니다!
환상적인 강의입니다
칭찬 감사드려요!
Hi, great video. Just wanted to make a few pointers. I'm not able to get consistent faces with your flow using the detailer. But, the new Detailer for AnimateDiff seems to work great. I also took the model directly from the same ModelSamplingDiscrete node, without duplicating.
Thank you for the feedback! I agree that FaceDetailer can be a bit ambiguous, so I thought to include the Detailer for AnimateDiff workflow as well. I do like the sharpness of FaceDetailer, so I'm planning to prepare a supplementary video with TemporalNet separately. I didn't understand the part about ModelSamplingDiscrete;; If you could give me a hint about what issues might arise from not duplicating it, I would be grateful~
@@neuralninja-ai But using just face detailer does not give consistent face for video, it worked for you yes but I couldn't make it work.
@@nitinburli7814 after using the detailer, if you use reactor or face ID, wouldn't it give you the consistency you're looking for? applying specific LORAs only to the face could still be effective, you know.
@@mi_chi_gwang_2 oh didn't think of adding faceid after the detailer, I was simply following your lead :) Have you uploaded a video following this method?
저 정말 댓글 잘 안쓰는데 뉴럴닌자님 덕분에 comfyui 잘 배우고 있습니다 너무 감사해요!
도움이 되셨다니 저도 좋네영~
와 감사합니다! 내일 해봐야겠어요
저도 감사해요~
뉴럴닌자님 만세!
가..감사합니다!!
언제나 최고의 영상입니다.! 항상 감사합니다@@@@!!!!^-^
항상 시청해주셔서 감사해요~ ㅎㅎ
KSampler를 실행할 때 오류가 발생했습니다.
디바이스 0에 대한 할당이 허용된 메모리를 초과합니다. (메모리 부족)
현재 할당: 11.65GiB
요청됨: 2.32GiB
디바이스 제한: 8.00GiB
여유 공간 (CUDA에 따름) : 0 바이트
PyTorch 제한(사용자 제공 메모리 비율에 의해 설정됨)
로컬로 하는데 6:09초에 이렇게 떠서 방법이 없네요..
혹시나 해서 0.5초로 줄여서 하니 되네요.. rtx3070인디 이거 글카가 안좋아서 다음단계도 힘든건가요? ㅠㅠ
그래픽카드가 안좋다기보다는 vram이 낮아서 그런거 같아요~ 3060 12gb가 더 낮은사양이라도 vram이 높아서 느리더라도 생성자체는 문제가 없는.. 그런거죠;; 요즘은 8gb도 대부분은 다 가능한데 유독 힘든게 이 animatediff를 이용한 vid2vid인거 같아요;; 일단 생성 사이즈를 줄여서 생성가능한 크기를 찾아보시는게 좋을거 같아요
@@neuralninja-ai 흠 그럼 코랩을 쓰면 좀 제약없이 사용하는편인가요? 선생님들 작업물 정도로 저도 뽑고 싶은데 코랩 요금제 어떤거 쓰시는지 궁금합니다
코랩프로는 3060 12gb급이라고 보시면되요~ 사양도 사양이지만.. 영상쪽은 무조건 로컬이 편해요.. 자기전에 걸어둘수 있기때문이죠;; 제가 올린 대부분의 영상은 3080ti에서 뽑았고 최근엔 4090으로 업그레이드 했어요~
선생님 이번 영상도 잘봤습니다. 😂
항상 시청해주셔서 감사합니다!
다시 한번 천천히 따라하면서 해봤어요~ 역시 최고의 튜토리얼입니다!! 궁금한게 하나 있어요~ 이렇게 생성할때 영상 길이는 어느정도까지 가능한거에요?
특별히 제한은 없지만 100프레임 내외로 씬별로 라던지 재작업할수 있는 단위정도로 어느정도 끊어서 작업하는게 편하더라구요~
@@neuralninja-aiLCM을 적용하면 색감이 뿌옇게 탁해지는건 왜그런걸까요?
스텝수, cfg에따라 크게 차이나는거 같아요~ lcm이 약간 체크포인트를 타기도 하는거 같구요~
@@neuralninja-ai 네~ 그 부분을 수정해보면서 해봐야겠네요~~😀 답장 감사합니다~
@@neuralninja-ai닌자님~ 혹시 어떤 모델사용허시는지 알수있을까요?😂 모델, cfg, 스텝 바꿔가면서 테스트 중인데 자꾸 뭉개져서요~
Hi, im a total newbie to S.D and your videos help me alot, what if i want to create an animation with a different clothing style and different background from a refrence image but with the same movement as the video, how do i do that pls
Thanks~ content you mentioned is actually quite challenging~ Since almost all of the reference images need to be changed, the denoising should be set high, above 0.8, and controlnet also has to rely entirely on OpenPose~ You might be able to mix in a very low depth. If there is something like LoRA for what you are trying to create, it will help with consistency~ And since it relies solely on OpenPose, it's better to avoid complex movements.
@@neuralninja-ai could you do a tutorial for that pls, it would be so helpful🙏 pls
in description, workflow added~ check it out~ (workflow5.json)
@@neuralninja-ai hi, I uploaded the workflow but I can't find the node to upload the reference image I want to use except the load video node only 😢
ai 목소리가 귀엽네요ㅋㅋ 감사합니다.
별말씀을요! ㅎㅎ
great result i must say but a little bit blurry at the start, did you consider using RAVE for this matter? the workflow here is pretty simple and i think RAVE + animeDIFF would work out well for you
Oh.. RAVE looks fun~ Thank you, I’ll try making it too~
@@neuralninja-ai RAVE gives a pretty detailed outcome with no blur and its a new node added in comfyui, i could send you a workflow if you want to test it out, also did you try to use IPAadapters? they made a new update on that and i think the results are pretty great !.
sorry, I just saw the comment;; I listened to your advice then I tried rave... it was fun! However, I confused that it seems unclear whether there is more to this than just applying the unsampler and grid. The unsampler that inverts noise is amazing! I haven't been able to properly explore the newly added features of ipadapter yet. I just annoying to have to modify the existing workflow;;;; ...I only thought about this and applied it;; ㅋ_ㅋ;;
ValueError: Without a context window, AnimateDiff model temporaldiff-v1-animatediff.ckpt has upper limit of 24 frames 뉴럴닌자님 animatediff는 24프레임이 한계인가요?
context options을 추가하지 않으면 24프레임이 한계에요~ 추가하면 길이제한 없어영~ 아마 추가하는거 깜빡하신거 같아요~
아...감사합니다...영상안보고 구글링 하고 있었네요
@@neuralninja-ai
아.. 초보라 그런지.. 잘따라가다가 Loadvideo가 없네요. 이거저거 설치 했는데.. 안보여요 ㅜ 뉴럴닌자님. 제가 아는 어떤 회사에 Ai관련해서 추천드렸어요 :)-추가- 다 해결하고 openpose 에서 또 막혔네요.. 이것 참.. ㅎㅎㅎ :) 또 추가.. 제공해주신 워크플로 저장파일을 불러서 미싱노드를 인스털 하구 불러도 에러가 나네요. 콜랩과 실행에 차이가 있나봐요. >
좋은 말씀 감사해요~ 아마 openpose모델을 다시 선택하시면 될거에요~ 혹시 controlnet openpose모델이 없으시면 huggingface.co/lllyasviel/ControlNet-v1-1/tree/main 이곳에서 받고 models/controlnet에 넣으시면되요~
@@neuralninja-ai너무나 친절한 답변 감사해요. 세상에 이런 분이 ㅜㅜ. 정말 덕분에 많은걸 배워갑니다. 존경합니다.
@@neuralninja-ai 닌자님!! 자꾸 질문드려 죄송해요. 닌자님 영상 보면 컨트롤넷에서 오픈포즈등 모델이 safetensors 로 뜨는데. 제가 받은것은 pth파일이어요. 다른 파일인건가요? 이름을 바꿔야 하는 걸까요? 죄송합니다. 귀찮으시면 답 안해주셔도 돼요 >< 여튼 depth등은 잘 캡처를 하는데.. 오픈포즈는 전혀 이미지가 뜨질 않네요. ㅜㅜ
KSampler 디노이즈를 0으로 하면 돌아가는데 0.1만 올려도 에러뜨네요 어떻게 해야될까요?
헉 무슨 에러일까요; 에러 메세지를 확인해봐야할거같아요~ 베이스모델버전이나 이미지 크기등이 영향이 있을수 있을거같아요~
@@neuralninja-ai Error occurred when executing KSampler:
'TimestepEmbedSequential' object has no attribute '1'
File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 151, in recursive_execute
output_data, output_ui = get_output_data(obj, input_data_all)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 81, in get_output_data
return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 74, in map_node_over_list
results.append(getattr(obj, func)(**slice_dict(input_data_all, i)))
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI
odes.py", line 1344, in sample
return common_ksampler(model, seed, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, denoise=denoise)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI
odes.py", line 1314, in common_ksampler
samples = comfy.sample.sample(model, noise, steps, cfg, sampler_name, scheduler, positive, negative, latent_image,
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Impact-Pack\modules\impact\sample_error_enhancer.py", line 9, in informative_sample
return original_sample(*args, **kwargs) # This code helps interpret error messages that occur within exceptions but does not have any impact on other operations.
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-AnimateDiff-Evolved\animatediff\sampling.py", line 419, in motion_sample
latents = orig_comfy_sample(model, noise, *args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Advanced-ControlNet\adv_control\control_reference.py", line 47, in refcn_sample
return orig_comfy_sample(model, *args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Advanced-ControlNet\adv_control\utils.py", line 111, in uncond_multiplier_check_cn_sample
return orig_comfy_sample(model, *args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sample.py", line 37, in sample
samples = sampler.sample(noise, positive, negative, cfg=cfg, latent_image=latent_image, start_step=start_step, last_step=last_step, force_full_denoise=force_full_denoise, denoise_mask=noise_mask, sigmas=sigmas, callback=callback, disable_pbar=disable_pbar, seed=seed)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 761, in sample
return sample(self.model, noise, positive, negative, cfg, self.device, sampler, sigmas, self.model_options, latent_image=latent_image, denoise_mask=denoise_mask, callback=callback, disable_pbar=disable_pbar, seed=seed)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 663, in sample
return cfg_guider.sample(noise, latent_image, sampler, sigmas, denoise_mask, callback, disable_pbar, seed)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 650, in sample
output = self.inner_sample(noise, latent_image, device, sampler, sigmas, denoise_mask, callback, disable_pbar, seed)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 625, in inner_sample
self.conds = process_conds(self.inner_model, noise, self.conds, device, latent_image, denoise_mask, seed)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 587, in process_conds
pre_run_control(model, conds[k])
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 439, in pre_run_control
x['control'].pre_run(model, percent_to_timestep_function)
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Advanced-ControlNet\adv_control\utils.py", line 662, in pre_run_inject
self.base.pre_run(model, percent_to_timestep_function)
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\controlnet.py", line 275, in pre_run
super().pre_run(model, percent_to_timestep_function)
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\controlnet.py", line 200, in pre_run
super().pre_run(model, percent_to_timestep_function)
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\controlnet.py", line 59, in pre_run
self.previous_controlnet.pre_run(model, percent_to_timestep_function)
File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Advanced-ControlNet\adv_control\utils.py", line 662, in pre_run_inject
self.base.pre_run(model, percent_to_timestep_function)
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\controlnet.py", line 306, in pre_run
comfy.utils.set_attr_param(self.control_model, k, self.control_weights[k].to(dtype).to(comfy.model_management.get_torch_device()))
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\utils.py", line 302, in set_attr_param
return set_attr(obj, attr, torch.nn.Parameter(value, requires_grad=False))
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\ComfyUI\comfy\utils.py", line 296, in set_attr
obj = getattr(obj, name)
^^^^^^^^^^^^^^^^^^
File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch
n\modules\module.py", line 1709, in __getattr__
raise AttributeError(f"'{type(self).__name__}' object has no attribute '{name}'")
헉;; 첨보는 오류같아요.. 이럴땐 다시 new_ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z 압축풀고 새롭게 실행하는게 최고죠~;;
@@neuralninja-ai 아... 메인 모델을 SDXL을 써서 꼬였었네요 해결이 완전히 된건 아니지만 도움 받게 되어 감사합니다
난이도 쩔어요..머리털 다 빠지겠어요.ㅜㅜ
사진부터 차근히 설명했으면 좋았을거 같은데.. 다시보면 좀 아쉽긴하네요;;
@@neuralninja-ai 아, 답글 감사합니다.^^, 반복해서 보고, 열심히하면 따라 갈 수 있겠죠.
그런데, 조만간 소라가 나와도 컴피유아이가 가지고 있는 장점은 대체하기 힘들것이라고 생각되는데요, 고수님 생각은 어떠신지 솔직한 고견 부탁드립니다.^^
소라는 영상생성에 최적화된 툴이고 컴파이유아이는 종합툴이니 직접적인 비교는 힘들거같아요~ 무엇보다 소라는 개인적으로 돌릴수도 없을거니까.. 유료서비스인 런웨이쪽이랑 비교할수 있을거같아요~
뉴럴닌자님 9초짜리 쇼츠 영상으로 하려니 out of memory가 나서 그런데 영상 길이를 줄여야 하나요?
out of memory면 크기 영항이 더 클 수 있을거 같아요~ 크기를 줄여보시는게 더 도움이 될수 있을거 같아요~
@@neuralninja-ai새벽에도 감사합니다
Pls can you put english subtitles, i dont understand the tutorial very well plss😢😓😫
Thanks! I'll try!
@@neuralninja-ai thank you
안녕하세요 닌자님
닌자님 덕분에 조금씩 더 배워가고 있습니다
위 영상대로 따라하여 영상이 예쁘게 잘 나오고 있습니다
가로형으로 실행 할 경우 얼굴이 클로즈업 되는 부분에서는
얼굴부분이 꿀렁거리는데 어느부분을 조정해야 될지 몰라
이거저거 만져보다 또 한수 지도 부탁드려 봅니다~
감사합니다 : )
영상에서는 facedetailer를 사용했는데 사실 영상변환에서는 깔끔하진않아요~
설명서 워크플로우에있는 심플디텍터를 이용하는게 더 깔끔해요~
근데 클로즈업은 다른 문제일수도 있어요
클로즈업은 여러모로 쉽지않죠;;
sd15기준으로 얼굴영역이 300px ~ 768px 사이에 유지하게하는게 베스트에요~ 작으면 뭉게지고 크면 얼굴로 인식하지 못해서 망가지기도해요
그부분만 따로 편집해서 cfg와 denoise를 낮춰서 스타일변환정도로 무마(?)시키는게 젤 무난한거 같아요;;
ruclips.net/video/gVrRyJA6534/видео.html 영상보시면 중간에 클로즈업만 반실사처럼 나온게 그런식이에요;; sdxl로 변환하는것도 방법일거 같아요;;
@@neuralninja-ai 빠른 답변 감사드립니다^^ 심플 디렉터로 사용해보고 말씀하신 부분도 체크해서 다시 만들어보겠습니다 감사합니다 : )
@@neuralninja-ai : D 감사합니다 영상들 다시 다 정독하면서 따라해보겠습니다 감사합니다^^
Hi, sorry to bother you again. Just wanted to know, what is the purpose of the ModelSamplingDiscrete node?
I don't know the details either~ official comfyui lcm example mentioned that it helps with the results, so I'm using it too.
추가 질문드립니다! 돌리는데에는 성공했는데 preview에서 controlnet이미지들만 보이면 어떻게하나요? 스켈레톤들만 춤추고 있습니다.. denoise문제는 아닌것같은데..
controlnet에 달려있는 preview를 말씀하는거면 거긴 각각 preprocesor이미지들을 확인하려고 달아놓은거라 그런식으로 표현되는게 맞아요~ 최종 영상은 vae decode 옆에 video combine에 나와요~
아뇨아뇨 video combine에서 앞서만든 controlnet이미지들만 합쳐져서나옵니다
헉;; 그말씀이었군요 아마 controlnet model 이 안맞는게 선택된거 같아요~ openpose 에 다른 모델이 선택되었는지 체크해보세요~
안녕하세요 이번에 처음으로 이 채널 보면서 이것저것 따라해보며 배우고 있는데요. 중간에 노드 불러올때 loadvideopath 가 저에겐 없는데, 별도로 뭘 깔아야하는걸까요?
VideoHelperSuite 커스텀 노드요~
@@neuralninja-ai 감사합니다 링크는 찾았는데, 어떻게 설치하는지 잘 모르겠네요 ㅠㅠ 혹시 관련 영상도 올려주신게 있으신지요?
올려주신 거 보고 방법 찾았네요 ㅜㅜㅜ 감사합니다
헛;; 이제봤네요 잘 해결되었다니 다행이네요!
video reference IPAdapter - undefined
Keyframe IPAdapter - undefined
이 두개가 빨간상자로 에러로 뜹니다. 해결 방법이 있을까요?
어떤 워크플로우이실까요~ 여기엔 ipadapter가 없어보여서요;;
2024-03-26 전후로 ipadapter 가 많이 바껴서 이전에 생성한 워크플로우는 빨각색으로 표시될수 있어요~
영상 감사히 보고 있습니다! 혹시 아래 에러를 봐주실 수 있을까요? 콘트롤넷 3가지 다 적용하고 큐프롬프트 눌렀는데요. 아래처럼 에러가 뜨네요.;;;
RuntimeError: mat1 and mat2 shapes cannot be multiplied (1925x2048 and 768x320)
Prompt executed in 0.25 seconds
mat1 mat2 어쩌구 나오는건 base model문제일거에요~ 체크포인트는 sdxl인데 컨트롤넷은 sd1.5용을 사용했거나 이런거요~
@@neuralninja-ai 감사합니다! 확인해보겠습니다!
안녕하세요 질문이 몇가지 있습니다. Comfy Ui 설치 버전과 바로 실행 버전의 차이를모르겠습니다. 둘다 할때마다 모두 설치부터 다시 실헹해야 하는거 맞죠? 그리고 또 하나 질문은 어느날은 되고 어느날은 안됩니다. 이건 왜 이럴까요?
설치해야하는거 맞아요~ 설치버전은 구글드라이브에 설치해서 구글드라이브에 파일들이 남아있어요. 안되실때는 에러메세지라던가 확인을 해봐야 알 수 있을거 같아요
항상 좋은 강좌 감사드려요~ 쉽게 잘 설명해주신 내용으로 잘 따라하고 마지막 단계까지 갔는데요, 실행을 누르면 비디오 메모리 부족이라는 에러메세지가 나타납니다ㅠㅠ 5800X 시퓨에 3080 12gb 그래픽 카드인데 이게 부족하다 생각안하는데 왜 그런걸까요? 이미지 생성이나 다른건 다 괜찮은데 영상으로 하니 이런 에러가ㅠㅠ 참고로 10초짜리 30프레임 영상을 갖고 왔는데 계속 에러가 떠서 사이즈 360x640, 프레임을 15로 하니 또 되더라구요... 혹시 이런 오류 고치는 방법은 없을까요?
헛 1280픽셀에 10초정도면 괜찮을거 같은데 그게 터지네요; 설명하려고 프리뷰를 다 넣었는데 100장이상시에는 이게 문제가 될수도 있을거같아요 프리뷰들을 전부 제거해보세요~
@@neuralninja-ai 먼저 답변 정말 감사해요~ 말씀처럼 프리뷰를 삭제하고 다시 큐를 눌러봤지만 같은 반응이었습니다. 혹시나 하고 K샘플러에서 lcm을 euer로 바꿔서 큐를 돌려봤는데 그건 또 진행이 됐었어요. 이미지를 바꾸는건 lcm으로 1초만에 순식간에 진행이 되는데 애니메이션은 왜 이러는지 도통 감이 안잡힙니다ㅠㅠ
로드 로라에서 lcm_lora_sd15.safetensors 이건 문제가 안되는거겠죠? 결과물을 만들고 싶은데 일주일째 문제해결만 하고 있으니 너무 답답하네요ㅜㅜ
animatediff가 vram을 많이 먹긴하는거 같더라구요 컨트롤넷과 로라도 vram을 먹긴해요~ 우선은 결과물이 안나오면 답답하니깐 적당한 길이(이미지수)로 테스트를 해보세영~ 영상을 이미지들로 변환하고 loadimagespath노드로 테스트해보시는게 편하실거에요. 그리고 적당한길이를 정해서 변환하고 영상들을 이어붙이시는것도 괜찮은거 같더라구요
좋은 영상 감사드립니다!!! 마지막으로 영상 추출은 어떻게 하는건지 궁금합니다 😭😭
원본영상말씀하시는걸까요~ youtube download 사이트에서 다운받거나 하고 있어요~
안녕하세요 닌자님 질문이 있는데 원래 AnimateDiff를 걸면 기존에 컨트롤넷으로 잡아 났던 이미지가 변경되서 수치 변경해서 새로 잡아야하고 넣은않은 배경이 랜덤적으로 등장하고 해상도 따라서 결과문이 계속 바뀌는게 정상 적인 건가요???
그리고 댓글 중에 어떤 분 말씀하시는거봤는데 컨트롤 넷에 Strength 값 이거 1 이 최고치고 내려 쓰는게 아니고 10 이 최고치 값이고 내려 쓰는건가요???
End percent 값을 미세 가중치라고 생각하면되고???
첫번째 말씀은 무슨말씀인지 모르겠어요~
해상도에따라 많이 바뀔수있어요
이미지 i2i할때 적용되는건 어차피 animatediff에서도 마찬가지죠~
1이 기본이에요~ 맥스는 정하기 나름일거같아요 a1111에서는 ui상 2가 max였어요 가중치라는게 곱셈연산이라 0.5같이 기본보다 약하게는 예상이 되는데 1.3같이 기본보다 강하게는 잘 예상이 안되죠; 프롬프트 가중치랑 비슷하게 생각하시면될거같아요. 엔드 퍼센트는 이미지생성 전체 스텝중에 언제까지 컨넷을 반영할지 결정하는 값이에요 0.9면 마지막 10%스텝은 컨넷없이 sd돠는거졍
@@neuralninja-ai
첫번째가 예를 들어서 디프 를 끄고 결과를 보면 캐릭터가 지팡이를 들고있거나 망토를 입고 있는 상태로 출력되게 설정했는데 애니디프를 적용하면 지팡이없어지고 망토두 그냥 일반 옷으로 표현되고 배경두 검은배경 설정했는데 클럽 조명 같은 배경으로 바뀌고 그래서 컨트롤 넷 수치를 다시 변경하는데 디프 껏을때같은 결과 물이 나오질않습니다. 이게 정상인가 싶어서요...
넹 아무래도 animatediff가 sd에 영향을 주게되다보니 이미지를 생성했을때와는 다르게 생성되요~ denoise 수치가 약하게 적용되는거도 그렇구요~
확인을 위해서는 최소한의 프레임 10프레임정도로 생성을 해보는편이 좋은거 같아요
@@neuralninja-ai
답변 감사합니다. 시도많이 하면서 찾는게 답인거같아요.
좋은 강의 잘 보고있습니다! 한가지 질문ㅠㅠ 이 워크플로우대로 하면 최종 결과물이 원본 영상의 옷을 그대로 복제 하는것 같던데 프롬프트에 넣은 의상대로 생성되게 하려면 어떻게 해야 될까요?ㅠㅠ
오픈포즈외에 컨트롤넷을 줄이면서 디노이징을 높히면 말씀하신데로 프롬프트와 로라 영향을 강하게 줄수 있어요~ 옷뿐만아니라 전체적으로 영향을 줄거에요~
@@neuralninja-ai 감사합니다!😁
좋은 강의영상 감사합니다. 그런데 공유해주신 스크립트를 그대로 실행하면 Comfy ui는 구글드라이브에, 나머지는 코랩 디스크에 저장되어서 comfy ui를 사용할때마다 실행환경과 모델들을 다시 다운로드받아야하는 불편함이 있었습니다. 그래서 코드를 조금 수정하여 모두 구글드라이브에 저장하도록 해봤는데 체크포인트를 로드할때부터 에러가뜨네요 ㅠㅠ
드라이브에 모두 받아서 사용하는 방법은 없을까요?
extra_model_paths.yaml 이 파일을 수정하시면 될거같아요~ 제 사이트에 있는 스크립트는 대부분 코랩경로로 전부 설정되어있어요~
@@neuralninja-ai 감사합니다! 좋은밤되십쇼 ㅎㅎ
뉴럴닌자님 닌자닙 코랩실행의 animatediff-cli 가 실행될때 모든 checkpoint가마지막부근 세션오류뜬다면서 재시작해야한다고나와요..
헛 확인해볼게요~
한가지 궁금한 점이 있습니다~
Stable diffusion 만 사용해봐서 .... Comfyui는 잘 몰라 그러는데...
둘이 궁극적으로 UI만 다르고 같은거라고 생각하면 되나요? ㅠ
좋은 영상 감사합니다!
넹 맞아요~ sd-webui를 레고블럭 처럼 기능별로 잘게 쪼개놓은거라고 보시면되요~
@@neuralninja-ai 아하~ 감사합니다!
안녕하세요. 강의 너무 잘 보고 있습니다.
어려운 질문… 하나만 드리려구여… 저한테는 어려운
SD 로 만든 실사스타일 인물로 뮤직비디오 댄스 영상을 만들어야합니다ㅠㅠ(애니스타일아니구요)
이것저것 테스트하고잇는대요 ㅠㅠ 잘 안돠네여
실제 사람이 안무를하고 그 영상을 오픈포즈 등 콘트롤넷으로 적용해서 캐릭터가 따라하게하려고합니다.
캐릭터의 이미지를 ipadapter 나 faceid 로 적용해보고 잇는데 인물외의 부분들 옷이나 배경도 프레임마다 바뀌어서 영상변환이 어렵습니다.
그렇다고 인페인트를 써도 부자연스럽고 ㅜ
가장 최적화된 방법이 모일가요??
안무를 추는 실제 사람의 캐릭터는 전혀 살리지않고 포즈와 옷만 따라해야합니다.. 얼굴과 머리만 바꿔도되는데..
답답한맘에 이주정도 끙끙앓다가 질뮨 남깁니다 ㅠㅠ
뭔가 엄청난걸 하고 계시는군요;; 일단 이 예제 워크플로우중에 simple detector for animatediff 이용한거에서 전체 변환은 빼고 바로 simple detector로 연결시켜서 얼굴정도는 쉽게 변경하실수 있으실거에요~ face대신 person을 선택하면 몸까지는 선택해서 변경할수는 있겠지만.. 결과물 퀄리티는 트라이 해보셔야알수있을거 같아요~
It really works, but problem with long video: the longer video, the more ram is required. can you suggest any method for long video generation?
ruclips.net/video/6e0ZQR6DODE/видео.html this is a way to bypass RAM shortage by dividing it into multiple videos.
혹시 when executing KSampler:
'ModuleList' object has no attribute '1' 이런 오류가 뜨는데 어떤게 문제인지 알려주실수 있나요?
뭔가 잘못 구성되었을때 나올수 있는 에러라 특정하긴 어렵지만..
여기서 잘못구성될게.. sdxl 이랑 sd15 모델이 혼용되었는지 체크해보세요~
sd15체크포인트에 sdxl 컨트롤넷모델을 사용했다거나 하는거요~
@@neuralninja-ai 아 둘이 혼용으로 못 쓰나요?
넹 체크포인트 베이스모델 버전에 맞춰줘야해요
@@neuralninja-ai 감사합니다
로컬로도 연습중인데 제 화면은 옛날버전인가보네요 지금은 마인드맵처럼 구조가 변경된건가요? 아니면 로컬은 못하는건가요?
아하.. comfyui 라고 다른 툴일거에요~ sd-webui보다 좀 더 가벼운 장점이 있어요~ github.com/comfyanonymous/ComfyUI 참고해보세영
설치부터 천천히 모델이나 그런것들도 다운받는것도 찍어서 올려주시면 안될까요...? 그냥 처음 시작 한다고 생각하시고 찍어주시면 감사하겠습니다 부분 부분 빠진내용이 있어서 따라하기 힘들네요 ㅠㅠㅠㅠㅠ
아..아무래도 주제가 animatediff와 lcm이다보니 기초적인건 생략할수밖에 없는거 같아요~
다만.. 생략한 기초적인부분을 설명하는 영상을 안내할수 있으면 좋을거 같은데..
comfyui 완전 기초를 하나씩 준비하고는 있지만;; 지금 두개 찍어놓고 한달지난거 같은데.. 시간적으로 쉽지 않네요;; 최대한 노력해볼게요
기초부분은 조금씩 추가하고있어요..
ruclips.net/p/PLpZBiVivl063G3pKIydwCSPDhFmVvdEdO
처음부터 영상쪽보다는 이미지 생성부터 하나씩 살펴보시면 이해하시는데 더 좋으실거에요~
무리한 부탁도 들어주셔서 감사합니다!
time travel promp영상재생시에 영상이아닌 사진수십장이 생기면뭐가문제인지알수있을까요..
constrain image "for video" 를 확인해주세영~ video아닌 노드면 이미지들이 묶음이 아니라 개별로 실행되요
실행 중에
Error occurred when executing ControlNetLoaderAdvanced:
'ControlNet' object has no attribute 'latent_format'라고 뜨는데 어느 부분이 잘못 된 걸까요?
가능하면 ComfyUI를 최신 버전으로 업데이트하고, 불가능한 경우 Advanced-ControlNet을 v1.1.0 이전 버전으로 다운그레이드하세요
라고 하네요! comfyui가 sd3 대응하다 생긴 오류라는거 같아요
안녕하세요. 영상을 보고 따라하고 있는데요. 생성된 결과에서 로라 나 주어진 택스트가 적용안되고 입력한 영상이 조금 변해서 나오는데요. 어디가 문제일가요?
로라적용은 설명서에 있는 마지막 워크플로우를 참고해보세영~ 적용하려는 프롬프트나 로라가 있다면 우선은 animatediff없이 이미지 한장으로만 테스트해보시는게 좋을거 같아요
또 질문하게 되네요. 올려주신 컨트롤넷 3개 사용하는 스크립트 그대로 영상 변환 해봤는데 제 경우에는 배경에 벽돌이나 모자이크 패턴같은게 엄청 정신없이 나오더라구요.. 이런경우엔 어떻게하면 좋나요?
꼭 세개 다 이용하실 필요는 없어요~ 라인아트만 빠져도 그런 현상이 좀 줄어들을거 같긴해요~ 강도 조절을 하시던가 뎊스모델만 이용하셔도 되요~ rembg같은걸로 배경과 캐릭터를 따로 변환하는것도 생각해볼수 있을거 같아요~
@@neuralninja-ai 답변 감사합니다. 다 시도는 해봤는데 결국 lcm 사용 안하고 dpmpp랑 kerras로 하는게 제일 나은것같았어요 좀더 연구해보겠습니다 ㅎㅎ
넹~ lcm은 모델도 많이 타고 사용이 제한적인거 같긴해요~ 하지만 빠른속도가! 모든걸 만회하는!! 얼굴 디테일만 lcm 없이 돌리는것도 좋은 속임수같아요~
닌자님 영어 쓰실때도 세미콜론이랑 물결 표시 쓰시는거 개웃기네 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
물결과 세미콘론없이는 글을쓸수 없는;;
EinopsError: Error while processing rearrange-reduction pattern "(b f) d c -> (b d) f c". Input tensor shape: torch.Size([2, 4096, 320]). Additional info: {'f': 16}. Shape mismatch, can't divide axis of length 2 in chunks of 16
Time taken: 25.5 sec.
animediff nitghtly버전 실행하면 생성사진 밑에 이런글뜨면서 생성이안되는데..이유를 모르겠습다 1.6 v animediff입니다
조금 자세히 알려주시면 저도 확인해볼게요~
webui v1.6 에서 animatediff 생성할때 오류난다는거 맞을까요?
sd-webui-animatediff 는 webui 1.8 이상 지원으로 변경되었더라구요 요문제일수도 있을거같아요
@@neuralninja-ai 그걸로 다시해보겟스빈다 공지에서는 1.6으로하라길래 그걸로만했거든요
아하 수정해야겠네영 당시에는 1.6이상 지원이였나봐요
에러 메세지를 보니까 이미지 사이즈가 16배수가 아니라서일수도 있을거같아요
대부분은 강제로 맞춰주는데 animatediff는 아닐수도 있으니; 이부분도 고려해보세요~
올려주신 커스텀 노드 그대로 썻는데 advanced controlnet에서은 에러가 나는데 어떻게 하면 좋을까요? Error occurred when executing KSampler:0 이라고 뜨고 세부내용 보면 Advanced-ControlNet 모듈에서 get_control 및 sliding_get_control 함수와 관련된 문제로 보입니다.
animatediff evolved 와 advanced controlnet의 버전이 안맞아서 그럴수 있을거 같아요
둘다 업데이트해보세요~
둘다 최신버전입니다ㅜㅜㅜ
헛;; 이상하네요.. comfyui도 업데이트를...;;
search해봐도 관련이슈는 안보여서 아마 업데이트문제일거 같아요~
@@neuralninja-ai 저번주에 comfyui 업뎃했는데 거기에 controlnet쪽 버그가 있었나봐요. 오늘 git pull하고 나니까 fix됐네요 다행입니다! 혹시나 다른분들이 저와 같은 에러가 난다면 참고해주세요! 닌자님 보고 많이 배웁니다. 현업 실무자입니다!
좋은 영상 감사합니다.
노드 연결하는 인터페이스로 바뀌면서. 어려워진거 같아요.. 어떤규칙으로 노드가 연결되는지 잘 모르겠어요
아직 낯설어서 더 그럴거 같아요~ 쓰다보면 익숙해지실거에요~
지금 최신버전이 업뎃되면서 사용하신 sam loader가 다른것으로 대체되어야 할것같은데요.SAMModelLoader(segment anything) 같은것으로요. 근데 이걸로 했을때 에러가나서... impact pack에 사용하신 노드가 없습니다 ㅠㅠ 어떻게 하면 좋을까요? 해당 강의 뿐만아니라 seg쓰는 모델에서 다 지금 로더가 바뀌어야할것같아서요.. 뭘로 바꾸면 좋을까요?
외부라 자세히 확인은 못하지만
impact pack SAMLoader는 그대로 있는거 같아요
github.com/ltdrdata/ComfyUI-Impact-Pack/blob/Main/__init__.py
제가 워크플로우에서 impact pack이 아니라 다른 samloader를 이용했었던건지.. 한번 확인해볼게요
@@neuralninja-ai 아 넵넵 그러니까 SAM Loader 노드자체는 존재하지만 output이 ULTRALYTICS_MODEL로 빠져서 Face Detailer의 sma_model_opt와 이어지지 않습니다ㅠㅠ 근데 웃긴게 뉴럴닌자님 노드를 그대로 쓰면 노드가 존재하긴하지만 Face Detailer에서 뻑이 납니다 올바른 seg모델이 아니라고 하면서요.
정리하면, 한번 뉴럴닌자님 모든 노드 업뎃 이후 sam_model_opt쪽에서 sam노드/모델 어떤게 들어가는지(에러없이) 확인 한번 해주시면 감사하겠습니다.
확인해봤는데 impact pack samloader는 이상없이 동작하는거 같아요;;
아마 다른 커스텀 노드랑 충돌나는경우가 아닐지 싶어요
커스텀노드를 manager, impack, animatediff envoled, controlnet 이렇게만 남기고 테스트해보세요~
안녕하세요 영상을 보며 잘 따라하고 있는데 load video 가 보이질 않네요 ㅠㅠ 혹시 해결 방법이 있는지 알려주시면 너무나 감사할거 같습니다 ㅠㅠ
ComfyUI-VideoHelperSuite 커스텀 노드 설치하시면되요~
더보기에 있는 설명서에 커스텀 노드 링크있어요~
@@neuralninja-ai 감사합니다 ㅠㅠ 이제 보이네요 다시 열심히 배워보겠습니다~
@@neuralninja-ai 혹시 죄송하지만 한가지만 더 여쭤보면.. 로드 비디오로 영상을 생성했을때 k샘플러에서 디노이즈를 0으로 하면 영상 생성이 진행되는데 그걸 숫자를 조금만 늘려도 에러가 뜨는데 이건 어떻게 해결해야 될까요? ㅠㅠ
에러를 알아야 알려드릴수 있을거같아요~
샘플러에서 실패했다는건데.. 대부분은 아웃오브메모리나 체크포인트 베이스모델과 컨트롤넷 베이스모델이 다를경우가 많은거 같더라구요
@@neuralninja-ai 알려주신 부분 확인해서 다시한번 해보겠습니다 감사합니다 ^^
lcm 로라 넣은다음 다른얼굴 로라 넣으려면 어떻게해야되나요? 웹ui는 그냥 프롬프트에 넣으면됐었는데 안되네용..ㅠ
기본적으로는 체크포인트노드와 lcm 노드 사이에 load lora 노드를 넣어서 로라를 추가할수 있어요~
ruclips.net/video/cbG9hw1gd3g/видео.html 이런식으로 다른노드를 이용하면 sdwebui처럼 적용시키는 방법도 있으니 참고해보세영~
좋은 강의 감사합니다 !!
궁금한 게 있는데요, ksampler 에서 sampler 값을 lcm으로 적용하면 이미지 퀄리티가 너무 떨어지는데, 이게 모델마다 영향을 많이 받는 모델이 있거나 그런가요 ??
영상에서 사용했던 caramel 모델은 퀄리티가 그렇게 나쁘진 않은데, 제가 사용했던 KenCanMix는 퀄리티가 너무 많이 바뀌어서요
맞아요~ 체크포인트모델에따라 영향이 큰게 있고 그러더라구요~
그러다보니 lcm은 적용할때는 그냥 쓰던 체크포인트만 계속 쓰게되는;;;
@@neuralninja-ai 아하 감사합니다 !!
요즘은 comfyui만 사용하시나봐요~ a11은 안쓰시는거에요?😢
아뇨~ a1111도 잘 사용하고 있어요~ 여전히 사진 뽑긴 a1111가 좋은거 같아요 외부 연동도 더 좋구요~ a1111쪽도 올려볼게요~
@@neuralninja-ai A11 에서 작업하는AnimateDiff 배우고 싶어요~ 기회가 되신다면 부탁드려요~☺️
modelSamplingDiscrete 없으면 뭐가 문제일까요?
업데이트 다 해도 없네요.
comfyui 내장 노드라서 comfyui만 최신이면 있으실거에요~ comfyui를 업데이트해보시고 워크플로우를 불러온거면 표시만 에러로 날수도 있으니 직접 노드를 선택해서 추가해보세요~
강의 감사합니다. 컴퓨터 사양은 어떻게 되세요?
영상 내 설명은 모두 코랩프로기준으로 찍었어요~
@@neuralninja-ai 아~ 코랩프로가 뭔지 지금 알았어요. ㅎ 감사합니다. 랜더링 시간이 확실히 빠른지 궁금하네요^^
아하 코랩프로 기본은 3060 12gb정도의 사양이라고 보시면되요~ 4090급으로 높힐수도 있는데 이러면 몇시간만에 한달치 사용량을 다 소진할수도 있어요; 그리고 말씀하신데로 그래픽카드 사양이 높을수록 생성속도는 빨라져요~
많이 배우네요 ㅎ 감사합니다 😊
컨트롤넷에서 계속 메모리 부족이라고 떠서요 이 경우에는 무엇을 줄여야 하나요 ??
길이를 줄이는게 가장 편한방법이에요~ ruclips.net/video/6e0ZQR6DODE/видео.html 참고하셔서 짧게 여러변 변환해보세요~
@@neuralninja-ai 앗 영상이 1초짜리임에도 계속 메모리 부족이 뜨면 영상 사이즈를 줄여야 할까요 ? ㅜㅜ
헛;; 넹 사이즈를 줄이시거나 컨트롤넷을 줄이셔야해요~ 이 영상에서 사이즈가 코랩 기준 사이즈라 vram 12gb정도 기준일거에요~
안녕하세요 뉴럴님 올려주신 워크 플로우로 생성 하면 사람으로 인식 되는 모든것이 하얗게 나오는데.. 어떤것을 좀 만져야 될까요?
사용하시는 모델에 vae가 없어서 그럴수 있을거 같아요 vaeloader로 vae를 별도로 입력해보세요~ 이부분은 워크플로우에서도 수정해야겠네영;
@@neuralninja-ai 감사합니당
스승님 삼빱니다
ㅋㅋㅋ 빠르시네영 감사요!
영상을 넣고 돌리는데 메모리부족이라는 에러가 뜨는데 혹시 .. 어떤 이유인지 알까요? vram 24g 4090인데...
comfyui 와 animatediff 특성상 길이가 길수록 어쩔수없이 램부족이 발생해요~ ruclips.net/video/6e0ZQR6DODE/видео.html 긴영상 생성은 이영상을 참고해보세요~
설치도 다 했는데 DW 프리프로세서가 없을 땐 어떻게 해야 할 끼요 ㅜㅜ?
우선은 open pose 프리프로세서를 이용하시면되요~ dw포즈가 없는건 comfyui_controlnet_aux를 최신으로 업데이트 하시거나 지우고 다시받아보세여~
안녕하세요 뉴럴님 out of memory도 해결했는데 영상 어느 정도 만들다 보면 어느샌가 영상 재생속도가 두배가 된 채로 만들어집니다..
아하 video combine노드에서 frame rate를 맞춰주시면될거 같아요~ 영상마다 다를수있고 아니면 불러오실때 특정 fps 로 불러온다면 거기에 맞추시면되영
감사합니다. 재밌네요 comfyui도@@neuralninja-ai
동영상은 몇 초 까지 길게 작업 할 수 있는건가요?
딱 정해진거는 없는거 같아요~ 램에 따라서 다르긴하지만 100~200장 정도가 적당해보여요~ ruclips.net/video/6e0ZQR6DODE/видео.html 영상 참고하시면 제한없이 생성하실수는 있어요~
로컬쓰는 사람은 어떻게 하는지 모르겠어요.. 영상 초반에 코랩은 왜 켜는지... 워크 플로우 올려주신 코딩도 어떻게 쓰는지..
로컬에서는 코랩과 구글드라이브 내용은 무시하시면되요~ 노드 추가하는 부분부터 보시면되요~
@@neuralninja-ai 선생님 코딩으로된 워크플로우 어떻게 쓰는지 알려주심 안되나여 ㅠ
코딩이 어떤걸 말씀하시는지 모르겠어여~ 워크플로우는 그대로 불러서 쓰면되는데.. 질문의 요지를 파악이못했어요;;
@@neuralninja-ai 워크플로우를 로컬에서 저장하면 그냥 파일이 되고 그냥 그거 로드해서 쓰듯 쓰고 싶은데 다운로드 누르려고 하니
{
"last_node_id": 98,
"last_link_id": 178,
"nodes": [
{
"id": 13,
"type": "VAEEncode",
"pos": [
765,
26
],
"size": {
"0": 210,
"1": 46
},
"flags": {},
"order": 13,
"mode": 0,
"inputs": [
{
"name": "pixels",
"type": "IMAGE",
막 이런식으로 뜨네요 ㅠㅠ 파일을 받고 싶은데 코딩만 떠요 ㅠ
@@neuralninja-ai 혹시나 해서 코딩나오는 화면에서 우클릭 다른이름 저장하기 하니 워크플로우 파일로 다운받아지네요 감사합니당
흐아 ksampler 에서 자꾸 오류가 뜨네요 ㅠ 장치 오류라고 하는데 ....
Error occurred when executing KSampler :
Allocation on device
File "C:\Data\Packages\ComfyUI_re\execution.py", line 151, in recursive_execute
output_data, output_ui = get_output_data(obj, input_data_all)
File "C:\Data\Packages\ComfyUI_re\execution.py", line 81, in get_output_data
return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) 이런식으로 쭈르르륵 빨간글씨 뽝! 뜨는데 무섭네요 ㅋㅋ
에러 메세지가 없는거 같아요~ 바로나면 모델 버전 오류이거나 오래걸리다가 나는 에러면 아웃 오브 메모리일 가능성이 클거 같아요~
fp 가 플롯 포인트 였군. 하나 또 깨달았다. 32구하러 감
헠; 영상에 그런 전문적인(?) 내용이 있었던가요
@@neuralninja-ai 워크플로우를 다운로드했는데, 컨트롤넷 모델이 기본 모델이 아닌거에요!! 이 분은 왜 모델을 fp16을 사용하고 있을까?? 깃헙에는 분명 기본 1.1버젼만 있던 것 같았는데!! 막 궁금해서 구글링 좀 하다가 arxiv 에서 관련 글을 보게 됐고,fp16의 사소한 잇점들에 대해서 아주아주 조금 읽어보게 되었습니다. 그리고 32비트용도 존재하더라구요? 물론 일반적으로 추론에서 쓰는 16비트 모델이랑 쓰임새나 메모리 사용량이 다르겠지만, 저는 약간 자료들이라면 무조건 챙겨두는 걸(?) 좋아해서 자료를 찾으러 다시 그렇게 모험을 떠났습죠 헤헿
와우;; 전 그냥 용량 작으니까 땡큐!! ..느낌으로 사용했는데 직접 비교해보겠다는 생각은 못해봤네영 ㅋ_ㅋ
어허 또 쉽다고 말씀허시네요
시간이 문제일뿐이져 ㅋ_ㅋ;
내공 쩐다
좋은말씀 감사해요~
페이스 디테일러가 없을 땐 어떻게 하나요 ㅜㅜ?
설명서에 있는 impack 커스텀 노드 설치하시면되요~ 그리고 영상에서는 SimpleDetector+Detailer를 더 추천해요~ 이것도 설명서에 추가해두었어요~
@@neuralninja-ai 감사합니다!!
뉴럴닌자님 오류가 떴습니다 ㅠㅠ
Error occurred when executing VHS_LoadVideoPath:
"C:\Users\O_GU\Desktop\사업\ai\모델\input\input.mp4" could not be loaded with cv.
File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 152, in recursive_execute
output_data, output_ui = get_output_data(obj, input_data_all)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 82, in get_output_data
return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 75, in map_node_over_list
results.append(getattr(obj, func)(**slice_dict(input_data_all, i)))
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-VideoHelperSuite\videohelpersuite\load_video_nodes.py", line 228, in load_video
return load_video_cv(**kwargs)
^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-VideoHelperSuite\videohelpersuite\load_video_nodes.py", line 120, in load_video_cv
(width, height, target_frame_time) = next(gen)
^^^^^^^^^
File "D:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-VideoHelperSuite\videohelpersuite\load_video_nodes.py", line 51, in cv_frame_generator
raise ValueError(f"{video} could not be loaded with cv.")
CV로 로드할수 없다는데 해결방법이 있을까요?
헛;; 무슨 에러일까요; 영문 폴더로만 된 곳으로 옮겨서 테스트해보시고.. 혹시 no module named 'cv2' 라고 뜬다면 설명서를 참고해주세요~
넵 감사합니다! 해보겠습니다!@@neuralninja-ai
대표님 저 한가지 궁금한것이 스테이블 디퓨전이랑 , Comfyui랑 둘다 이동식 메모리에 넣고 컴퓨터 꽂아서 사용하면 안좋을까요??
Comfyui 실행시 'Nvidia_gpu' 로 실행합니다.
컴퓨터 사향은 RAM 32Gb, 4070ti , 1TB용량 , 750w 파워 쓰는데 이모양입니다ㅠ
아무래도 내장ssd가 낫겠죠~ 모델 읽는데에서 속도차이날거 같아요 어차피 생성속도는 오로지 그래픽카드 성능이니까 전체적으론 크게 차이가 나진 않을거 같긴해요
저는 미리보기도 안되는데 왜 이럴까요?
구글 코랩은 네크워크가 느려서 이미지가 큰경우 늦게 뜰 수 있어요~ 너무 느리시면 jpg를 이용해보세요~
안녕하세요! 잘 배우고 있는데 막힌 부분이 있어서요 ㅠㅠ 죄송한데 이런 에러가 뜨고 있습니다 Error occurred when executing DWPreprocessor: 그래서 어떻게 해결 해야할지 모르겠어요..ㅠㅠ 혹시 시간 나면 한 번만 알려줄 수 있나요?\ComfyUI_windows_portable\ComfyUI\custom_nodes\comfyui_controlnet_aux\ckpts\hr16/yolox-onnx\yolox_l.torchscript.pt
에러 메세지가 다 안보여서 정확히는 모르겠어요~ 우선은 openpose pose(preprocessor)를 이용해도 큰 차이는 없으니 이걸로 해보세영~ dw 오류는 load image - dw - preview iamge 이렇게 3개의 노드로만 테스트및 오류확인을 해보시는게 좋을거에요
@@neuralninja-ai
헉.. 답변 너무 고마워요! 말씀하신대로 openpose pose(preprocessor)를 사용했는데 이번에는 이런 에러가 뜨네요... Error occurred when executing KSampler:
mat1 and mat2 shapes cannot be multiplied (308x2048 and 768x320)
KSampler 쪽이 문제인 것 같아요 ㅠㅠㅠ
아마 같은 모델버전을 사용하지 않으신거 같아요~ checkpoint 모델 버전이 sd1.5면 컨트롤넷모델도 sd1.5(openpose sd15) 모델을 선택해주세요~
@@neuralninja-ai
와 해결됐습니다! 너무너무 감사드려요 ㅠㅠㅠ 앞으로도 좋아요 많이 누를게요!