매번 좋은영상 감사합니다 할때마다 오류가 있으면 찾아보는편인데요 이틀째 이것만 하고 있어서요 ㅠㅠ 오류해결법좀 알려주세요 C:\Users\gold\Downloads\aa>python extract.py Traceback (most recent call last): File "C:\Users\gold\Downloads\aa\extract.py", line 2, in import ffmpeg ModuleNotFoundError: No module named 'ffmpeg' 영상을 이미지로 변경하려고하는데 이런 메세지가 나와서 저번에 배웠던 .\python_embeded\python -m pip install 오류이름 으로 설치 했는데도 안되서요 다른 방법이 있을까요?
영상 frame count 받아오는 노드 저건 어떻게 불러내나요? // 파이썬을 알아야 좀 이해하기 쉬우려나.. 따라가기 빡세긴하네요 초보자입장에서 ㅠㅠ 뭔가 짧게라도 원리라던가 쓰는 이유를 같이 설명해주시거나 영상에서 못한건 더보기에 글로라도 남겨주시면 더 좋은 영상이 될듯하네요~ 뭔지도 모르고 그냥 건너뛰는게 있으면 갑자기 막힐때 방법을 찾기가 힘드네요 ㅠ
고걸 빼먹었네요;; display int (rgthree커스텀노드) 이에요~ 값을 볼수있는 노드면 다른것도 상관없어요~ python으로 만들어진 프로그램은 이해하시기보다는 영상 클립들을 합치기 위한 영상편집툴 대용이라고 생각하시면 편해요~ 영상편집툴을 이용하시면 더 편하게 영상 클립들을 이어붙이실수 있어요~
그건 좀 이상하긴하네요;; 다른 preprocessor들은 나오시나요? comfyui_controlnet_aux 커스텀 노드를 다시 설치하거나 업데이트 해보시는게 좋을거 같아요! modaux dwpose안써봐서 확실치는 않지만 preprocessor는 이미지를 리턴받는거뿐이니까 같은기능이면 상관없어요~ 아니면 openpose로 대체하셔도되요~
이 영상같은 animatediff v2v는 이래저래 comfyui가 직관적이고 이해하기 좋은거 같아요! travel이나 다른 기본기능들은 언제한번 정리해보려고요~ 아래 내용은 이전에 답변 복붙해봤어요~ sdwebui에서 animatediff v2v를 간단하게 말씀드리면, img2img 에서 사이즈랑 샘플러 디노이징 설정하시고, 아무이미지 하나 올려놓으시고, animatediff 안에서 enable animatediff 체크하시고, Video Source에 원본 영상올리시고, mp4 선택하시고, generate누르시면되요~ controlnet 필요하시면 같이 선택해주시고요~
When loading the graph, the following node types were not found: ConstrainImageforVideo|pysssss Nodes that have failed to load will show as red on the graph. 워크플로우 불러오니 이렇게 뜨는데 이 노드는 어떻게 찾아야할지 모르겠어요 ㅠㅠ
lcm 적용하면 이쁘게 뽑는데는 한계가 있긴하더라구요~ 저도 만들어놓고 올리지도 못하는게 수두룩;; 테스트로 10장 내외로 짧게 짧게 돌리면서 변환되는 느낌 확인하는것도 좋은거 같아요~ 얼굴 보정은 어느정도 크기가 있으면 그럭저럭 되는데 작은경우는 a1111에서 얼굴만 i2i로 다시 돌려주는게 더 낫기도하구요..
@@neuralninja-ai 모델을 다운 받아서 mm_sd_v15.ckpt. 모델로 했는데도 Motion module 'mm_sd_v15.ckpt' is intended for SD1.5 models, but the provided model is type SDXL. 이런 오류창이 뜨는데 해결이 안되네요..해결되었습니다!
Error occurred when executing KSampler: 'NoneType' object has no attribute 'shape' 뉴럴닌자님 이러한 오류가 발생했는데 알 수있을까요 ... ? 다르게해보니 이렇게도 뜹니다./ Error occurred when executing KSampler: 'ModuleList' object has no attribute '1' File "C:\AI\ComfyUI_windows_portable\ComfyUI\execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\AI\ComfyUI_windows_portable\ComfyUI\execution.py", line 81, in get_output_data
와 이젠 이목소리에 중독됐어요 소리가 아주 쏙쏙 들어오네요 힘드신데 부탁하나 드립니다 ^^ 재생목록을 강의 이름으로 생성해주시고 넣어주시면 전 영상 찾기가 쉬울듯해요 전영상 찾을려면 한참걸려요 ㅎㅎ
ㅋㅋㅋ 감사합니다~ 말씀주신 영상 링크랑 플레이 리스트를 넣는거 확인해볼게요~ 이전 영상 링크를 넣는다고 넣긴하는데 제목이 잘려서그런지 이상하긴하드라구요;;
감사합니다!~ 닌자님 덕분에 좋은 영상 잘 만들고 있습니다!~ 정말 감사합니다!~
좋은 댓글 감사합니다!
이렇게 좋은 방법이 있었군요 ㅋㅋ 전 좀 무식한 방법을 써서 AnimateDiff 영상을 만들어서 좀 시간이 걸렸는데 뉴럴닌자님에 이 영상을 보니 많이 배워가네요. 감사합니다 😊
도움이 되셨다니 좋네영 ㅋ_ㅋ;; 저도 그렇게하다가 좀 만 길어져도 너무 빡세서 요롷코름해봤어요~
왠지....딱 저를 위한 강좌 같아서 너무 감사한 마음으로 두번 시청했습니다~ 이제 큐 걸어보고 되는지 확인해보고 올게요! 정말 고맙습니다^^
감사합니다~ ㅋ_ㅋ 맞아요~ 마침 비슷한 케이스 같아서 이 영상부터 올렸어요~
존경합니다!
헛;; 감사합니다!
정말 열심히 구독하고 있어요. 생성한 짧은 동영상 파일 합치기 할때 폴더내의 py파일 3개는 어디서 구할수 있는지 궁금합니다.
더보기 설명에 보시면 설명서 링크가 있어요~ 그 설명서에 파이썬 스크립트를 다운받으시면되요~
매번 좋은영상 감사합니다 할때마다 오류가 있으면 찾아보는편인데요 이틀째 이것만 하고 있어서요 ㅠㅠ 오류해결법좀 알려주세요
C:\Users\gold\Downloads\aa>python extract.py
Traceback (most recent call last):
File "C:\Users\gold\Downloads\aa\extract.py", line 2, in
import ffmpeg
ModuleNotFoundError: No module named 'ffmpeg' 영상을 이미지로 변경하려고하는데 이런 메세지가 나와서 저번에 배웠던 .\python_embeded\python -m pip install 오류이름 으로 설치 했는데도 안되서요 다른 방법이 있을까요?
이경우엔 pip install ffmpeg-python 이렇게만 치시면되요~ ffmpeg은 조금 특이하게 모듈명이 ffmpeg-python이라 이부분도 혼란이 있겠네요; 설명서에 추가해놔야겠네영
comfyui에 모듈추가와 다른 이유는 comfyui는 venv(가상환경)안에 python으로 실행하기때문에 윈도우에 설치한 python과는 별도로 구성되어있어요~
@@neuralninja-ai 해결되었어요 ModuleNotFoundError: No module named 'PIL' 오류는 pip install pillow 로 해결했구요^^ 매번감사합니다
닌자님 긴 영상을 이어 붙일때 꼭 load image 가 아닌 load video로 이미지처럼 100프레임씩 나눠서 이어 붙여도 괜찮은거겟죠?
네넹 똑같죠~ 영상에도 짧게 내용이 나오긴해요~
영상 frame count 받아오는 노드 저건 어떻게 불러내나요? // 파이썬을 알아야 좀 이해하기 쉬우려나.. 따라가기 빡세긴하네요 초보자입장에서 ㅠㅠ 뭔가 짧게라도 원리라던가 쓰는 이유를 같이 설명해주시거나 영상에서 못한건 더보기에 글로라도 남겨주시면 더 좋은 영상이 될듯하네요~ 뭔지도 모르고 그냥 건너뛰는게 있으면 갑자기 막힐때 방법을 찾기가 힘드네요 ㅠ
고걸 빼먹었네요;; display int (rgthree커스텀노드) 이에요~ 값을 볼수있는 노드면 다른것도 상관없어요~
python으로 만들어진 프로그램은 이해하시기보다는 영상 클립들을 합치기 위한 영상편집툴 대용이라고 생각하시면 편해요~
영상편집툴을 이용하시면 더 편하게 영상 클립들을 이어붙이실수 있어요~
@@neuralninja-ai 감사합니당~~ 아하 최근에 흥미가 생겨서 어떻게 시작해야할지 이곳저곳에서 보다가 잘 배우고있어요 ~ compyui를 쓰면 조금 더 동작원리를 배울수있다기에 (확실히 더 복잡하긴 하네요 ㅎㅎ)
ruclips.net/video/P2UKCgDA_0o/видео.html
기본 노드 설명영상도 올리고 있어요~
...아직 두개뿐이라 부족하지만;; 노드 설명과 노드 사용방법등 계속 업데이트 할예정이에요!
3분 40초경 Load Video를 하시다 갑자기 Lode Image로 넘어 갔는데 Load Video로 하는
추가 설명이 있으면 좋겠습니다 ;)
설명이 부족했나보네영~ 영상은 전체적으로 load images path를 기본으로 설명하고 있지만, load video path도 전체 프레임수만 구하고난뒤에는 똑같이 load_cap과 skip 만 조절하면 된다는 설명이였어요~
@@neuralninja-ai 그렇군요. 감사합니다. 영상이 끊긴줄 알았습니다 :)
닌자님 궁금한게 있는데, 저는 완성된 화면이 노릇하게 변색이 되는데 혹시 이유를 아실까요? 저기 아래의 글을 보니 LCM써서 색감이 별로라는 얘기가 있던데요.
넹 lcm을 적용하면 색감과 디테일이 좀 아쉽더라구요~ 달라지는것도 모델마다도 조금씩 다르다보니 load_cap을 15정도로 낮게 설정해서 step과 cfg를 조금씩 조절해서 확인해보는게 좋은거 같아요~
@@neuralninja-ai 감사합니다!
뉴럴닌자님 강의보고 열심히 공부하고 있는데요. DWPreprocessor 노드가 설치가 되지 않는데 해결방법이 있을까요?
에러가 워낙 다양해서;; 에러메세지가 있어야 저도 같이 찾아볼수 있을거 같아요~
일단 onnx문제가 젤 많은거 같으니까.. detector랑 estimator를 torchscript.pt 로 변경하시고 해보세요~
@@neuralninja-ai 에러메세지는 없고 그냥 노드가 설치되어 있지 않다고만 나와서요. modaux dwpose노드로 DWPreprocessor노드를 대체할 수 있을까요?
그건 좀 이상하긴하네요;; 다른 preprocessor들은 나오시나요? comfyui_controlnet_aux 커스텀 노드를 다시 설치하거나 업데이트 해보시는게 좋을거 같아요!
modaux dwpose안써봐서 확실치는 않지만 preprocessor는 이미지를 리턴받는거뿐이니까 같은기능이면 상관없어요~ 아니면 openpose로 대체하셔도되요~
@@neuralninja-ai 해결되었습니다. 기존 설치된 aux를 지우고 새로 다운로드 후 설치하였더니 해결되네요. 감사합니다.
Pls turn on the the English translation, thanks for this 😊
I uploaded it ~ I only uploaded the translation using whisper, so I haven't checked the timing yet;;
클립을 생성할때 미리 걸어두면 비디오 컴바인 노드에 마지막에 걸어둔 영상만 재생되지 않나요?? 생성될때마다 자동 저장 기능은 없을까요?? 계속 클립 완성되는거 기다렸다가 다음 클립 작업하고 하는게 은근히 힘드네요 ㅠㅠ
재생은 마지막 영상만 되지만 저장은 queue 눌렀을때 당시 노드값으로 차례대로 되니까 재생되는거 상관없이 쭉 걸어두시면되요~
쭉 걸어두고 자고 일어났는데 마지막 영상만 재생되고 있더라구요 ㅠㅠ 저장해보니 마지막 영상만 저장 되던데 해결 방법이 없을까요??
뭔가 이상하네요;; 파일이 새로 생기는게 아니라 덮어써지는건지.. save_output옵션 켜져있는지 확인해보시고 vhs 문제일수 있으니 업데이트를 해보세요~ 그리고 길게말고 10장씩 짧게 만들어보면서 한번 테스트를 해보세요~
load video 옆에 프레임을 카운팅하는 input 노드는 어떻게 설치하는건가요
죄송해요 답변이 늦었네요~ display int (rgthree커스텀노드) 이에요~ 값을 볼수있는 노드면 다른것도 상관없어요~
닌자님 webui 애니메이트
디프 가이드 영상도 제작 해주실수있나욥!❤
이 영상같은 animatediff v2v는 이래저래 comfyui가 직관적이고 이해하기 좋은거 같아요!
travel이나 다른 기본기능들은 언제한번 정리해보려고요~
아래 내용은 이전에 답변 복붙해봤어요~
sdwebui에서 animatediff v2v를 간단하게 말씀드리면,
img2img 에서 사이즈랑 샘플러 디노이징 설정하시고, 아무이미지 하나 올려놓으시고, animatediff 안에서 enable animatediff 체크하시고, Video Source에 원본 영상올리시고, mp4 선택하시고, generate누르시면되요~
controlnet 필요하시면 같이 선택해주시고요~
When loading the graph, the following node types were not found:
ConstrainImageforVideo|pysssss
Nodes that have failed to load will show as red on the graph.
워크플로우 불러오니 이렇게 뜨는데 이 노드는 어떻게 찾아야할지 모르겠어요 ㅠㅠ
더보기 설명서에 있는 custom-script 커스텀 노드를 설치하시면되요~
@@neuralninja-ai 정말감사합니다
@@neuralninja-ai 설명해주신대로 노드 설치했는데도 똑같은 오류가 뜨네요 ㅠㅠ
해당 커스텀 노드를 추가했는데도 없다고 나오는거면 import fail이 된걸수도 있을거 같아요~
ruclips.net/video/ducn3nWvBKo/видео.html 이 영상을 참고해보시면 모듈 설치방법이나 오류 해결방법들을 설명해두었어요~
@@neuralninja-ai 자세한 설명 감사합니다
어떨땐 animediff쓰고 morph쓰고 interpolation쓰고 판단을어떻게하나요
답변이 늦었네요~ 질문을 잘 이해를 못했어요;; 모핑이나 보간은 그냥 정해진 기법 아닌지.. animatediff는 간단한 움직이는 짤을 생성하거나 이 영상에서처럼 video2video 생성시에 이미지 일관성을 얻기위해 사용되영
Prompt outputs failed validation
VHS_LoadImagesPath:
- Custom validation failed for node: directory - Directory 'G:\내 드라이브\AI\bird02.mp4' cannot be found.
"내 드라이브" 이부분을 간단한 영문 폴더로 변경하고 해보세영~ 한글이나 띄어쓰기가 문제가 되기도해요~
아~ 이거를 못 찾아서 유료 서비스 결재 했는데....ㅠ.ㅠ 차근차근 따라해보겠습니다.
헛;; 코랩 유료 말씀하시는거면 고용량램 모드 쓰시려면 유료써야 하는게 맞아영~
본업이 ai쪽이신가요? 매번 좋은 정보주시는데 직장인으로서 따라할 시간이 부족하네여 ㅠ
아뇨~ 저도 본업과 ai랑 직접적인 관계는 없어영~ 그냥 관심이 아주 많은거 뿐이져 ㅋ_ㅋ;; 천천히 해보세영~ 몇개 따라하다보시면 고놈이 고놈이라 금새 하실거에요~
@@neuralninja-ai 끊임없이 연구하고 내용 공유까지 하는게 대단해요!!
... comfyui 연습좀 해야되는데 왜 저는 이미지가 자꾸 깨질까요... 얼굴 보정도 안되고.. 따라했는데 너무 힘드네요 +_+ 연습 부족인건가요?
lcm 적용하면 이쁘게 뽑는데는 한계가 있긴하더라구요~ 저도 만들어놓고 올리지도 못하는게 수두룩;; 테스트로 10장 내외로 짧게 짧게 돌리면서 변환되는 느낌 확인하는것도 좋은거 같아요~ 얼굴 보정은 어느정도 크기가 있으면 그럭저럭 되는데 작은경우는 a1111에서 얼굴만 i2i로 다시 돌려주는게 더 낫기도하구요..
안녕하세요 영상에서 애니메이트 디프 로더 노드 부분에서 뉴럴님과 같은 모델로 해보니까 "SD1.5 모델용이지만 제공되는 모델은 타입 SDXL입니다" 이런 오류 메세지가 뜨는데 혹시 어떤게 문제일까요??
애니메이트 디프 노드에 모델네임에 mm_sdxl 같은 sdxl용 모델이 선택되신거 같아요~
@@neuralninja-ai 그럼 sd1.5용 모델을 써야하는거죠? Sd1.5모델이라고 해서 다운받은건데 저런 오류가 뜨네요 ㅠㅠ뉴럴님이 사용하신 모델 다운경로 알수있을까요?
아.. 지금보니까 반대인거 같네요?;; checkpoint나 다른거를 sdxl버전을 쓰신거 같아요~ checkpoint, lora, controlnet model등의 sd모델은 한종류로 맞춰야해요~ animateiff모델은 여기서 확인하시면되요~ huggingface.co/guoyww/animatediff/tree/main
@@neuralninja-ai 모델을 다운 받아서 mm_sd_v15.ckpt. 모델로 했는데도 Motion module 'mm_sd_v15.ckpt' is intended for SD1.5 models, but the provided model is type SDXL. 이런 오류창이 뜨는데 해결이 안되네요..해결되었습니다!
Error occurred when executing KSampler:
mat1 and mat2 shapes cannot be multiplied (1232x2048 and 768x320)
이건 base model이 다른게 섞였을때 나오는거 같아요~ 예를들어 체크포인트는 sd1.5인데 컨트롤넷 모델은 sdxl용을 사용했다거나요
@@neuralninja-ai 네
Kelas kapt from indonesia 🔥🔥🔥🔥🔥🔥
comfyui 아직 적응이 안되는데 sd로도 가능한거죠?
변환은 sdwebui animatediff를 이용하시면 가능하세요~ 다만 이 영상은 짧게 끊어서 이어붙인다는건데 이건 sdwebui자체로는 힘들수 있어요~
스승님 sd 포지가 나왔습니다, 테스트해보겠습니다
ㅎㅎ넹 후기 알려주세요~ 전 빠른거 같기도 하고 아닌거 같기도하고 긴가민가하더라구요 ㅋㅋ 코랩쪽은 이게 나을거같아서 추가는 하려구요~
@@neuralninja-ai 유투버들이 소재가없는지 물고빨고하더라고요. 업데이트 드리겠습니다
선생님 control_v11p_sd15_lineart_fp16 [5c23b17d] 이모델은 어디서 다운 받을수 있나요? ㅠㅠ
huggingface.co/comfyanonymous/ControlNet-v1-1_fp16_safetensors/tree/main 여기서 받으시면되는데 지금 잠시 허깅페이스가 뻗은거같네요;;
@@neuralninja-ai 선생님이 제공해주신 코렙사이트 실행주소 에서 접속후에 이미지 생성 하는데 컨트롤넷 모델 선택 부분이 none 이라고 뜨면서 안되네요 ㅠㅠ
아하 그말씀이었군요 지금 허깅페이스서버가 뻗어서 모델을 다운받지 못해서 그런거 같아요~ ai쪽 모델은 거의 대부분 허깅페이스에 의존하다보니.. 아마 금새 복구될거에요~
Error occurred when executing KSampler:
'NoneType' object has no attribute 'shape'
뉴럴닌자님 이러한 오류가 발생했는데 알 수있을까요 ... ?
다르게해보니 이렇게도 뜹니다./
Error occurred when executing KSampler:
'ModuleList' object has no attribute '1'
File "C:\AI\ComfyUI_windows_portable\ComfyUI\execution.py", line 151, in recursive_execute
output_data, output_ui = get_output_data(obj, input_data_all)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\AI\ComfyUI_windows_portable\ComfyUI\execution.py", line 81, in get_output_data
controlnet 쪽에서 발생한 문제일수 있어요~ 컨트롤넷 하나씩 제외해보셔서 어느 컨트롤넷과 preprocessor가 문제인지파악해보는것이 도움이 될수 있을거 같아요~
감사합니다! 해보겠습니다!@@neuralninja-ai
컨트롤넷을 다 삭제하니 해결되었습니다!@@neuralninja-ai
해결하셨다니 다행이네요~ 전처리에서 처리된 이미지가 잘못되거나 컨트롤넷 모델과 맞지않을때 그러는거 같아요~
이미지 파일은 png 파일만 가능한가요?
아뇨 jpg도 상관없어요~
@@neuralninja-ai sp^^
옷만 바꿀 수 있나요?
ruclips.net/video/igSN7kulawk/видео.html 이런식으로 일부분만 마스킹하는 이미지들도 만들어서 하면 되긴할텐데.. 영상에서 옷만 마스킹한다는게 아마 쉽진않을거에요~ 전체를 바꾸고 원본 얼굴이나 머리를 다시 덮는식이 좀 더 나을거 같아요
아 LCM으로 돌리면 되겟구나~ 근데 LCM으로 돌리면 화질이 나쁘던데...
맞아요~ lcm은 빠른대신 데테일이 떨어지는거 같아요~ lcm은 메모리랑 상관없이 스텝수만큼의 속도차이만 있을거니까 적용하셔도되고 안해도되요~
2빠 😂
빠르신! 감사합니다! ㅋ_ㅋ