AnimateDiff Convert long videos without length restrictions! (comfyui tutorial)

Поделиться
HTML-код
  • Опубликовано: 18 дек 2024

Комментарии • 91

  • @뚱보-i5f
    @뚱보-i5f 9 месяцев назад +1

    와 이젠 이목소리에 중독됐어요 소리가 아주 쏙쏙 들어오네요 힘드신데 부탁하나 드립니다 ^^ 재생목록을 강의 이름으로 생성해주시고 넣어주시면 전 영상 찾기가 쉬울듯해요 전영상 찾을려면 한참걸려요 ㅎㅎ

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      ㅋㅋㅋ 감사합니다~ 말씀주신 영상 링크랑 플레이 리스트를 넣는거 확인해볼게요~ 이전 영상 링크를 넣는다고 넣긴하는데 제목이 잘려서그런지 이상하긴하드라구요;;

  • @AiSuYeonArt
    @AiSuYeonArt 9 месяцев назад +1

    감사합니다!~ 닌자님 덕분에 좋은 영상 잘 만들고 있습니다!~ 정말 감사합니다!~

  • @석이에AI이야기
    @석이에AI이야기 9 месяцев назад +1

    이렇게 좋은 방법이 있었군요 ㅋㅋ 전 좀 무식한 방법을 써서 AnimateDiff 영상을 만들어서 좀 시간이 걸렸는데 뉴럴닌자님에 이 영상을 보니 많이 배워가네요. 감사합니다 😊

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      도움이 되셨다니 좋네영 ㅋ_ㅋ;; 저도 그렇게하다가 좀 만 길어져도 너무 빡세서 요롷코름해봤어요~

  • @funEone
    @funEone 9 месяцев назад +1

    왠지....딱 저를 위한 강좌 같아서 너무 감사한 마음으로 두번 시청했습니다~ 이제 큐 걸어보고 되는지 확인해보고 올게요! 정말 고맙습니다^^

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      감사합니다~ ㅋ_ㅋ 맞아요~ 마침 비슷한 케이스 같아서 이 영상부터 올렸어요~

  • @pdjay8912
    @pdjay8912 9 месяцев назад +1

    존경합니다!

  • @jwj460
    @jwj460 4 месяца назад +1

    정말 열심히 구독하고 있어요. 생성한 짧은 동영상 파일 합치기 할때 폴더내의 py파일 3개는 어디서 구할수 있는지 궁금합니다.

    • @neuralninja-ai
      @neuralninja-ai  4 месяца назад

      더보기 설명에 보시면 설명서 링크가 있어요~ 그 설명서에 파이썬 스크립트를 다운받으시면되요~

  • @썰창고-d4x
    @썰창고-d4x 8 месяцев назад +2

    매번 좋은영상 감사합니다 할때마다 오류가 있으면 찾아보는편인데요 이틀째 이것만 하고 있어서요 ㅠㅠ 오류해결법좀 알려주세요
    C:\Users\gold\Downloads\aa>python extract.py
    Traceback (most recent call last):
    File "C:\Users\gold\Downloads\aa\extract.py", line 2, in
    import ffmpeg
    ModuleNotFoundError: No module named 'ffmpeg' 영상을 이미지로 변경하려고하는데 이런 메세지가 나와서 저번에 배웠던 .\python_embeded\python -m pip install 오류이름 으로 설치 했는데도 안되서요 다른 방법이 있을까요?

    • @neuralninja-ai
      @neuralninja-ai  8 месяцев назад +1

      이경우엔 pip install ffmpeg-python 이렇게만 치시면되요~ ffmpeg은 조금 특이하게 모듈명이 ffmpeg-python이라 이부분도 혼란이 있겠네요; 설명서에 추가해놔야겠네영

    • @neuralninja-ai
      @neuralninja-ai  8 месяцев назад +1

      comfyui에 모듈추가와 다른 이유는 comfyui는 venv(가상환경)안에 python으로 실행하기때문에 윈도우에 설치한 python과는 별도로 구성되어있어요~

    • @썰창고-d4x
      @썰창고-d4x 8 месяцев назад +1

      @@neuralninja-ai 해결되었어요 ModuleNotFoundError: No module named 'PIL' 오류는 pip install pillow 로 해결했구요^^ 매번감사합니다

  • @rainmaker3785
    @rainmaker3785 5 месяцев назад +1

    닌자님 긴 영상을 이어 붙일때 꼭 load image 가 아닌 load video로 이미지처럼 100프레임씩 나눠서 이어 붙여도 괜찮은거겟죠?

    • @neuralninja-ai
      @neuralninja-ai  5 месяцев назад

      네넹 똑같죠~ 영상에도 짧게 내용이 나오긴해요~

  • @recajin
    @recajin 6 месяцев назад +1

    영상 frame count 받아오는 노드 저건 어떻게 불러내나요? // 파이썬을 알아야 좀 이해하기 쉬우려나.. 따라가기 빡세긴하네요 초보자입장에서 ㅠㅠ 뭔가 짧게라도 원리라던가 쓰는 이유를 같이 설명해주시거나 영상에서 못한건 더보기에 글로라도 남겨주시면 더 좋은 영상이 될듯하네요~ 뭔지도 모르고 그냥 건너뛰는게 있으면 갑자기 막힐때 방법을 찾기가 힘드네요 ㅠ

    • @neuralninja-ai
      @neuralninja-ai  6 месяцев назад +1

      고걸 빼먹었네요;; display int (rgthree커스텀노드) 이에요~ 값을 볼수있는 노드면 다른것도 상관없어요~
      python으로 만들어진 프로그램은 이해하시기보다는 영상 클립들을 합치기 위한 영상편집툴 대용이라고 생각하시면 편해요~
      영상편집툴을 이용하시면 더 편하게 영상 클립들을 이어붙이실수 있어요~

    • @recajin
      @recajin 6 месяцев назад +1

      @@neuralninja-ai 감사합니당~~ 아하 최근에 흥미가 생겨서 어떻게 시작해야할지 이곳저곳에서 보다가 잘 배우고있어요 ~ compyui를 쓰면 조금 더 동작원리를 배울수있다기에 (확실히 더 복잡하긴 하네요 ㅎㅎ)

    • @neuralninja-ai
      @neuralninja-ai  6 месяцев назад +1

      ruclips.net/video/P2UKCgDA_0o/видео.html
      기본 노드 설명영상도 올리고 있어요~
      ...아직 두개뿐이라 부족하지만;; 노드 설명과 노드 사용방법등 계속 업데이트 할예정이에요!

  • @yeongwoonLee
    @yeongwoonLee 9 месяцев назад +1

    3분 40초경 Load Video를 하시다 갑자기 Lode Image로 넘어 갔는데 Load Video로 하는
    추가 설명이 있으면 좋겠습니다 ;)

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад +1

      설명이 부족했나보네영~ 영상은 전체적으로 load images path를 기본으로 설명하고 있지만, load video path도 전체 프레임수만 구하고난뒤에는 똑같이 load_cap과 skip 만 조절하면 된다는 설명이였어요~

    • @yeongwoonLee
      @yeongwoonLee 9 месяцев назад +1

      @@neuralninja-ai 그렇군요. 감사합니다. 영상이 끊긴줄 알았습니다 :)
      닌자님 궁금한게 있는데, 저는 완성된 화면이 노릇하게 변색이 되는데 혹시 이유를 아실까요? 저기 아래의 글을 보니 LCM써서 색감이 별로라는 얘기가 있던데요.

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад +1

      넹 lcm을 적용하면 색감과 디테일이 좀 아쉽더라구요~ 달라지는것도 모델마다도 조금씩 다르다보니 load_cap을 15정도로 낮게 설정해서 step과 cfg를 조금씩 조절해서 확인해보는게 좋은거 같아요~

    • @yeongwoonLee
      @yeongwoonLee 9 месяцев назад

      @@neuralninja-ai 감사합니다!

  • @wesleycho6866
    @wesleycho6866 5 месяцев назад +1

    뉴럴닌자님 강의보고 열심히 공부하고 있는데요. DWPreprocessor 노드가 설치가 되지 않는데 해결방법이 있을까요?

    • @neuralninja-ai
      @neuralninja-ai  5 месяцев назад +1

      에러가 워낙 다양해서;; 에러메세지가 있어야 저도 같이 찾아볼수 있을거 같아요~
      일단 onnx문제가 젤 많은거 같으니까.. detector랑 estimator를 torchscript.pt 로 변경하시고 해보세요~

    • @wesleycho6866
      @wesleycho6866 5 месяцев назад +1

      @@neuralninja-ai 에러메세지는 없고 그냥 노드가 설치되어 있지 않다고만 나와서요. modaux dwpose노드로 DWPreprocessor노드를 대체할 수 있을까요?

    • @neuralninja-ai
      @neuralninja-ai  5 месяцев назад

      그건 좀 이상하긴하네요;; 다른 preprocessor들은 나오시나요? comfyui_controlnet_aux 커스텀 노드를 다시 설치하거나 업데이트 해보시는게 좋을거 같아요!
      modaux dwpose안써봐서 확실치는 않지만 preprocessor는 이미지를 리턴받는거뿐이니까 같은기능이면 상관없어요~ 아니면 openpose로 대체하셔도되요~

    • @wesleycho6866
      @wesleycho6866 5 месяцев назад +1

      @@neuralninja-ai 해결되었습니다. 기존 설치된 aux를 지우고 새로 다운로드 후 설치하였더니 해결되네요. 감사합니다.

  • @petEdit-h9l
    @petEdit-h9l 9 месяцев назад +1

    Pls turn on the the English translation, thanks for this 😊

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад +1

      I uploaded it ~ I only uploaded the translation using whisper, so I haven't checked the timing yet;;

  • @국밥든든-x7f
    @국밥든든-x7f 7 месяцев назад +1

    클립을 생성할때 미리 걸어두면 비디오 컴바인 노드에 마지막에 걸어둔 영상만 재생되지 않나요?? 생성될때마다 자동 저장 기능은 없을까요?? 계속 클립 완성되는거 기다렸다가 다음 클립 작업하고 하는게 은근히 힘드네요 ㅠㅠ

    • @neuralninja-ai
      @neuralninja-ai  7 месяцев назад

      재생은 마지막 영상만 되지만 저장은 queue 눌렀을때 당시 노드값으로 차례대로 되니까 재생되는거 상관없이 쭉 걸어두시면되요~

    • @국밥든든-x7f
      @국밥든든-x7f 7 месяцев назад +1

      쭉 걸어두고 자고 일어났는데 마지막 영상만 재생되고 있더라구요 ㅠㅠ 저장해보니 마지막 영상만 저장 되던데 해결 방법이 없을까요??

    • @neuralninja-ai
      @neuralninja-ai  7 месяцев назад

      뭔가 이상하네요;; 파일이 새로 생기는게 아니라 덮어써지는건지.. save_output옵션 켜져있는지 확인해보시고 vhs 문제일수 있으니 업데이트를 해보세요~ 그리고 길게말고 10장씩 짧게 만들어보면서 한번 테스트를 해보세요~

  • @ki-nami
    @ki-nami 3 месяца назад +1

    load video 옆에 프레임을 카운팅하는 input 노드는 어떻게 설치하는건가요

    • @neuralninja-ai
      @neuralninja-ai  3 месяца назад

      죄송해요 답변이 늦었네요~ display int (rgthree커스텀노드) 이에요~ 값을 볼수있는 노드면 다른것도 상관없어요~

  • @TTTPmom
    @TTTPmom 6 месяцев назад +1

    닌자님 webui 애니메이트
    디프 가이드 영상도 제작 해주실수있나욥!❤

    • @neuralninja-ai
      @neuralninja-ai  6 месяцев назад

      이 영상같은 animatediff v2v는 이래저래 comfyui가 직관적이고 이해하기 좋은거 같아요!
      travel이나 다른 기본기능들은 언제한번 정리해보려고요~
      아래 내용은 이전에 답변 복붙해봤어요~
      sdwebui에서 animatediff v2v를 간단하게 말씀드리면,
      img2img 에서 사이즈랑 샘플러 디노이징 설정하시고, 아무이미지 하나 올려놓으시고, animatediff 안에서 enable animatediff 체크하시고, Video Source에 원본 영상올리시고, mp4 선택하시고, generate누르시면되요~
      controlnet 필요하시면 같이 선택해주시고요~

  • @Ai_artgraphic
    @Ai_artgraphic 5 месяцев назад +1

    When loading the graph, the following node types were not found:
    ConstrainImageforVideo|pysssss
    Nodes that have failed to load will show as red on the graph.
    워크플로우 불러오니 이렇게 뜨는데 이 노드는 어떻게 찾아야할지 모르겠어요 ㅠㅠ

    • @neuralninja-ai
      @neuralninja-ai  5 месяцев назад

      더보기 설명서에 있는 custom-script 커스텀 노드를 설치하시면되요~

    • @Ai_artgraphic
      @Ai_artgraphic 5 месяцев назад

      @@neuralninja-ai 정말감사합니다

    • @Ai_artgraphic
      @Ai_artgraphic 5 месяцев назад +1

      @@neuralninja-ai 설명해주신대로 노드 설치했는데도 똑같은 오류가 뜨네요 ㅠㅠ

    • @neuralninja-ai
      @neuralninja-ai  5 месяцев назад

      해당 커스텀 노드를 추가했는데도 없다고 나오는거면 import fail이 된걸수도 있을거 같아요~
      ruclips.net/video/ducn3nWvBKo/видео.html 이 영상을 참고해보시면 모듈 설치방법이나 오류 해결방법들을 설명해두었어요~

    • @Ai_artgraphic
      @Ai_artgraphic 5 месяцев назад

      @@neuralninja-ai 자세한 설명 감사합니다

  • @사과중국
    @사과중국 2 месяца назад +1

    어떨땐 animediff쓰고 morph쓰고 interpolation쓰고 판단을어떻게하나요

    • @neuralninja-ai
      @neuralninja-ai  2 месяца назад

      답변이 늦었네요~ 질문을 잘 이해를 못했어요;; 모핑이나 보간은 그냥 정해진 기법 아닌지.. animatediff는 간단한 움직이는 짤을 생성하거나 이 영상에서처럼 video2video 생성시에 이미지 일관성을 얻기위해 사용되영

  • @saladlatte
    @saladlatte 8 месяцев назад +1

    Prompt outputs failed validation
    VHS_LoadImagesPath:
    - Custom validation failed for node: directory - Directory 'G:\내 드라이브\AI\bird02.mp4' cannot be found.

    • @neuralninja-ai
      @neuralninja-ai  8 месяцев назад

      "내 드라이브" 이부분을 간단한 영문 폴더로 변경하고 해보세영~ 한글이나 띄어쓰기가 문제가 되기도해요~

  • @GOVERSE82
    @GOVERSE82 9 месяцев назад +1

    아~ 이거를 못 찾아서 유료 서비스 결재 했는데....ㅠ.ㅠ 차근차근 따라해보겠습니다.

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      헛;; 코랩 유료 말씀하시는거면 고용량램 모드 쓰시려면 유료써야 하는게 맞아영~

  • @reverse_engineering
    @reverse_engineering 9 месяцев назад +1

    본업이 ai쪽이신가요? 매번 좋은 정보주시는데 직장인으로서 따라할 시간이 부족하네여 ㅠ

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      아뇨~ 저도 본업과 ai랑 직접적인 관계는 없어영~ 그냥 관심이 아주 많은거 뿐이져 ㅋ_ㅋ;; 천천히 해보세영~ 몇개 따라하다보시면 고놈이 고놈이라 금새 하실거에요~

    • @reverse_engineering
      @reverse_engineering 9 месяцев назад

      @@neuralninja-ai 끊임없이 연구하고 내용 공유까지 하는게 대단해요!!

  • @uu-AiBoss
    @uu-AiBoss 9 месяцев назад +1

    ... comfyui 연습좀 해야되는데 왜 저는 이미지가 자꾸 깨질까요... 얼굴 보정도 안되고.. 따라했는데 너무 힘드네요 +_+ 연습 부족인건가요?

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      lcm 적용하면 이쁘게 뽑는데는 한계가 있긴하더라구요~ 저도 만들어놓고 올리지도 못하는게 수두룩;; 테스트로 10장 내외로 짧게 짧게 돌리면서 변환되는 느낌 확인하는것도 좋은거 같아요~ 얼굴 보정은 어느정도 크기가 있으면 그럭저럭 되는데 작은경우는 a1111에서 얼굴만 i2i로 다시 돌려주는게 더 낫기도하구요..

  • @catpge
    @catpge 9 месяцев назад +1

    안녕하세요 영상에서 애니메이트 디프 로더 노드 부분에서 뉴럴님과 같은 모델로 해보니까 "SD1.5 모델용이지만 제공되는 모델은 타입 SDXL입니다" 이런 오류 메세지가 뜨는데 혹시 어떤게 문제일까요??

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      애니메이트 디프 노드에 모델네임에 mm_sdxl 같은 sdxl용 모델이 선택되신거 같아요~

    • @catpge
      @catpge 9 месяцев назад +1

      @@neuralninja-ai 그럼 sd1.5용 모델을 써야하는거죠? Sd1.5모델이라고 해서 다운받은건데 저런 오류가 뜨네요 ㅠㅠ뉴럴님이 사용하신 모델 다운경로 알수있을까요?

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      아.. 지금보니까 반대인거 같네요?;; checkpoint나 다른거를 sdxl버전을 쓰신거 같아요~ checkpoint, lora, controlnet model등의 sd모델은 한종류로 맞춰야해요~ animateiff모델은 여기서 확인하시면되요~ huggingface.co/guoyww/animatediff/tree/main

    • @catpge
      @catpge 9 месяцев назад

      @@neuralninja-ai 모델을 다운 받아서 mm_sd_v15.ckpt. 모델로 했는데도 Motion module 'mm_sd_v15.ckpt' is intended for SD1.5 models, but the provided model is type SDXL. 이런 오류창이 뜨는데 해결이 안되네요..해결되었습니다!

  • @rcdiy4832
    @rcdiy4832 8 месяцев назад +1

    Error occurred when executing KSampler:
    mat1 and mat2 shapes cannot be multiplied (1232x2048 and 768x320)

    • @neuralninja-ai
      @neuralninja-ai  8 месяцев назад +1

      이건 base model이 다른게 섞였을때 나오는거 같아요~ 예를들어 체크포인트는 sd1.5인데 컨트롤넷 모델은 sdxl용을 사용했다거나요

    • @rcdiy4832
      @rcdiy4832 8 месяцев назад

      @@neuralninja-ai 네

  • @ai.io10101
    @ai.io10101 9 месяцев назад

    Kelas kapt from indonesia 🔥🔥🔥🔥🔥🔥

  • @신아소라멘
    @신아소라멘 7 месяцев назад +1

    comfyui 아직 적응이 안되는데 sd로도 가능한거죠?

    • @neuralninja-ai
      @neuralninja-ai  7 месяцев назад

      변환은 sdwebui animatediff를 이용하시면 가능하세요~ 다만 이 영상은 짧게 끊어서 이어붙인다는건데 이건 sdwebui자체로는 힘들수 있어요~

  • @부정선거4.15
    @부정선거4.15 9 месяцев назад +1

    스승님 sd 포지가 나왔습니다, 테스트해보겠습니다

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      ㅎㅎ넹 후기 알려주세요~ 전 빠른거 같기도 하고 아닌거 같기도하고 긴가민가하더라구요 ㅋㅋ 코랩쪽은 이게 나을거같아서 추가는 하려구요~

    • @부정선거4.15
      @부정선거4.15 9 месяцев назад

      @@neuralninja-ai 유투버들이 소재가없는지 물고빨고하더라고요. 업데이트 드리겠습니다

  • @랑랑-y2u
    @랑랑-y2u 9 месяцев назад +1

    선생님 control_v11p_sd15_lineart_fp16 [5c23b17d] 이모델은 어디서 다운 받을수 있나요? ㅠㅠ

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад +1

      huggingface.co/comfyanonymous/ControlNet-v1-1_fp16_safetensors/tree/main 여기서 받으시면되는데 지금 잠시 허깅페이스가 뻗은거같네요;;

    • @랑랑-y2u
      @랑랑-y2u 9 месяцев назад +1

      @@neuralninja-ai 선생님이 제공해주신 코렙사이트 실행주소 에서 접속후에 이미지 생성 하는데 컨트롤넷 모델 선택 부분이 none 이라고 뜨면서 안되네요 ㅠㅠ

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      아하 그말씀이었군요 지금 허깅페이스서버가 뻗어서 모델을 다운받지 못해서 그런거 같아요~ ai쪽 모델은 거의 대부분 허깅페이스에 의존하다보니.. 아마 금새 복구될거에요~

  • @Fox_songplay
    @Fox_songplay 7 месяцев назад +1

    Error occurred when executing KSampler:
    'NoneType' object has no attribute 'shape'
    뉴럴닌자님 이러한 오류가 발생했는데 알 수있을까요 ... ?
    다르게해보니 이렇게도 뜹니다./
    Error occurred when executing KSampler:
    'ModuleList' object has no attribute '1'
    File "C:\AI\ComfyUI_windows_portable\ComfyUI\execution.py", line 151, in recursive_execute
    output_data, output_ui = get_output_data(obj, input_data_all)
    ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
    File "C:\AI\ComfyUI_windows_portable\ComfyUI\execution.py", line 81, in get_output_data

    • @neuralninja-ai
      @neuralninja-ai  7 месяцев назад

      controlnet 쪽에서 발생한 문제일수 있어요~ 컨트롤넷 하나씩 제외해보셔서 어느 컨트롤넷과 preprocessor가 문제인지파악해보는것이 도움이 될수 있을거 같아요~

    • @Fox_songplay
      @Fox_songplay 7 месяцев назад

      감사합니다! 해보겠습니다!@@neuralninja-ai

    • @Fox_songplay
      @Fox_songplay 7 месяцев назад +1

      컨트롤넷을 다 삭제하니 해결되었습니다!@@neuralninja-ai

    • @neuralninja-ai
      @neuralninja-ai  7 месяцев назад +1

      해결하셨다니 다행이네요~ 전처리에서 처리된 이미지가 잘못되거나 컨트롤넷 모델과 맞지않을때 그러는거 같아요~

  • @rcdiy4832
    @rcdiy4832 8 месяцев назад +1

    이미지 파일은 png 파일만 가능한가요?

    • @neuralninja-ai
      @neuralninja-ai  8 месяцев назад +1

      아뇨 jpg도 상관없어요~

    • @rcdiy4832
      @rcdiy4832 8 месяцев назад

      @@neuralninja-ai sp^^

  • @DH21_3
    @DH21_3 9 месяцев назад +1

    옷만 바꿀 수 있나요?

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      ruclips.net/video/igSN7kulawk/видео.html 이런식으로 일부분만 마스킹하는 이미지들도 만들어서 하면 되긴할텐데.. 영상에서 옷만 마스킹한다는게 아마 쉽진않을거에요~ 전체를 바꾸고 원본 얼굴이나 머리를 다시 덮는식이 좀 더 나을거 같아요

  • @error_code_82
    @error_code_82 9 месяцев назад +1

    아 LCM으로 돌리면 되겟구나~ 근데 LCM으로 돌리면 화질이 나쁘던데...

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад +1

      맞아요~ lcm은 빠른대신 데테일이 떨어지는거 같아요~ lcm은 메모리랑 상관없이 스텝수만큼의 속도차이만 있을거니까 적용하셔도되고 안해도되요~

  • @두근이-p9c
    @두근이-p9c 9 месяцев назад +1

    2빠 😂

    • @neuralninja-ai
      @neuralninja-ai  9 месяцев назад

      빠르신! 감사합니다! ㅋ_ㅋ