전에는 몰랐습니다.컴퓨터 사양이 낮아서 무료 코렙을 사용하고 있는데 잘 되다가도 계속 오류가 생겨서 안되는 경우가 한번씩 발생하더군요. 이것도 해보고 저것도 해보고... 그러다 포기하고 몇일 있다가 다시 해보면 실행이 되더군요. 진짜 몰 랐습니다. 우리 같은 사람을 위해 업데이트를 해 주셨더군요. 그것도 최근에 알게 됐습니다. 닌자 형님이 없다면 우리 같은 사람은 스테이블 디퓨전 하지도 못한다. 만수무강하세요. 형님. 진짜 닌자 형님은 신이다!!!
뉴럴닌자님은 새로운 워크플로우를 짤때, 어떤 노드를 사용하는지 어떻게 공부하는 방법을 추천하시나요? 예를들어 사진 두개를 그림자와 빛처리가 자연스럽게 합성하고싶다 라는 목표가있는데요, VAE라던지 Ksampler 라던지 하나하나 노드가 너무많고 용어도 이해가 잘 안되서 공부하는데 진도가 늦은 느낌이어서요.. 어디에 뭐를 붙여야하는지도 모르겠고.. 그래서 결국 누가 제가 원하는 workflow 를 올려뒀는지 찾고 그걸 역순으로 해체해가는식으로 공부를 하는데, 이게 더디고 사고력이나 창의력이 느는 느낌이 안나네요..
Stable-diffusion Image 쪽 핵심노드는 몇개 안되서.. 이건 확실하게 알아두시는게 좋을거 같아요~ ruclips.net/video/P2UKCgDA_0o/видео.html 기본 노드 설명 이걸 중심으로 활용할수 있는 신규 기술들 controlnet,sam,llm 등이 어떤 기능을 하는지만 파악해서 할수있는법한 작업을 생각해보는거죠~ 관련 기술의 커스텀 노드가 존재하면 구현해볼수 있는거고 없으면.. 기다려야하는거죠;; 말씀하신 빛처리도 depthmap relight 관련해서 예전부터 기술은 어느정도 이야기되고 있었지만 마땅한 커스텀 노드가 없어서 기다리다가.. 이제 ic-light라는 커스텀 노드가 나와서 시도해볼수 있는.. 요런 느낌이죠~
I'm not sure if I understood correctly, but.. wouldn't it be possible to brighten the image with something like "comfy_mtb/Color correct" custom node. and.. change the background other than the bottle to a mask like in this video. I think “highlight” can be difficult. if you mean adding light effects without damaging image... clipdrop.co/relight, there should be a solution like this.
혹시 전신 인물 사진에 배경을 바꾸려고한다면, 뉴럴닌자님은 어떤 방법을 사용하실까요? (segment 나 canny, MLDS 등으로 다시만들어도 좋을거같은데..) 1. 사람뺴고 전부 인페인팅을 해버리면 그림자가 어색하고 2. 또 사람빼고 마스킹을 해도, 그 뒤에 생성되는 그림에 사람이 있어서 테두리로 다른사람의 팔이나 다리가 삐져나오는 상황이 발생합니다. 혹시 2번 어떻게 처리할 수 있는지 방법이 있으신가요?
For the eyes and face, you can use FaceDetailer (ComfyUI-Impact-Pack), and for the fingers, you can use MeshGraphormer Hand Refiner (comfyui_controlnet_aux)~
헛 이상하네요;; 말씀하신대로 하면 될거 같아요~ 그렇게 하면 일단 영상을 떠나서 여러장의 이미지를 순차적으로 변환하는것뿐이니깐요~ 추가적으로는 constrain image를 for video 노드로 변경하셔야할거같고요 아마 이미지들이 제각각 놀테니까 animatediff 를 중간에 껴넣으면 어느정도 일관된 영상을 얻을수 있을거에요~
@@neuralninja-ai혹시comfyui에서 마스킹 한 부분 인 페인팅을 지금 보내주신 fooocus로 하는 노드가 있을까요? 있다면 무엇인가요? 또 요즘 새로 나오는 노드들은 계속 github같은 데서 뉴스를 받아 보시는 건가요? 새로나오는 새로운 기능들을 어떻게 공부를 해야 될지방법을 모르겠어서요
@@neuralninja-ai 혹시 comfyui 에 뉴럴닌자님이 올려주신 fooocus 인페인팅 노드가 있나요? 있다면 이름이 뭔가요?? 또한 새로운 기능이 나오는 것 뉴스를 항상 공부흐고 업데이트 받으시는 건가요? Github깉은곳에서 상주하면서 계속 공부를 해야 하나 싶어서요
아.. 제가 잘 하고있었는데, 제가 뭘 만져서 그런지 이상하게 "Error occurred when executing GroundingDinoSAMSegment (segment anything): Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu! (when checking argument for argument mat2 in method wrapper_CUDA_mm)" 이런 에러가 계속 뜹니다.. 혹시 어떤게 문제인지 감이 잡히실까요? ㅠㅠ 몇번이고 삭제하고 재설치해봐도 답이 안나옵니다..ㅠ ㅠㅠ
이 워크플로우 그대로 사용했을때 "NOTE:'Segs & Mask' has been renamed to 'ImpactSegsAndMask.' Please replace the node with the new name." 이 에러가 뜨는데 어떻게 해결하나요? ㅠㅠ 컴피유아이 매니저에도 안뜨네요
sd를 거치게되면 인물이든 악세든 어느정도 변조가 생기다보니.. 차라리 두 이미지를 합성한다고 생각하고 접근하시는게 더 나을수 있어요~ 포토샵에서 어설프게라도 배치를 잘하고 주변부를 sd를 이용해서 자연스럽게 보정/생성하시면 좀 더 자연스러운 이미지를 얻으실수 있으실거에요~ ruclips.net/video/cAf4gNQ1WUk/видео.html 딱 적절한 예제는 아니지만 포토샵과 인페인트를 이용해서 어떤식으로 진행되는지 참고하실수 있어요~
관리자님께 진심으로 감사드립니다. 튜토리얼이 너무 친절하고 이해하기 쉽네요
도움이 되셨다니 좋네영~ 좋은말씀 감사합니다~
Very helpful with the subtitles. Thanks a lot
한국의 빛이십니다.
좋은 강좌 늘 감사합니다!
좋은말씀 감사해요!!
강의 너무너무너무너무너무너무 x100 도움되고,, 이정도 양질의 강의를 무료로 배포해주셔서 정말 감사합니다!!
좋은 말씀 감사해요~!! ㅋ_ㅋ
@@neuralninja-ai 감사합니다! 빛입니다 빛
뉴럴닌자님 항상 감사합니다^^
그리고 응원합니다~~
저도 시청해주셔서 감사해요~ ㅋ_ㅋ
항상 잘 보고 있습니다!스승님 새해 복 많이 받으세요!
감사합니다~ ㅋ_ㅋ 님도 새해복 많이 받으세요!
좋은영상 정말정말 감사합니다~ 새해 복 많이 받으세요!🙇
저도 감사해요~ 님도 새해복 많이 받으세요!
앗 늦었다 3빠, 선생님 즐거운 명절 보내고 계신지요? 올 한 해도 잘 부탁드립니다.
ㅎㅎ잘 쉬고있져~ 저도 잘 부탁드릴게요~ 남은 연휴 잘보내세요!
와아 너무 좋아요. 예전에 말씀드린 2명 생성 후 따로 로라 먹이는 것도 해주시면 안될까요? 시간 나실 때요! 늘 잘 보고 있습니당
좋은말씀 감사해요~ 넹 다음에 꼭 해볼게요~ trigger가 있는 로라면 mask conditioning이 있어서 간단할텐데 그냥 로라는 여러모로 간단할거 같지 않더라구요~ 이 영상처럼 약간의 합성의 영역이 될거 같아요
전에는 몰랐습니다.컴퓨터 사양이 낮아서 무료 코렙을 사용하고 있는데 잘 되다가도 계속 오류가 생겨서 안되는 경우가 한번씩 발생하더군요. 이것도 해보고 저것도 해보고... 그러다 포기하고 몇일 있다가 다시 해보면 실행이 되더군요. 진짜 몰 랐습니다. 우리 같은 사람을 위해 업데이트를 해 주셨더군요. 그것도 최근에 알게 됐습니다. 닌자 형님이 없다면 우리 같은 사람은 스테이블 디퓨전 하지도 못한다.
만수무강하세요. 형님.
진짜 닌자 형님은 신이다!!!
좋은 말씀 감사합니다~ 입문하시는분들이나 간단히 쓰시는분들 해보시라고 업데이트는 하고 있어요~ ㅎㅎ 진짜 신은 구글신이죠! 막더라도 조그마한 활로는 열어둔 구글신에게 감사드리며 저도 잘이용하고있어영 ㅋ_ㅋ
요번 편 꿀잼 포인트는 30-30=0 이 아니라는 점. 영상에 힘입어 reroute(+title)로 지하철 2호선 워크플로우 그리러 갑니다. 감사하빈다
그러게요 expand의 묘미네영 ㅋ_ㅋ 지하철 워크플로우는 link render 모드 straight가 어울릴듯;
뉴럴닌자님은 새로운 워크플로우를 짤때, 어떤 노드를 사용하는지 어떻게 공부하는 방법을 추천하시나요?
예를들어 사진 두개를 그림자와 빛처리가 자연스럽게 합성하고싶다 라는 목표가있는데요,
VAE라던지 Ksampler 라던지 하나하나 노드가 너무많고 용어도 이해가 잘 안되서 공부하는데 진도가 늦은 느낌이어서요.. 어디에 뭐를 붙여야하는지도 모르겠고.. 그래서 결국 누가 제가 원하는 workflow 를 올려뒀는지 찾고 그걸 역순으로 해체해가는식으로 공부를 하는데, 이게 더디고 사고력이나 창의력이 느는 느낌이 안나네요..
Stable-diffusion Image 쪽 핵심노드는 몇개 안되서.. 이건 확실하게 알아두시는게 좋을거 같아요~
ruclips.net/video/P2UKCgDA_0o/видео.html 기본 노드 설명
이걸 중심으로 활용할수 있는 신규 기술들 controlnet,sam,llm 등이 어떤 기능을 하는지만 파악해서 할수있는법한 작업을 생각해보는거죠~
관련 기술의 커스텀 노드가 존재하면 구현해볼수 있는거고 없으면.. 기다려야하는거죠;;
말씀하신 빛처리도 depthmap relight 관련해서 예전부터 기술은 어느정도 이야기되고 있었지만 마땅한 커스텀 노드가 없어서 기다리다가.. 이제 ic-light라는 커스텀 노드가 나와서 시도해볼수 있는.. 요런 느낌이죠~
감사합니다!
저도 감사합니다!
tell me the keywords for highlighting the background and product
sorry, i guess i didn't understand very well;;
how can I highlight for example a bottle and change the background@@neuralninja-ai
I'm not sure if I understood correctly, but.. wouldn't it be possible to brighten the image with something like "comfy_mtb/Color correct" custom node. and.. change the background other than the bottle to a mask like in this video. I think “highlight” can be difficult. if you mean adding light effects without damaging image... clipdrop.co/relight, there should be a solution like this.
뉴럴닌자님 영상 너무 알기쉽고 잘 이해할 수 있게 진행하시네요. 감사합니다. 혹시 단톡방 같은것은 운영 안하시나요? 같은 레벨의 사람들끼리 서로 소통하며 질문할 수 있는 단톡방이 있으면 더욱 좋을것 같아 여쭤봅니다.
좋은 말씀 감사해요~! 단톡방은 없어요~ 생각은 했었는데.. 여기 답변드리것만으로도 사실 빠듯해서 여유가 없을거 같더라구요~
요것도 몇시간씩 늦어지는경우나 놓치는 댓글이 허다하니.... 문제에요 ㅋ_ㅋ;;
@@neuralninja-ai 그렇군요. 좋은일 하고 계시네요. 복받으실겁니다. 멀리서 응원 하고 있겠습니다
안녕하세요 이런 고급강의를 무료로 공유해주셔서 너무 감사합니다!!
혹시 궁금한게 있는데 혹시 이 워크플로우 안에서 인물의 포즈를 바꿀수는 없을까요?
포즈는 따로 워크플로우를 새로 제작해서 바꿔야 하는 것일까요?
좋은말씀 감사합니다!
요기서는 원본 얼굴을 살려서 어울리는 몸을 생성하기위해 원본 이미지 포즈도 그대로 이용하는거기때문에, 포즈를 변경할경우엔 이상해질거에요~
포즈 변경은 이 영상을 참고해주세요~
ruclips.net/video/hnAXbtOrZi8/видео.html
혹시 전신 인물 사진에 배경을 바꾸려고한다면, 뉴럴닌자님은 어떤 방법을 사용하실까요? (segment 나 canny, MLDS 등으로 다시만들어도 좋을거같은데..)
1. 사람뺴고 전부 인페인팅을 해버리면 그림자가 어색하고
2. 또 사람빼고 마스킹을 해도, 그 뒤에 생성되는 그림에 사람이 있어서 테두리로 다른사람의 팔이나 다리가 삐져나오는 상황이 발생합니다.
혹시 2번 어떻게 처리할 수 있는지 방법이 있으신가요?
ruclips.net/video/XHF9OIFY-yk/видео.html 일단은 배경사진에는 배경만 남게 해야할거 같고 그다음에 인물을 붙여서 인페인팅을하든 그냥 컨트롤넷이든 마스크든 잡고 생성을 하던 할거같아요~
이렇게 고퀄의 영상만 만들어주셔도 감사한데, 이렇게 댓글로 궁금한점까지 답해주셔서 정말 너무 감사합니다..!!
@@neuralninja-ai
Can you give me a hint? Is there a node in ComfyUI like in A1111 that fixes crooked eyes and fingers? I haven't found such a video yet (((
For the eyes and face, you can use FaceDetailer (ComfyUI-Impact-Pack), and for the fingers, you can use MeshGraphormer Hand Refiner (comfyui_controlnet_aux)~
@@neuralninja-ai Thank you so much. 😊
안녕하세요 스테이블 디퓨전 이제 막 입문한 스린이입니다. 지금껏 SD 사용하고있었는데, 뉴럴닌자님은 comfyUI로만 하시나요? 즉 comfyUI를 배우고 익숙해지면 거의 comfyUI로 이미지 생성하실 정도로 이게 더 편한가요?
아뇨~ 저도 둘다 이용해요~ sd-webui는 일반적인 sd기능들, 이미지를 생성하거나 인페인트할때 사용하고.. 컴파이유아이는 특별한 기능을 실행할때만 사용한다고 보시면되요~
닌자님영상보고 1111에서 콤피로 넘어왔어요 1111에서 자주쓰던 "인페인트 낫 마스크" 이건 콤피에서 어떻게 쓸수있을까요 그냥 "인페인트 마스크"는 쓰고있는데 ㅠㅠ
바꾸고싶은 사진 손이나 글자같은걸 남겨두고싶은데 마스크로 일일히 다 칠하고 글자부분만 마스크를 지우는 식으로 하고있어요
미리 구독눌러용
감사합니다~ 인페인트 마스크를 쓰고계시면 마스크를 invert mask 한번 거치면되실거에요~
@@neuralninja-ai 감사합니다 드디어 찾았습니다 ㅠㅠ
ㄱㄱㅑ 일빠다, 즐건 연휴되십시요
감사합니다~ 즐거운 연휴 되세요!! ㅎㅎ
선생님 따라서 해보고 있는데 dwpose 노드를 넣고 하면 거기서 에러가 뜨는데 따로 더 설치해야 하는게 더 있나요?
혹시 controlnet openpose 모델이 없으시면 넣어주셔야해요~ 설명서에 링크 추가했어요~
A1111 버전에서는 잘되는데 COMFYUI 에서만 안되네여.. 모델들도 다 들어가 있는 상태인데.. 그래도 답변 주셔서 감사합니다@@neuralninja-ai
헠;; 왜그럴까요 계속 안되시면 comfyui_controlnet_aux를 다시 설치해보세영~ 그리고 일단 dwpose말고 openpose preprocessor로 진행하셔도 상관은 없어영~
감사합니다~~!!! 여기에서 이미지 말고 video로 생성하려면 어떻게 해야할까요? load images, combine video로 시도해보고 있는데 mask들이 겹쳐서 엉뚱한 결과물이 나오네요 ㅠㅠ
헛 이상하네요;; 말씀하신대로 하면 될거 같아요~ 그렇게 하면 일단 영상을 떠나서 여러장의 이미지를 순차적으로 변환하는것뿐이니깐요~
추가적으로는 constrain image를 for video 노드로 변경하셔야할거같고요
아마 이미지들이 제각각 놀테니까 animatediff 를 중간에 껴넣으면 어느정도 일관된 영상을 얻을수 있을거에요~
아하 확대랑 보정하는 그런 노드들은 제외하고 간단하게 1차적인 ksampler만으로 해보세영
혹시 사람이 입은 옷까지 유지하고 배경만 바꾸고싶은데.. 이때 그림자 표현같은게 어색합니다, 빛이나 그림자를 자연스럽게 이을 방법이있을까요?
조명이 어렵죠;; 인페인트모델을 이용하면 좀 더 자연스럽긴해요~ ruclips.net/video/FfzM12Z9ts8/видео.html 참고하셔서 수동으로 인페인트 해보시면.. 이게 현재 나올수 있는 최선일거라.. 원하는 이미지를 얻을수 있을지 판단하실수 있을거에요~
@@neuralninja-ai혹시comfyui에서 마스킹 한 부분 인 페인팅을 지금 보내주신 fooocus로 하는 노드가 있을까요? 있다면 무엇인가요?
또 요즘 새로 나오는 노드들은 계속 github같은 데서 뉴스를 받아 보시는 건가요? 새로나오는 새로운 기능들을 어떻게 공부를 해야 될지방법을 모르겠어서요
@@neuralninja-ai 혹시 comfyui 에 뉴럴닌자님이 올려주신 fooocus 인페인팅 노드가 있나요? 있다면 이름이 뭔가요??
또한 새로운 기능이 나오는 것 뉴스를 항상 공부흐고 업데이트 받으시는 건가요? Github깉은곳에서 상주하면서 계속 공부를 해야 하나 싶어서요
덕분에 좋은 공부가 되고 있습니다. 궁금한게 있는데 혹시 얼굴에 초근접 스왑후 얼굴피부을 실감나게(솜털,주름,주근깨등) 묘사할수 있는 방법이 있을까요?
그럼 수고하세요^^
감사합니다! 그건 스왑과 상관없이 사진 디테일을 올리는 영역같아요~ 업스케일도 도움이 될거 같고 이전 영상인 ruclips.net/video/iCtyKP6sYNU/видео.html 으로 비슷한 얼굴로 다시 그리는게 도움이 될수 있을거같아요~
아.. 제가 잘 하고있었는데, 제가 뭘 만져서 그런지 이상하게 "Error occurred when executing GroundingDinoSAMSegment (segment anything):
Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu! (when checking argument for argument mat2 in method wrapper_CUDA_mm)"
이런 에러가 계속 뜹니다.. 혹시 어떤게 문제인지 감이 잡히실까요? ㅠㅠ 몇번이고 삭제하고 재설치해봐도 답이 안나옵니다..ㅠ ㅠㅠ
ㅠㅠ.. 알고보니 제가 체크포인트는 sdxl 모델을 사용하고, 컨트롤넷은 SD1.5 버젼을 사용해서였습니다.... ㅠㅠㅠㅠ
해결하셨다니 다행이네요~ 에러 메세지는 grounding dino 노드에서 device auto로 설정되었을때 나기도하는 메세지인거 같아요~
질문 있습니다 저는 SAMloader 가 노드가 서치가 되지 않습니다. 왜 그럴까요 ㅠ SAMmodelloader 만 떠요 ㅠ
제가 작성하다가 섞인거 같아요;; sam model loader가 맞아요~ samloader도 잘동작해서 눈치채지 못했네요 ㅋㅋㅋ;; samloader는 impact 커스텀노드에 있는거네요
이 워크플로우 그대로 사용했을때 "NOTE:'Segs & Mask' has been renamed to 'ImpactSegsAndMask.' Please replace the node with the new name." 이 에러가 뜨는데 어떻게 해결하나요? ㅠㅠ 컴피유아이 매니저에도 안뜨네요
뭔가 다른 오류실거 같아요~ 해당 오류는 impact pack 관련 오류같은데.. 이 워크플로우에선 impact pack노드를 사용하지 않아서요;;
ComfyUI-Impact-Pack을 지우고 다시 설치해보세요~
동일인물에 원하는 의류만 입히는방법좀알려주셔용
동일인물은 이영상처럼 원본이미지를 그대로 활용하거나 ruclips.net/video/hnAXbtOrZi8/видео.html 이 영상에서 후작업으로 얼굴만 수정하는식으로 유지하실수 있을거 같아요.. 원하는 의류는 로라를 이용하시는게 가장 좋을거고.. 얼추 비슷하게만 만든다면 ipadapter로 옷을 적용시킬수 있을거에요~
감사드립니다~^^
안녕하세요. Comfyui에서 intantid사용법도 다뤄주시면 감사하겠습니다. 포터블 버전을 쓰는데 자꾸 에러가 납니다 ㅠㅠ
저도 ipadapter_plus에 통합되길 기다리고 있어요 ㅎ_ㅎ 현재 나온것들은 다른 노드들과 연계가 불가능해서 애매하드라구요; 그전까진 그냥 automatic1111에서 사용하는게 더 유용할거 같아요!
프롬프트 마스크로 face 써놓았는데 팔에다가 마스크하고
다른사진으로 테스트도 해봤는데 기능이 이상해서 그런데 혹시 방도가있을까요?
아니면 다른 마스크 노드 추천부탁드려요!
gino가 그런면이 좀있죠;; open sam으로 직접선택해보셔도되고 자동은 github.com/chflame163/ComfyUI_LayerStyle 여기 PersonMask도 괜찮아요
Hello! How download workflow?
there is a link in the content(Documentation)~
@@neuralninja-ai is it only for google collab?
no~ it doesn’t matter if you use it install version on a local pc
@@neuralninja-ai ok, thank you
업스케일러가 작동하지 않아요 아무래도 뭔가 빠진 거 같아여. 제가 완전 초본데 지그 계속 돌려봐도 따라가지를 못하겠어요 , 도와 주세요
업스케일모델이 없으시면 github.com/ninjaneural/webui/blob/master/memo/comfyui_basic.md 요거 참고해서 다운받아주세요~
너무 잘 배우고 있습니다. 인물을 유지한 채로(아니 인물사진에) 원하는 악세사리(이미지) 를 그대로 착장시킬수 있는 방법이 있을가요? 텍스트 임베딩으로 말고요 ㅠㅠㅠ 인페인트 마스크에 레퍼런스나 아이피아답터써도 잘 안되네요 ㅠㅠ
sd를 거치게되면 인물이든 악세든 어느정도 변조가 생기다보니.. 차라리 두 이미지를 합성한다고 생각하고 접근하시는게 더 나을수 있어요~ 포토샵에서 어설프게라도 배치를 잘하고 주변부를 sd를 이용해서 자연스럽게 보정/생성하시면 좀 더 자연스러운 이미지를 얻으실수 있으실거에요~ ruclips.net/video/cAf4gNQ1WUk/видео.html 딱 적절한 예제는 아니지만 포토샵과 인페인트를 이용해서 어떤식으로 진행되는지 참고하실수 있어요~
@@neuralninja-ai 감사합니다! 해보겠습니다
이거 에니메이트 디프랑 같이 될까요?
넹 같이 될거에요~ 길이에따라 마스크 이미지들을 미리 만들어놔야할수도 있을거 같아요
제일 해보고 싶은게 두사진에서 하나는 배경 하나는 인물을 가져와서 합성 하는게 하고 싶은데 어떻게 가능한가요?
배경이미지는 ruclips.net/video/WEGD3KLRO60/видео.html 참고하셔서 배경에서 인물을 지우시고, 인물이미지는 comfy_mtb 커스텀노드의 Image Remove Background를 이용해서 배경을 지우시고 둘을 합치시면 될거 같아요~
이런게 있군요
기존의 배경사진이미지(프롬프트가아닌)를 그대로 유지한채 인물을 바꾸는방법은 없을까요
몇가지 방법이 있을거 같아요~ 이 영상에서는 머리 마스크를 구하고 반전시켜서 나머지를 생성했는데 반전 안시키면 머리만 변경시킬수 있으실거에요~
ksampler에 연결되는 seed 노드가 없어요 어떻게 생성하나요?
기본노드인줄 알았는데 착각했네요;; CR Seed로 변경해서 올려두었어요~ ComfyUI_Comfyroll_CustomNodes 다운로드 링크도 추가했어요~
groundingdinosams 노드가 안보이면 어떻게 찾을 수 있을까요?
설명서에 있는 comfyui_segment_anything 커스텀 노드를 설치하시면되요~
혹시 설치했는데도 안나오시면 comfyui 실행할때 import fail이 되었는지 확인하시고
ruclips.net/video/ducn3nWvBKo/видео.html 2:45 을 확인하셔서 모듈을 설치해주시면되요~
중국인들이 그대로 퍼가서 자기들 틱톡에 올리네요~ 워터마크 추가하셔요~~
히익;; 불펌; 말씀주신 워터마크로 로고같은거 달아도 괜찮긴하겠네요~