빵형님! 영상 잘봤습니다~ 궁금한게 하나 있는데요, 제가 Vox로 얼굴만 나온 사진과영상으로 진행 할때는 표정을 잘 따라하는데. Ted로 상반신까지 나온 사진과 영상으로 최대한 비율 맞춰서 진행했는데. 손동작 몸동작 인식을 전혀못하고 그냥 이미지가 일그러지기만 하는데. 혹시 원인이 뭘까요?ㅠ 제가 빵형님 코드에서 바꾼건 2개인데, Torch 문단에서 1) 'vox' 를 'ted' 로. 2) 'cofig/vox-256.yaml' 을'cofig/ted-384.yaml' 이게 끝. 더 바꿔줘야할게 있는건가요?ㅠㅜ
올리는 사진과 영상의 사이즈가 같아야 하나요? 아래와 같은 메세지가 뜨면서 안된다고 하는데 잘 모르겠어요.. The frame size for reading (2160, 3840) is different from the source frame size (3840, 2160). Traceback (most recent call last): File "/root/.pyenv/versions/3.8.13/lib/python3.8/site-packages/cog/server/runner.py", line 334, in predict return _predict( File "/root/.pyenv/versions/3.8.13/lib/python3.8/site-packages/cog/server/runner.py", line 370, in _predict for event in worker.predict(input_dict, poll=0.1): File "/root/.pyenv/versions/3.8.13/lib/python3.8/site-packages/cog/server/worker.py", line 135, in _wait raise FatalWorkerException( cog.server.exceptions.FatalWorkerException: Prediction failed for an unknown reason. It might have run out of memory? (exitcode -9)
와... 빌전속도가 놀랍도록 빠르네요. 사진 한장으로도 이정도 수준으로 합성하다니.
좋은 정보 감사합니다.
크 멋집니다!
Wow 좋아요.
신기하네요. 좋은 영상 매번 감사합니다
사기 강력처벌 해야겠어요
보이스피싱 너무심해요
국제결혼싸이트에서도 쓰고 있어요
실시간 스트리밍도가능할가요?
와 감사합니다
감 사합니다
초상권문제는없을가요?
좋은 정보 감사드립니다~~~ 소리는 출력이 안되는거죠?
감사합니다! 혹시 얼굴만 가능한건가요? 몸의 무빙도 합성가능한가요?
항상 영상 잘 보고 있습니다!
혹시 diff-svc에 대해서도 다루어 주실 수도 있을까요?
접수완료!
회원 가입해야 할수있는거죠? 그리고 동물얼굴에 합성해도 저런 효과가 나나요?
동물은 잘 안되더라구요. 원숭이는 아마 될겁니다
모델 학습에서 문제가 있는 것 같아요. "패키지/모델 로드"에서 에러 뜨네요. 깃헙 코드로도 해봤는데 똑같은은 에러 뜹니다. 본 코드 학습 과정에서 문제가 있는 것 같아요.
You look better in person than your picture! ㅎㅎ
좋은 자료입니다. 멋지네요.
딥페이크됨 영상을 다운받을 수 있나요?
ai를 이용해 영상을 만드는데 이것도 이용해 봐야겠네요 감사합니다.
Output
Unexpected token '
혹시 웹페이지도 구현가능할까요?
저거 트럼프 사진에서 안바뀌고 데모가 아닌 플레이그라운드 라고 되있는데 어케 해결함?
혹시 여기에 넣은 제 얼굴 사진이나 영상을 다른 누군가가 볼 수 있을까요?
이미지 위에 이미지는 안되나요? 꼭 영상만 되는 거 같아서요
사진이나 영상등 표본제시 해놓고 실시간 라이브에서 바로 적용되게 할 수도 있나요??
즉, 표본들 많이 제시하고 얼굴형이 비슷하면 퀄리티가 더 높을꺼같은데요. 맞나용??
ㄹㅇ 무슨 말 하는지 하나도 모르겠다 ㅠ
무슨말인지 대부분 이해못할듯
영상 너무 유익하게 잘 봤습니다. 그런데, 성룡 말고 다른 얼굴로 하려면 어떻게 해야 하나요? 그리고, vox 말고 ted나 taichi로 적용하려면 어떻게 해야 하나요?
비디오 다운버튼은 비디오 넣기 아래에 있고 ted 같은걸로 바꿀땐 비디오 다운버튼밑에 선택버튼 있습니다.
(taichi나 ted 같은 것들은 비디오가 조금 까다롭긴 함)
빵형님! 영상 잘봤습니다~ 궁금한게 하나 있는데요, 제가 Vox로 얼굴만 나온 사진과영상으로 진행 할때는 표정을 잘 따라하는데. Ted로 상반신까지 나온 사진과 영상으로 최대한 비율 맞춰서 진행했는데. 손동작 몸동작 인식을 전혀못하고 그냥 이미지가 일그러지기만 하는데. 혹시 원인이 뭘까요?ㅠ 제가 빵형님 코드에서 바꾼건 2개인데, Torch 문단에서 1) 'vox' 를 'ted' 로. 2) 'cofig/vox-256.yaml' 을'cofig/ted-384.yaml' 이게 끝. 더 바꿔줘야할게 있는건가요?ㅠㅜ
저도 ted는 안해봤는데, 이미지 사이즈를 384로 바꿔서 해보세요~
혹시 실시간 코드는 원본 깃허브에서 확인이 안되는데 없어진건가요?
realtime.py 파일입니다
github.com/kairess/Thin-Plate-Spline-Motion-Model/blob/main/realtime.py
감사합니다아 항상 영상 잘보고있습니닷
안녕하세요 늘 좋은정보 감사합니다..! 궁금한게 있는데요.. 소스코드 에 올라와 있는 colab주소를 누르면 뜨는 소스코드와, 그 안에 있는 깃허브(원본 소스코드)는 어떻게 다른건가요? colab에 있는건 기능을 조금 줄이더라도 간소화 한건가요??
네 간소화하고 보시기 쉽게 수정했습니다!
웹캠 있어야되나요?
이미지 다운해서 넣어도 됩니다
저런 얼굴로는 실시간 방송은 불가인가요?
네 죄송합니다 ㅠ
좀더 기술 발전하면 저 얼굴로 실시간 방송도 될걸요 시간이 문제지요
캠으로 mp4를 만들어서 그것으로 전처리 단계를 하면 코랩 런타임이 다운되네요.
빵형처럼 내 캠을 사용하여 실시간으로 처리하는 것은 어떻게 하는지 궁금합니다.
소스코드에 realtime.py 파일을 보시면 가능합니다!
가상 얼굴 생성안하고 사진으로는 안되나요?
가능합니다!
소리는 안나오나요?
네 소리는 따로 합쳐주셔야 합니다.
ㅋㅋㅋ
빵형 혹시 이렇게 만든 결과물을 원본 영상의 제 얼굴에 합성시키려면 무슨 모델을 쓰면될까요? 그럼 얼굴만 바꾸고 손자세나 의상은 자유롭게 할수있을거같아서 응용범위가 더 넓어질것같아요!
(이 코드에 있는 mode중에 ted 를 써봤는데 품질이 별로좋지가않아서 ㅠㅠ)
얼굴부분만 변형하고 다시 원본 사진에 붙이는 방법으로 하시면 될것 같아요!
이건 좋은 정보라기 보다는 요즘 범죄로 많이 아용되는거 같아요
식칼은 좋은 도구라기 보다는 요즘 범죄로 많이 아용되는거 같아요
프로그래밍은 좋은거라기보다는 해킹 등 범죄로 많이 아용되는거같아요
올리는 사진과 영상의 사이즈가 같아야 하나요? 아래와 같은 메세지가 뜨면서 안된다고 하는데 잘 모르겠어요..
The frame size for reading (2160, 3840) is different from the source frame size (3840, 2160).
Traceback (most recent call last):
File "/root/.pyenv/versions/3.8.13/lib/python3.8/site-packages/cog/server/runner.py", line 334, in predict
return _predict(
File "/root/.pyenv/versions/3.8.13/lib/python3.8/site-packages/cog/server/runner.py", line 370, in _predict
for event in worker.predict(input_dict, poll=0.1):
File "/root/.pyenv/versions/3.8.13/lib/python3.8/site-packages/cog/server/worker.py", line 135, in _wait
raise FatalWorkerException(
cog.server.exceptions.FatalWorkerException: Prediction failed for an unknown reason. It might have run out of memory? (exitcode -9)