프리셋은 모델링이나 조인트상태보다는 포즈몰프의 이름과 연관되어있습니다. 몸이 붙은 모델링이라도 포즈몰프이름이 arkit 기준으로만 되어있다면 어떤식으로든 작동이 됩니다. 다만 해드 조인트를 움직이는 부분은 조인트 방향과 관련이 있기때문에 이상하게 반응할수있습니다. 적용하고 문제가 된다면 메일로 파일보내주시면 확인해보겠습니다.
안녕하세요. 안현섭님 강의를 들으며 제공해주신 프리셋 너무 잘 사용하고 있습니다! 다름이 아니라 사용하면서 궁금한 점이 생겨 댓글 남깁니다..! 해당 프리셋을 몸통까지 있는 모델링에 사용할 수 있는 방법이 있을까요..?ㅠ 캐릭터 제작에 문외한이라 실례를 무릅쓰고 댓글로 여쭤봅니다ㅠㅠ
안녕하세요 좋은 프리셋 개발해주셔서 정말 감사합니다! 다름이 아니라 얼굴 리깅은 간단한 포즈몰프만 사용해봤어서, 질문 좀 드려도 될까요? 1. 필수 포즈몰프가 총 52개라고 하셨는데, 그럼 포즈몰프 기능으로 각각의 움직임 52개를 하나하나씩 다 잡아주신 것 맞을까요? 그리고 서브 포즈몰프 레이어는 정확히 이해가 잘 안되는데, 여기서 만든 것을 메인 포즈몰프에 어떻게 연결하나요..?? 2. 해당 프리셋이 r26이나 2023.0.1 등 하위 버전에서도 작동되는지 알 수 있을까요? 3. 헤드에 직접 조인트를 심어 조작하는 페이셜 리깅 방식과 비교했을 때 어떤 게 작업 효율 측면에서 더 빠르게 진행이 가능한지 추천해주실 수 있을까요...?
1. 52개를 사용하는 건 moves by maxon 플러그인이 인식하는 움직임입니다. (arkit) 움직임은 아이폰 앱(moves by maxon) 을 사용합니다. 서브 몰프는 모델링이 얼굴, 눈썹, 눈꺼풀 눈동자 가 개별 모델링으로 분리되어있다면 몰프를 각자가 가지고 있어야합니다. 얼굴에 있는 몰프가 메인이면 눈꺼풀에 있는 몰프는 메인몰프값을 받아가기때문에 서브라고 표현한 것입니다. 메인 포즈몰프에 52개가 전부 있는 몰프 테그를 넣어주고 다른 몰프들을 slot1~10 까지 필요한 만큼 넣어주면 됩니다. 2. 26은 테스트 못해봤지만, 2023 버전은 작동합니다.(혹시라도 구매후 작동에 문제가 있다면 문의해주세요.) 3. 빠른 작업은 몰프로 셋업하는 것이고, 정교하고 풍부한 표정을 잡는데는 조인트가 좀더 유리할수있습니다. 많은 경우 몰프와 조인트를 동시에 사용하기도합니다.
@@jeongseok염치 불구하고 질문 하나만 더 드려도 될까요...? 프리셋 기능과는 무관합니다만, 52개의 포즈가 좌/우 각각 있는 것으로 보이는데, 이 부분 포즈몰프 셋팅 시 별도 기능 없이 노가다로 양쪽을 따로 잡아주는 것 맞나요..?? (예를 들어 '좌측 눈 감기-우측 눈 감기'// 처음부터 대칭으로 작업하는 게 아니라 한쪽을 포즈로 만든 뒤 반대쪽을 새 포즈로 만드는 것 같아서요)이렇게 작업하면 좌우를 동일한 표정으로 잡기 어렵고 상당히 오래 걸릴 것 같은데, 초보자이다보니 제가 알고 있는 게 맞는지 모르겠어서 여쭤봅니다...!
@@zzirrrzzziirrr 대칭으로 모델링 후 좌우로 분리하는 경우도 있고, 한쪽을 만들고 반대로 미러링 하는 방법도 있고, 하나하나 다 모델링 하는 경우도 있습니다. 모두 실무에서 사용중인 방법이고 프로젝트에 맞게 선택하거나 플러그인이나 외주(폴리윙크), 직접 툴을 제작해서 분리작업을 할수도있습니다. 제가 만들어사용하는 스크립트를 인스타에 올려둔것이 있습니다. instagram.com/p/C0ZY2k7vnHZ/
The face modeling sold at the 3D scan store (scan head) appears to lack morph targets. To use this modeling, additional work is required. The first method is to create the 52 facial morph targets directly from the purchased model. The second method is to modify the default face of vface to match the scan head shape using Faceform’s wrap program. Since this method cannot use the scan data’s texture, you need to use UV projection to project the texture onto the vface using the TransferTexture node in wrap. The third method involves transferring the morph targets from vface to the scan head, which is a very complex process but possible. Transform the scan head to match the vface’s face shape (wrap3d), which is the reverse of the second method. Then, add a surface deformer to the scan head to attach it to the vface head. Gradually increase the morph strength of vface and extract the morph targets from the scan head (current state to object). The mouth or eyes may not align properly. In this case, try positioning the vface with eyes half-closed and mouth slightly open, then attach the scan head.
@@jeongseok thanks Jeongseok, second method worked perfectly! But the textures transferred are low quality compared to the original, is there a export method in Wrap to transfer same quality texture?
Added English subtitles.
떳군요!! 기다리던 강의가 드디어 나와서 기쁘네요! 좋은 강의 공유해주셔서 감사합니다.
아쉽지만 강의는 아니에요. 상품설명 영상이에요. ^^ 감사합니다. ~
너무 유용한 툴 제공과 설명 영상 감사합니다!!
봐주셔서 감사합니다! 항상 올리고 나면 개선할 부분들이 보이네요. 써보면서 의견 생기면 언제든 댓글 남겨주세요.
훌륭한 튜토리얼입니다. 동일한 설명 비디오를 영어로 또는 영어 자막으로 볼 수 있을까요?
Added English subtitles. Thank you for watching. :)
@@jeongseok 아 정말 감사합니다. 정말 친절하시네요.
안녕하세요 안현섭 선생님 강의 듣고 좋은 플러그인 알게 되어 감사합니다. 다름이 아니라 V-FACE에서 얼굴만이 아니라 믹사모로 리깅된 전체 얼굴 몸 같이 붙은 메쉬는 어떻게 적용 가능한지 조금이라도 팁좀 부탁드려요 ㅠㅠ 감사합니다.
프리셋은 모델링이나 조인트상태보다는 포즈몰프의 이름과 연관되어있습니다. 몸이 붙은 모델링이라도 포즈몰프이름이 arkit 기준으로만 되어있다면 어떤식으로든 작동이 됩니다. 다만 해드 조인트를 움직이는 부분은 조인트 방향과 관련이 있기때문에 이상하게 반응할수있습니다. 적용하고 문제가 된다면 메일로 파일보내주시면 확인해보겠습니다.
@@jeongseok 바쁘실텐데 답변 감사합니다. 제가 초보라서 한개더 여쭈어 보고 싶은게 있는데 그러면 포즈 몰프 (같은이름으로 적용 되어 있고) 헤드 조인트 방향만 샘플 방향과 같다면 적용할수 있다는 말씀이신지요? 좋은 하루 되시기 바래요
@@아키라-q8i 네 맞습니다. 방향만 맞으면 됩니다. 업데이트를 고민중인데 다음버전에서는 방향을 고를수 있는 옵션을 추가할까합니다.
안녕하세요. 안현섭님 강의를 들으며 제공해주신 프리셋 너무 잘 사용하고 있습니다! 다름이 아니라 사용하면서 궁금한 점이 생겨 댓글 남깁니다..! 해당 프리셋을 몸통까지 있는 모델링에 사용할 수 있는 방법이 있을까요..?ㅠ 캐릭터 제작에 문외한이라 실례를 무릅쓰고 댓글로 여쭤봅니다ㅠㅠ
몸통까지 있는 모델링(캐릭터)에 사용가능합니다. 리깅이 어떻게 되어있느냐에 따라 다르긴 하겠지만, 프리셋은 포즈 몰프의 이름만 맞다면 작동합니다. 좀더 자세한 답변이 필요하다면 이메일로 파일 보내주세요.
안녕하세요 좋은 프리셋 개발해주셔서 정말 감사합니다! 다름이 아니라 얼굴 리깅은 간단한 포즈몰프만 사용해봤어서, 질문 좀 드려도 될까요?
1. 필수 포즈몰프가 총 52개라고 하셨는데, 그럼 포즈몰프 기능으로 각각의 움직임 52개를 하나하나씩 다 잡아주신 것 맞을까요? 그리고
서브 포즈몰프 레이어는 정확히 이해가 잘 안되는데, 여기서 만든 것을 메인 포즈몰프에 어떻게 연결하나요..??
2. 해당 프리셋이 r26이나 2023.0.1 등 하위 버전에서도 작동되는지 알 수 있을까요?
3. 헤드에 직접 조인트를 심어 조작하는 페이셜 리깅 방식과 비교했을 때 어떤 게 작업 효율 측면에서 더 빠르게 진행이 가능한지 추천해주실 수 있을까요...?
1. 52개를 사용하는 건 moves by maxon 플러그인이 인식하는 움직임입니다. (arkit) 움직임은 아이폰 앱(moves by maxon) 을 사용합니다. 서브 몰프는 모델링이 얼굴, 눈썹, 눈꺼풀 눈동자 가 개별 모델링으로 분리되어있다면 몰프를 각자가 가지고 있어야합니다. 얼굴에 있는 몰프가 메인이면 눈꺼풀에 있는 몰프는 메인몰프값을 받아가기때문에 서브라고 표현한 것입니다.
메인 포즈몰프에 52개가 전부 있는 몰프 테그를 넣어주고 다른 몰프들을 slot1~10 까지 필요한 만큼 넣어주면 됩니다.
2. 26은 테스트 못해봤지만, 2023 버전은 작동합니다.(혹시라도 구매후 작동에 문제가 있다면 문의해주세요.)
3. 빠른 작업은 몰프로 셋업하는 것이고, 정교하고 풍부한 표정을 잡는데는 조인트가 좀더 유리할수있습니다. 많은 경우 몰프와 조인트를 동시에 사용하기도합니다.
@@jeongseok 친절한 답변 정말 감사합니다!!
@@jeongseok염치 불구하고 질문 하나만 더 드려도 될까요...?
프리셋 기능과는 무관합니다만, 52개의 포즈가 좌/우 각각 있는 것으로 보이는데, 이 부분 포즈몰프 셋팅 시 별도 기능 없이 노가다로 양쪽을 따로 잡아주는 것 맞나요..?? (예를 들어 '좌측 눈 감기-우측 눈 감기'// 처음부터 대칭으로 작업하는 게 아니라 한쪽을 포즈로 만든 뒤 반대쪽을 새 포즈로 만드는 것 같아서요)이렇게 작업하면 좌우를 동일한 표정으로 잡기 어렵고 상당히 오래 걸릴 것 같은데, 초보자이다보니 제가 알고 있는 게 맞는지 모르겠어서 여쭤봅니다...!
@@zzirrrzzziirrr 대칭으로 모델링 후 좌우로 분리하는 경우도 있고, 한쪽을 만들고 반대로 미러링 하는 방법도 있고, 하나하나 다 모델링 하는 경우도 있습니다. 모두 실무에서 사용중인 방법이고 프로젝트에 맞게 선택하거나 플러그인이나 외주(폴리윙크), 직접 툴을 제작해서 분리작업을 할수도있습니다.
제가 만들어사용하는 스크립트를 인스타에 올려둔것이 있습니다. instagram.com/p/C0ZY2k7vnHZ/
@@jeongseok 정보 정말 감사합니다!! 혹시 인스타에 올리신 스크립트는 따로 판매 안하시는 것 맞을까요?ㅠㅠ
Hi, I purchased this recently but my model is from “3d scan store” :( Is there any way I can use this preset with different models?
The face modeling sold at the 3D scan store (scan head) appears to lack morph targets. To use this modeling, additional work is required.
The first method is to create the 52 facial morph targets directly from the purchased model.
The second method is to modify the default face of vface to match the scan head shape using Faceform’s wrap program. Since this method cannot use the scan data’s texture, you need to use UV projection to project the texture onto the vface using the TransferTexture node in wrap.
The third method involves transferring the morph targets from vface to the scan head, which is a very complex process but possible. Transform the scan head to match the vface’s face shape (wrap3d), which is the reverse of the second method. Then, add a surface deformer to the scan head to attach it to the vface head. Gradually increase the morph strength of vface and extract the morph targets from the scan head (current state to object). The mouth or eyes may not align properly. In this case, try positioning the vface with eyes half-closed and mouth slightly open, then attach the scan head.
@@jeongseok thanks Jeongseok, second method worked perfectly! But the textures transferred are low quality compared to the original, is there a export method in Wrap to transfer same quality texture?
Sorry, I found the solution! Thanks for this amazing preset 🙏
@@jeongseok How to create 52 morph targets
I'm using this preset in this version of Cinema 4D 2024.2.0, but I get errors and the facial expressions are not mapped to the model.
Can you send me the file via email? jeongseok.td@gmail.com
I also encountered this problem. Have you resolved it?
I also encountered this problem. Have you resolved it?
😍
Is it compatible with Metahuman?
It is not compatible with MetaHuman. You can use Moves by Maxon or connect with Pose Morph with a controller alone.