InIchiGaSan 【AI x 3DCG x Movie Lab】
InIchiGaSan 【AI x 3DCG x Movie Lab】
  • Видео 76
  • Просмотров 245 779
【Quick Magic】Create 3D Animations from Videos and Use Them in UE5 and Blender!
今回の動画では、3Dアニメーション生成AIのQuick Magicをご紹介します。
Quick Magicでは、動画から3Dアニメーションを簡単に作ることができます。
動画から3Dアニメーションを作れる生成AIの中では、精度は高い印象なので、気になる方はぜひ使ってみてください!
動画の後半では、Quick Magicで生成した3DアニメーションをUE5のマネキンやMMD(MikuMikuDance)モデルでも使えるようにする方法を解説しています。
皆さんもぜひ、この動画を参考に、Quick Magicでオリジナルの3Dアニメーションを作成してみてください!
【目次】
00:00 イントロ
00:44 Subscription Plan
02:04 Quick Magic - Mocap
04:16 Quick Magic - 2D Refinement
07:56 Quick Magic - AI Avatar
09:50 Unreal Engine Import (FBX形式) - Retarget
11:50 Unreal Engine Import (VMD形式) - Blender MMD Tools → FBX Export
15:27 アウトロ
【関連リンク】
Quick Magic
www.quickmagic.ai/home
Pexels
www.pexels.com/ja-jp/
MMD Tools (Blender Add-ons)
mmd-blender.fandom.com/ja/wiki/MMD_Tools
今回使用したMMDモデル
Allial_forMMD_v1.0.2
booth.pm...
Просмотров: 295

Видео

[Omni Animation] Use 3D Animations with UE and Mixamo Characters!
Просмотров 378Месяц назад
今回の動画では、3Dアニメーション生成AIのOmni Animationをご紹介します。 Omni Animationでは、いろいろな種類の3Dアニメーションをダウンロードしたり、編集することができます。 また、ベータ版の機能として、テキストから3Dアニメーションを生成できるAnimateGPTという機能もあります。 まだまだ使える機能は少ないですが、ダウンロードできるアニメーションの数が豊富なので、気になる方は、ぜひチェックしてみてください! また、動画の後半では、Omni Animationからダウンロードしたアニメーションを、Unreal Engineのマネキンや、Mixamoのキャラクターに実装する方法を解説しているので、気になる方は、こちらもチェックしてみてください! 皆さんもこの動画を参考に、Omni Animationを使って、オリジナルの3Dアニメーションを作ってみま...
【Meshcapade x UE5】Create 3D Animations from Videos Using Generative AI!
Просмотров 453Месяц назад
今回の動画では、3Dモデル生成AIのMeshcapadeをご紹介します。 Meshcapadeでは、画像から3Dアバターを生成したり、動画から3Dアニメーションを生成することができます。 動画から3Dアニメーションを作れる生成AIは珍しいと思うので、気になる方はぜひご確認ください! 動画の後半では、Meshcapadeで生成した3DアニメーションをUE5のマネキンでも使えるようにする方法を解説しています。 皆さんもぜひ、この動画を参考に、Meshcapadeでオリジナルの3Dアニメーションを作成してみてください! 【目次】 00:00 イントロ 00:47 Subscription Plan 02:07 Meshcapade - Editor 04:20 Meshcapade - Motion from text / Blend Animations 06:55 Meshcapade...
[Anything World x UE5] Create Game Characters Using 3D Model Generation AI!
Просмотров 1,6 тыс.2 месяца назад
今回の動画では、3Dモデル生成AIのAnything Worldをご紹介します。 Anything Worldでは、テキストや画像から3Dモデルを生成するGenerate Anythingだけではなく、リギングからアニメーションまでできるAnimate Anythingも使うことができます。 Animate Anythingでは、人型だけでなく、四足歩行の動物や鳥、乗り物にもリグとアニメーションを付けることができるので、この点は他の3Dモデル生成AIと比べると特徴的です。 また、生成できるアニメーションの選択肢はそこまで多くないですが、Omni Animationというサービスと連携すると、いろいろな種類のアニメーションを生成することができます(動画投稿時点ではエラーでアニメーションが作れませんでした💦) Omni Animationというサービス自体も面白そうなサービスだったので、...
【Common Sense Machines】Create 3D Models to Animations Using CSM!!
Просмотров 5033 месяца назад
今回の動画では、3Dモデル生成AIのCommon Sense Machines (CSM)をご紹介します。 CSMでは、画像から3Dモデルを生成できるだけでなく、リギングからアニメーションまで、幅広い機能を使うことができます。 特に、テキストから3Dアニメーションを生成する機能は珍しいと思います。 皆さんもこの動画を参考に、CSMで3Dモデルや3Dアニメーションを作ってみてください! 【目次】 00:00 イントロ 00:42 Subscription Plan & Login 01:46 Image to 3D 10:40 AI Retexturing 12:58 Parts-based Asset Packs 15:37 Animate 3D Model 18:51 Others (Text to 3D, Sheet to 3D, etc.) 20:09 アウトロ 【関連リンク】...
[Mootion x Tripo AI x Auto Rig Pro] Let's Create 3D Animations Using Generative AI!!
Просмотров 1,8 тыс.4 месяца назад
今回の動画では、生成AIを組み合わせて、オリジナルの3Dアニメーションを作成する方法を解説します。 まずは、Mootionで3Dアニメーションを作成し、Tripo AIで3Dモデルを作成します。 3Dアニメーションと3Dモデルが準備できたら、Blenderのアドオン機能である、Auto Rig Proを使い、3Dモデルにアニメーションをつけていきます。 皆さんもこの動画を参考に、生成AIを使って、オリジナルの3Dアニメーションを作ってみてください! 【目次】 00:00 イントロ 00:37 Mootion - 3D Animation作成 01:40 Tripo - 3Dモデル作成 03:18 Tripo - Rigging & Animation 04:42 Mixamo - Rigging 05:37 Auto Rig Pro - Download 06:33 Auto Rig...
[3D Animation] Let's Create 3D Animations Using Mootion!!
Просмотров 2,1 тыс.5 месяцев назад
Mootionという3Dアニメーション生成AIの使い方を解説しています。 Mootionでは、テキストや動画から3Dアニメーションを生成したり、Sotytellerという動画を生成する機能もあります。 今回の動画では、Mootionの基本的な使い方を解説しますが、別の動画で、3Dモデル生成AIと組み合わせて、オリジナルのアニメーションを作る方法を解説したいと思います。 ぜひ、チャンネル登録をしてお待ちください! 皆さんもこの動画を参考に、Mootionでアニメーションを作ってみてください! 【目次】 00:00 イントロ 00:42 Animator - Log in 01:48 Animator - Subscription Plan 03:14 Animator - motion 04:26 Animator - motion (Video Gen) 05:09 Animator...
[Let’s Move the 3D Model!!] Create 3D Models and Animations Using Meshy!
Просмотров 3,7 тыс.5 месяцев назад
[Let’s Move the 3D Model!!] Create 3D Models and Animations Using Meshy!
[Luma AI] Explaining the Features of Video and 3D Model Generation AI!
Просмотров 8 тыс.6 месяцев назад
[Luma AI] Explaining the Features of Video and 3D Model Generation AI!
[Let's Take a Look at the Drawing Process!!] Let's Create a Drawing Process Using Paints-Undo!!
Просмотров 6436 месяцев назад
[Let's Take a Look at the Drawing Process!!] Let's Create a Drawing Process Using Paints-Undo!!
【Highly Anticipated Update!!】 Let's Create High-Quality Videos with Runway Gen-3!!
Просмотров 2,4 тыс.7 месяцев назад
【Highly Anticipated Update!!】 Let's Create High-Quality Videos with Runway Gen-3!!
【Web App Also Available!!】Guide to Using Domo AI & VIGGLE (Web app) and PixVerse (Magic Brush)!!
Просмотров 1,6 тыс.7 месяцев назад
【Web App Also Available!!】Guide to Using Domo AI & VIGGLE (Web app) and PixVerse (Magic Brush)!!
[Rodin Gen-1] A Guide to Using 3D Model Generation AI and Creating Animations!
Просмотров 12 тыс.8 месяцев назад
[Rodin Gen-1] A Guide to Using 3D Model Generation AI and Creating Animations!
【Tripo × Mixamo × UE5】Let's Create and Animate a 3D Model!
Просмотров 41 тыс.9 месяцев назад
【Tripo × Mixamo × UE5】Let's Create and Animate a 3D Model!
【VIGGLE & Domo AI】 Move Your Favorite Characters Freely with Images + Videos!!
Просмотров 26 тыс.10 месяцев назад
【VIGGLE & Domo AI】 Move Your Favorite Characters Freely with Images Videos!!
【High Consistency!】Let's Create Various Styles of AI Videos with GoEnhance!
Просмотров 2,5 тыс.10 месяцев назад
【High Consistency!】Let's Create Various Styles of AI Videos with GoEnhance!
【Incredible Consistency!】Let's Create Cool AI Dance Videos with AnimateAnyone Evolved!!
Просмотров 5 тыс.11 месяцев назад
【Incredible Consistency!】Let's Create Cool AI Dance Videos with AnimateAnyone Evolved!!
"What's This?! Fun!!" Let's Make AI Videos with Domo AI!
Просмотров 7 тыс.11 месяцев назад
"What's This?! Fun!!" Let's Make AI Videos with Domo AI!
【Challenge AI Videos!】 Make your favorite characters dance with ComfyUI AnimateDiff! Part2 - vid2vid
Просмотров 6 тыс.Год назад
【Challenge AI Videos!】 Make your favorite characters dance with ComfyUI AnimateDiff! Part2 - vid2vid
【Get Slick Moves!】Create AI Videos with ComfyUI AnimateDiff! Part1 - txt2vid
Просмотров 3,7 тыс.Год назад
【Get Slick Moves!】Create AI Videos with ComfyUI AnimateDiff! Part1 - txt2vid
【No Complex Setup Required!】Comprehensive Guide on Features & How to Use PixVerse!
Просмотров 9 тыс.Год назад
【No Complex Setup Required!】Comprehensive Guide on Features & How to Use PixVerse!
【Here's something new!】 Let's create AI animated videos with Stable Diffusion Ebsynth Utility!
Просмотров 4,3 тыс.Год назад
【Here's something new!】 Let's create AI animated videos with Stable Diffusion Ebsynth Utility!
【Let's Try!】How to Use LoRA & Easy Creation Method (kohya's GUI)
Просмотров 26 тыс.Год назад
【Let's Try!】How to Use LoRA & Easy Creation Method (kohya's GUI)
[Smooth Animation!] Let's Create AI Movie with AnimateDiff! Part 2 (Mastering Useful Features!)
Просмотров 3,1 тыс.Год назад
[Smooth Animation!] Let's Create AI Movie with AnimateDiff! Part 2 (Mastering Useful Features!)
[Smooth Animation!] Let's Create AI Movie with AnimateDiff! Part 1 (Basic Usage)
Просмотров 3,9 тыс.Год назад
[Smooth Animation!] Let's Create AI Movie with AnimateDiff! Part 1 (Basic Usage)
[Create Your Own AI Video!!] Explaining How to Use Magic Animate & Vid2DensePose!
Просмотров 2,5 тыс.Год назад
[Create Your Own AI Video!!] Explaining How to Use Magic Animate & Vid2DensePose!
[Comprehensive Explanation!!] Explaining the Features and How to Use Pika1.0! I Also Made a PV!
Просмотров 5 тыс.Год назад
[Comprehensive Explanation!!] Explaining the Features and How to Use Pika1.0! I Also Made a PV!
[Anyone Can Do It!] Create a Commercial Using Suno AI x Gen-2!
Просмотров 1,6 тыс.Год назад
[Anyone Can Do It!] Create a Commercial Using Suno AI x Gen-2!
[Easy and Fun!] Try Stable Video Diffusion (SVD) with ComfyUI!
Просмотров 2,1 тыс.Год назад
[Easy and Fun!] Try Stable Video Diffusion (SVD) with ComfyUI!
[Music2Movie] Creating Videos from Music with Stable Audio x Kaiber!
Просмотров 794Год назад
[Music2Movie] Creating Videos from Music with Stable Audio x Kaiber!

Комментарии

  • @AntkHkrpnzk
    @AntkHkrpnzk 12 дней назад

    長文になります。すみません。 ここ数日でstable diffusionを使い始めて勉強の毎日で、動画を参考にcontrolnetのcannyを使って画像を出力したのですが、元画像とはかけ離れた画像になってしまいます。 プロンプトを1girlのようにシンプルなものにしてもだめでした。 そこで基盤モデル?と言う言い方で合ってるのか分からないですが(以後基盤モデルといいます。)、WAI-NSFW-illustrious-SDXLと言うものをCIVITAIからダウンロードして使っています。 情報があっているかあやふやですが、controlnet内のモデル(canny)と基盤モデルのバージョンを揃えないと、うまく作動しない場合があると言う情報を耳にしたのですが、それが原因かと考えていますが間違っていますかね??またその場合、現在、cannyのxlモデルに対応したものはないのでしょうか。? InIchiGaSan 様 はこの動画のように特に設定を弄らなかった場合、体感どれくらいの割合でその構図を保ったまま出力できますか? 情報がありすぎるのと、おすすめに出てくるstable diffusionの解説動画がほとんど1〜2年前のもので今とかなり変わっているんじゃないかと思っていて、もっとこっちの動画を見て今のこんなスキルを学んだ方が良いなどありましたら、おすすめの動画を教えていただけると嬉しいです。 ここでみたInIchiGaSan 様 の動画が無駄な情報がなく一番理解しやすく、Part2の比較でもどれが一番読み込みやすいなどの解説があってすごく助かります。 長文になりましたが、何かヒントになるようなことでも構いませんので返信いただけたら幸いです。

  • @Hadagen-p3r
    @Hadagen-p3r 16 дней назад

    最近アップデートされて image to 3Dが出来るようになりましたか?😊

    • @InIchiGaSan
      @InIchiGaSan 11 дней назад

      まだ画像から3Dモデルを作る機能はないんじゃないかなと思います。 Dream Machineの方はRay2という新しいモデルをリリースしていましたが、GenieやInteractive Sceneは特にアップデートなかったかなと思います(私が把握しきれていないだけだったらすみません🙏)。

  • @hazuki_23
    @hazuki_23 2 месяца назад

    Dataset-tag-editorのinstallパッチファイル起動するとcmd画面(?)が起動と同時に閉じちゃうんですけど原因わかりますでしょうか...

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      コマンドライン画面が閉じてしまうとなると、なかなかエラーの特定が難しいですね😭ファイルパスの誤り(パスに日本語やスペースが入ってしまっている等)や存在しないファイルを操作しようとしていることが原因になっている可能性もあるので、再度インストールし直してみるといいかもしれません。 あとは、dataset-tag-edidor-standaloneのgithubページにrequirementという項目があるので、そこに書かれているPythonやPyTorchなどをインストールできているか確認するのもいいかもしれません。

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      コマンドライン画面が閉じてしまうとなると、なかなかエラーの特定が難しいですね😭ファイルパスの誤り(パスに日本語やスペースが入ってしまっている等)や存在しないファイルを操作しようとしていることが原因になっている可能性もあるので、再度インストールし直してみるといいかもしれません。 あとは、dataset-tag-edidor-standaloneのgithubページにrequirementという項目があるので、そこに書かれているPythonやPyTorchなどをインストールできているか確認するのもいいかもしれません。

  • @いか-j7c
    @いか-j7c 2 месяца назад

    配布されているワークフロー楽しく使わせていただいてます! 質問があるのですが、 step数等の数値をいじってもを重すぎて途中で止まってしまいます…🥲 メモリ拡張する以外方法ないでしょうか。

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      ありがとうございます!ワークフローを触っていただき嬉しいです。メモリが足りない場合は、PCのスペックを上げる、またはクラウド環境を使うのがおすすめです。 最近だとMimic PCというものがあるので、試してみるといいかもしれません!

    • @いか-j7c
      @いか-j7c 2 месяца назад

      @@InIchiGaSan クラウド環境!ありがとうございます。調べてみます😀

  • @VCharaCARChannel-BigPower
    @VCharaCARChannel-BigPower 2 месяца назад

    どの様な学習でこの様なワ-クフロ-を作れる様になったか知りたいわ。

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      GitHubで開発者の方が公開してくれている基本的なワークフローを組み合わせてみると意外と作れますよ😄 あとは、Comfy Workflowsというサイトに、いろんな人が作ったワークフローがあるので、それをいろいろいじってみると勉強になります!

  • @chocomintboy256
    @chocomintboy256 2 месяца назад

    AIの3Dモデル生成とUnreal Engineの連携が無事に完了していい感じですね。軍隊の空港の3D背景もカッコいい。NPCキャラ(柴犬)を追加した会話シーンや侵略してくるドローンとのバトルシーンとかUnrealEngineを使ったゲームのシーンの作り方の解説も見てみたいです

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      コメントありがとうございます! NPCキャラとかいいですね。 3Dモデル生成AIの活用方法の一つとして、解説動画検討してみます!😁

  • @gordonmidwood1563
    @gordonmidwood1563 2 месяца назад

    Woo thank you for featuring us!

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      Absolutely! Thank you for providing such a great service!

  • @monkey_blanco
    @monkey_blanco 3 месяца назад

    Obrigado.

  • @user-nn9lf9om3k
    @user-nn9lf9om3k 3 месяца назад

    無料版試してきました! 課金登録しようと思うのですが、3Dモデル販売などで商用利用したい場合は、個人でもcreatorプランではなくbusinessプランに加入しなければならないのでしょうか?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      サブスクリプションプランの各プランの説明には、ChatAvatarはBusinessから商業利用可能となっているのですが、Rodinについては明記されていません。 ややグレーではあるのですが、利用規約のセクション5に「If you use Rodin to generate Output, we will not limit your use of such Output」とあるのと、直接担当者に聞いてみたところ、Businessでなくても商用利用OKということだったので、Creatorでも商用利用はできるのではないかと思います。

    • @user-nn9lf9om3k
      @user-nn9lf9om3k 3 месяца назад

      @@InIchiGaSan ありがとうございます!

  • @influencer-w7c
    @influencer-w7c 3 месяца назад

    こんにちは!SeaArt AIチームです。あなたの動画に非常に感銘を受けましたので、今後のコラボレーションについてぜひお話ししたいと思っています。ご興味がありましたら、ぜひご連絡いただくか、連絡先をお知らせください。ご関心いただき、ありがとうございます!協力連絡先については私のホームページをご覧ください。さらにアドバイスをお願いします。

  • @らいすはくまい
    @らいすはくまい 3 месяца назад

    Dataset tag editor のスタンドアロン版を使用したのですが、画像が認識されません。しっかりとパス指定もしていますし、画像名も連番にしています(jpg)。settingsでディレクトリの許可もしているのですが、全く認識されません。解決方法がわからないため、助けていただきたいです。

    • @yanagi352525
      @yanagi352525 3 месяца назад

      わたしと同じ悩みの方いらっしゃった!!!

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      読み込んだ画像が表示されない、ということであればSettingsの「Force using temporary file to show images on gallery」にチェックを入れると表示されるようになります。この場合は、画像が表示されていないだけで、画面右側には認識されたタグの一覧は表示されます。 そもそも画像が読み込まれない(Errorと表示される)場合は、以下を試してみてください。 1. フォルダパスを確認する。フォルダパスや画像ファイル名に特殊文字や空白が入っていたり、極端に長すぎる場合はエラーになる可能性があります。 2. Settingsにある「Path whitelist to show images...」や「Directory to save temporary files」に何も指定しない。Settingsをいじると、逆にエラーになってしまうことがあります。 3. 再度Dataset tag editor standaloneをインストールしなおしてみる。

  • @naka1147
    @naka1147 3 месяца назад

    大変参考になりました。Dream machineで盾型動画は生成できますか?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      画像から動画を生成するときに、縦長の動画をアップロードすると縦長の動画を生成することができます。 テキストから動画を生成する場合は、基本的に横長になるようです。

  • @MilkTickin
    @MilkTickin 3 месяца назад

    IP-Adapterという項目がありませんがファイルは反映されました。 この場合ALLで試せばよいでしょうか? 話は変わりますが指示の通り同じファイルに必要なモノを入れ更新ボタンを押したらちゃんと反映されましたが他のタイプに変えた際にすべてリセットされてしまいます、コレも仕様ということで考えたほうが良さそうでしょうか。

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      動画のバージョンと比較すると、最新バージョンではIP-Adapterの位置が変わっているようでした。おそらくIP-Adapterが消えることはないと思うので、ControlNetを再度インストールするなどするといいかもしれません。 ControlNetのPreprosessor(Control Type)を変更すると、Preprosessorに紐づくModelが自動で選択されるようになっています。ただ、更新ボタンを押してファイルを再度読み込むところまではしなくていいはずなので、こちらもControlNetを再度インストールする、適切なファイルが保存されているか確認するなどしてみるといいかもしれません。

  • @asatake_0914
    @asatake_0914 3 месяца назад

    早速試したくてLuma Dream MachineにログインしTry nowしてプロンプトも英語で打ち込んだのですがWe are at capacity right now. となってしまいました。 どうすれば良いでしょうか?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      その時間帯だけちょうどアクセスが集中していたのかもしれません。 対策としては、時間をおいてサーバー負荷が下がるタイミングを待つ、別のブラウザやシークレットモードを試す、ひと月だけお試しで有料版に加入し、優先的にアクセスできるようにするといったところでしょうか。

    • @asatake_0914
      @asatake_0914 3 месяца назад

      有難うございます。試してみます。

  • @ふぁんとむ-e2z
    @ふぁんとむ-e2z 3 месяца назад

    LoRAを使って版権キャラを出力しようとするとどうしてもサンプルのように出力できないことが多々あるのですが、その場合は使用しているモデルとの相性が悪いと言うことなのでしょうか?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      そうですね。基本的には、LoRAの学習に使ったモデルと同じモデルで画像を生成するのが、一番再現性が高いです。 あとは、サンプルではembeddingや他のLoRAを重ねて使っているものの、自分の環境にはファイルがダウンロードされていないので、プロンプトで指定しても機能しない、みたいなことも要因だったりします。

    • @ふぁんとむ-e2z
      @ふぁんとむ-e2z 3 месяца назад

      @@InIchiGaSan 使用モデルがわかっても使用VAEがわからなくて画像そのものが8bitみたいになってしまうことも多々あって、結局使い慣れたモデルの中からシラミ潰しにしてそれっぽく見える物を出力させてるのが現状です^^;

  • @Blendarling
    @Blendarling 4 месяца назад

    視線が、カメラ目線になってしまう問題があるようです!AD/ControlNetで、固定してやる必要があります!(control_v11p_sd15_lineart/ControlNet weight 約0.6)

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      情報共有ありがとうございます!

  • @峰島-z7v
    @峰島-z7v 4 месяца назад

    素晴らしい動画ありがとうございます。 とても分かりやすかったです。 ただ、どうしても以下の2つでつまずいてしまい 特に、1点目はStable Diffusionの拡張機能でクリアしたのですが 2点目は自分ではいかんともしがたく困り果てています。 なので、2点目だけでもアドバイスいただけると有難いです。 1点目:dataset-tag-editor-standaloneで     Connection errored outと出てきて画像が読み込めない。    →こちらはStable Diffusionの拡張機能の方が動いたので     そちらで代用しました。     2点目:PNG画像3枚(横512×縦768px)の画像を編集して作成し    キャプションファイルを付け    Kohya's GUIで動画の通り実施したのですが、    json,toml,txtファイルは出力されるのですが    LoRAファイル(safetensors)が出力されず。 python.3.10.9及び3.10.11いずれも試しましたが    どちらもうまくいかず。 エラーに関してはコマンドプロンプトの最後あたりに以下のように出ていました。 File "E:\Lora_train_GUI\kohya_ss\venv\lib\site-packages\accelerate\commands\launch.py", line 637, in simple_launcher raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd) subprocess.CalledProcessError: Command '['E:\\Lora_train_GUI\\kohya_ss\\venv\\Scripts\\python.exe', 'E:/Lora_train_GUI/kohya_ss/sd-scripts/train_network.py', '--config_file', 'E:/Lora_train_GUI/output/config_lora-20241005-020330.toml']' returned non-zero exit status 1. 何か、お気づきの点などあればアドバイスいただけると 有難いです。 +環境──────────────────────────────────────────────+  OS:Windows 11 Home 64ビット  CPU:11th Gen Intel(R) core(TM)i5-11400@2.60GHz(12CPUs),~2.6GHz  メモリ:16384MB  GPU:NVIDIA GeForce RTX 3060   表示メモリ(VRAM):12115MB   共有メモリ:8119MB ・NVIDIA Driver Version: 551.61 (コマンドプロンプト:『nvidia-smi』で確認) ・CUDA Toolkit version:12.1 (コマンドプロンプト:『nvcc -V』で確認) ・PyTorch: 2.3.1+cu121(コマンドプロンプトで確認) ・python.3.10.9及び3.10.11両方試しましたがダメでした。 ・モデル:anyloraCheckpoint_bakedvaeBlessedFp16.safetensors +────────────────────────────────────────────────+

  • @Japanese_listening_learn
    @Japanese_listening_learn 4 месяца назад

    discord上で/captureと入力しても何が表示がされません。何か方法はありすか?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      現在は一時的にこの機能が使えなくなっているみたいです😨 運営は、より良いサービスにして戻ってくる、と言っているようですが、いつ使えるようになるのかは明言されてません😭

  • @월천의호흡
    @월천의호흡 4 месяца назад

    [AnimateAnyone] Animate Anyone Sampler shape '[866, -1, 8, 40]' is invalid for input of size 3932160 これらのエラーが発生するのにどうすれば解決できますか?

  • @월천의호흡
    @월천의호흡 4 месяца назад

    映像を見てフォローしてみます。 15秒の動画で好きな画像を使って作業をしようとしているので、何らかの理由で動作しません。 Animate Anyone Evolvedは短いビデオしか利用できませんか?

  • @TANO-b7n
    @TANO-b7n 4 месяца назад

    domo aiのmoveでスタイルを選択して動画を作成すると元がぞうからかなり変わってしまいます。img画像を踏襲するためのプロンプトを教えてもらえませんか?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      画像生成AIで作成したimg画像であれば、生成時のプロンプトをそのままいれて、アニメーションの内容を簡潔に指示するのがいいかなと思います。 生成時のプロンプトがないようなimg画像であれば、ChatGPTなどに画像をアップロードし、「アップロードした画像と同じ画像を生成するためのプロンプトを教えて」などの指示でプロンプト化、Domo AIに貼り付ける、などでも再現性は高くなるかなと思います。 どうしても元画像から離れてしまう場合は、VIGGLEを使ってみるといいかもしれません。VIGGLEだと、アップロードした画像をそのまま動かせます。

  • @dyeskesatou5378
    @dyeskesatou5378 4 месяца назад

    Meshy面白いけど、ちょっとまだプリントされたクッションみたいな感じだ。

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      そうですね。とてもクオリティーが高い!というところまではまだまだかなと思いますが、少し前と比べるとだいぶ3Dモデルの精度が上がってきているので、これからに期待ですね!

  • @petEdit-h9l
    @petEdit-h9l 4 месяца назад

    Pls can you turn on the English subtitles

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      Thank you for your comment! I will consider adding English subtitles. In the meantime, please use RUclips’s captioning feature for English translation!

  • @itsmoin41
    @itsmoin41 4 месяца назад

    nice

  • @jun1
    @jun1 4 месяца назад

    とても素晴らしい解説動画ありがとうございます!初歩的な質問で申し訳ないのですが、KSamplerのlatent imageに元動画を入力することでどうしても元動画の色などが残ってしまい、純粋にcontrol netだけで出力するのは難しいのでしょうか???

  • @LOFITunesFX-p3f
    @LOFITunesFX-p3f 5 месяцев назад

    こんにちは!一番分かりやすいです!ワークフローがあるので助かります^^

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      ありがとうございます! ComfyUIは色々な方がワークフローを公開していたりするので、いろいろ使ってみると理解が深まると思います。

  • @アロハ侍2
    @アロハ侍2 5 месяцев назад

    ゲームのサブキャラを反映させることができました。ありがとうございますっ。

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      ありがとうございます! お役に立てたようでよかったです😊 「サブキャラ」いいですね!

  • @kytooo9260
    @kytooo9260 5 месяцев назад

    google colabでのLoRAの導入ってできるのですか?

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      Google Colabでもできると思いますが、無料版だと制限があって、長時間の学習に向いていなかったりします。

    • @kytooo9260
      @kytooo9260 4 месяца назад

      @@InIchiGaSan ありがとうございます。 プロで契約しました。 しかし起動と生成に時間がかかる。使いすぎたらできなくなるなど色々不便だとわかりました。

  • @word4you
    @word4you 5 месяцев назад

    dataset-tag-edidor-standaloneでランチエラー出てしまいます。 要件を見ると、 「 PyTorch with CUDA >= 1.10.0 (TorchDeepDanbooruが使用するonnx-pytorchの要件) PyTorchのバージョンはtransformersに依存しています。」 仮想環境でPyTorchをアップデートせよ、でもその前にtransformersをチェックせよ? ってことでしょうけど、さて?何をどうやっていいか?まるでワカリマセン・・・

  • @yujisobue1649
    @yujisobue1649 5 месяцев назад

    興味があり、入れてみましたが、 raise err OSError: [WinError 126] 指定されたモジュールが見つかりません。 というエラーが表示されました。 原因、分かるでしょうか?

  • @rainbow-cozy
    @rainbow-cozy 5 месяцев назад

    突然クオリティ上がった線画レイヤーが出現したりで「ふぁっ!?」ってなるので、絵描きがみればすぐバレるw まあ、これを出して「手描きです!」の根拠にするアフォは居ないと思うけどね。 PVなんかの素材として雰囲気を出したい時とかに使えると思うよ。

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      そうですね。これをそのまま「手描きです」というのは難しいですね。 雰囲気出すとか、ちょっとしたところで使ってみる感じですね。

  • @787-10
    @787-10 5 месяцев назад

    21:07変なアプデで動画と違うレイアウトになったので、改訂版お願いします

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      ご指摘ありがとうございます! そうですね。動画作成してからだいぶ時間が経ってしまっているので、更新版検討してみます!

  • @たりほー
    @たりほー 5 месяцев назад

    提供してくださっているワークフローを使うとUPSCALEのところでノイズまみれになるのですが何か解決策はありますでしょうか

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      アップデートなどでうまくワークフローが機能しなくなってしまっているのかもしれません。 CivitaiやOpenArtで最新のアップスケール用ワークフローを探してつないでみるのがいいかなと思います。 この動画を作ってからだいぶ時間が経っているので、更新版も検討必要ですね😅

  • @kimukimu2438
    @kimukimu2438 5 месяцев назад

    うーん。とても丁寧で分かりやすかったのに設定した線画と全く違うポーズを取ってしまいますね

    • @InIchiGaSan
      @InIchiGaSan 5 месяцев назад

      ControlNetのPreprocessorを変えてみたり、プロンプトを変えてみたり、Control weightを変えてみたりして、ちょうどいい設定を探っていくしかないかなと思います。 あとは、アップロードする画像を、より鮮明なものにしてみるとかでしょうか。

  • @edwardnigh1765
    @edwardnigh1765 5 месяцев назад

    インストールしてるはずなのにTagger って出ってこないです。。。

    • @InIchiGaSan
      @InIchiGaSan 5 месяцев назад

      動画で紹介しているTaggerはすでに更新が止まっていて、picobyteさんという方がtaggerを更新してくれているようなので、こちらをインストールしてみるのはいかがでしょうか? github.com/picobyte/stable-diffusion-webui-wd14-tagger

  • @edwardnigh1765
    @edwardnigh1765 6 месяцев назад

    Datatageditor、launch_userbatクリックしてエラーって書かれていて消えてしまうんだが。。。どうしたらいいですか?

    • @InIchiGaSan
      @InIchiGaSan 5 месяцев назад

      PyTorchのバージョンが2.4.0だと動かないようで、↓のリンクから古いバージョンのPyTorch 2.3.1をインストールしてからinstall.bat→launch_user.batを実行すると、うまく起動できると思います。 【リンク】 pytorch.org/get-started/previous-versions/#v231 【コマンド】CUDAのバージョンによってコマンドが違いますが、とりあえず12.1から試してみるといいと思います。 # CUDA 11.8 pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 --index-url download.pytorch.org/whl/cu118 # CUDA 12.1 pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 --index-url download.pytorch.org/whl/cu121

    • @アロハ侍2
      @アロハ侍2 5 месяцев назад

      @@InIchiGaSan 動画ありがとうございます!昨日からAI生成を始めた者なのですが、私もそこで引っかかってしまいました。launch_user.batを起動すると Error loading "C:\Users\〇〇〇\AppData\Local\Programs\Python\Python310\lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.と表示されてしまいます。 pytorchをインストール(使用)する為にはCUDA、VisualBasic、Windows ML、Windows SDK(MLを使用するためのもの)、Anacondaのインストールはマストなんでしょうか? 入っているのか入っていないのかすら分からず行き詰まってしまっています。orz

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      @@アロハ侍2 今回の動画でインストールしているのは、Stable Diffusion Web UIを動かすためのPythonとGit、あとはVisual C++ 再頒布可能パッケージなので、これらを再度インストールしてからPyTorchのインストールを試してみるのはいかがでしょうか(PyTorchのインストールにはCondaコマンドもあるので、Anacondaでも大丈夫ですがPythonが入っていれば、Anacondaをインストールする必要はありません)。

  • @仕事生活
    @仕事生活 6 месяцев назад

    今のバージョンだとあとfp16とbf16の選択する項目がないけど、何も入力しなくいいのかな?

    • @InIchiGaSan
      @InIchiGaSan 6 месяцев назад

      最近のアップデートで、Kohya's GUIのインストール時(もしくは学習実行時?)に自動でfp16 or bf16を判断して設定してくれるようになったのかもしれませんね。 LoRA学習が問題なく進むようであれば、特に設定する必要はないのかな、と思います。

  • @仕事生活
    @仕事生活 6 месяцев назад

    どうしてもponyで足や胴が長くなったり崩れてしまいます、フォルダの画像サイズは全部1024x1024で固定しているにも関わらず... alphaの値を動かした方が良いのかな?ここもどう調整すればいいかよくわからん。

    • @InIchiGaSan
      @InIchiGaSan 6 месяцев назад

      そうですねーー、LoRA作りは試行錯誤の繰り返しで丁度いいパラメーターの設定値を探っていくしかないのですが、 1. Kohya's GUIの設定画面でMax resolutionを1024, 1024にしているか確認 2. 学習データの角度やポーズの種類を増やしてみる 3. 学習ステップ数に幅を持たせて試してみる などでしょうか? DimensionとAlphaの設定については、私も完璧に理解しているわけではないですが、ちょっと学習量が足りないかな?と思ったときはDimensionを増やしてみて、AlphaはDimensionの半分くらいに設定しています。

  • @historiasunicass
    @historiasunicass 6 месяцев назад

    Dear InIchiGaSan, I hope this message finds you well. First and foremost, I want to express my deep respect and admiration for your work. I am a huge fan and I think you are an incredibly intelligent and talented programmer. In my opinion, you are one of the best in your field. I have had a project in mind for several years, but I have found it extremely difficult to start. Despite extensive research, I have been unable to find an application that meets my needs. My goal is to produce my own television series and edit my other videos using a 100% secure application. I would greatly appreciate any advice or assistance you could offer. I understand that translating from Japanese to Spanish is challenging for me, but I am making an effort. I apologize for any inconvenience and thank you very much for your time and help. Best regards, Luis Enrique 🎉

  • @contentfreeGPT5-py6uv
    @contentfreeGPT5-py6uv 6 месяцев назад

    Jaja

  • @YXGenshinImpact
    @YXGenshinImpact 6 месяцев назад

    Thank you for your video. I followed the instructions and successfully started Paints-UNDO. Everything is fine until Step 3. I can't do this step. Some error message related to CUDA, xFormers makes me confused as to which step I did wrong.

  • @川上英佑マイスター
    @川上英佑マイスター 6 месяцев назад

    こういうのってAIおじさんの手描きなりすましぐらいしか使われなさそう そもそもなんのレイヤー効果を使ったかの説明も出来ないだろうし、迷った2案3案のラフとかもないし

  • @kilirin5022
    @kilirin5022 6 месяцев назад

    Tagger起動して画像読みこみまではできるのですが必ずエラーが出てプロンプトが出てきませんなにか解決方法でもあるでしょうか

    • @InIchiGaSan
      @InIchiGaSan 6 месяцев назад

      返信遅くなりました💦 AUTOMATIC 1111のバージョンのバージョンが古い、Taggerのバージョンが古い、などの理由が考えられるので、それぞれを最新版にアップデートしてみるのはいかがでしょうか。 また、Taggerについては、動画でご紹介しているtriatoさんのプロジェクトはアーカイブされてしまっており、最新版のAUTOMATIC 1111に対応していないので、picobyteさんのTagger(triatoさんのTaggerを引き継ぎ、更新し続けてくれているプロジェクト)を使ってみるのも解決策の一つかと思います。 github.com/picobyte/stable-diffusion-webui-wd14-tagger

  • @ВарвараНестерова-э2д
    @ВарвараНестерова-э2д 7 месяцев назад

    Очень красиво. И очень любопытно. ❤

    • @InIchiGaSan
      @InIchiGaSan 7 месяцев назад

      Спасибо! Я рад, что вам это интересно. 😊

  • @illumina6969
    @illumina6969 7 месяцев назад

    8GBのメモリでもBF16でよろしいのでしょうか

    • @InIchiGaSan
      @InIchiGaSan 7 месяцев назад

      ご質問ありがとうございます! bf16もfp16もメモリの使用量はそこまで変わらないはずなので、bf16でも大丈夫だと思います。 ただ、一部のGPUやライブラリではbf16がサポートされていないこともあるので、うまく学習ができない場合は、fp16を選んでみてください。

    • @illumina6969
      @illumina6969 7 месяцев назад

      @@InIchiGaSan ありがとうございます🙇‍♂

  • @wath71
    @wath71 7 месяцев назад

    わかりやすかったです。ありがとうございました😊

    • @InIchiGaSan
      @InIchiGaSan 7 месяцев назад

      ありがとうございます!😆 今後も有益な情報を発信していけるように頑張ります!💪

  • @諭吉-m9t
    @諭吉-m9t 7 месяцев назад

    顔が思いっきり崩れます。修正方法などはないでしょうか??

    • @InIchiGaSan
      @InIchiGaSan 7 месяцев назад

      VIGGLEはアップロードした画像と動画次第でアウトプットの結果が決まってしまうので、 ・顔がはっきりわかる画像にする ・あまり激しい動きの動画は避ける ・画像と動画の人物の体型をできるだけ同じようにする などを考慮すると、大きく動画が崩れることはないかと思います。 できあがった動画を修正する場合は、Domo AIやGoEnhanceなど、スタイルチェンジ系の動画生成AIを使うと、いい感じで顔が生成できたりします。

  • @suke0408
    @suke0408 7 месяцев назад

    20:47 からですがSource modelのタブがなくModel quick pickをcostomに変えれないのですがどうすればいいでしょうか?

    • @InIchiGaSan
      @InIchiGaSan 7 месяцев назад

      Kohya's GUIのUIがアップデートされているようで、LoRA→Trainingタブの中にModelという項目があり、その中にPretrained model name or pathがあるはずなので、そこに学習に使うモデルを設定できるはずです。

    • @suke0408
      @suke0408 7 месяцев назад

      @@InIchiGaSan ご丁寧にありがとうございます!試してみます!

  • @あいう-h1h
    @あいう-h1h 7 месяцев назад

    Loadを押した後に画像が上手く表示されません;; 本来画像表示される所の左上に画像アイコンだけ表示されていて他は真っ白です。これは何かを間違えたのでしょうか…

    • @InIchiGaSan
      @InIchiGaSan 7 месяцев назад

      以下を試してみるのはいかがでしょうか? インストールの問題: 動画の中でrequirements.txtファイルにfastapi==0.95.2を追加していますが、バージョンのアップデートに伴い、これが不要になった可能性も考えられます。 画像ファイルの問題: 画像ファイル自体に問題がある可能性も考えられます。画像ファイルが破損していたり、サポートされていない形式等。 画像のパスやディレクトリの設定の問題: 画像パスに特定の文字(日本語やスペースなど)が入っていると、うまくディレクトリを読み込めない可能性があります。 あとは、以下のリンクの下のほうにトラブルシューティングがあるので、こちらを確認してみるなどでしょうか。 github.com/toshiaki1729/dataset-tag-editor-standalone/blob/main/README-JP.md

    • @あいう-h1h
      @あいう-h1h 7 месяцев назад

      @@InIchiGaSan ありがとうございます!!頂いたアドバイスを全て試してみます!!

  • @Dora-xr8uz
    @Dora-xr8uz 8 месяцев назад

    バージョン1.94で taggerってどうしてますか?調べたところ使えないらしくて…taggerをインストールすると強制的にstable diffusionのバージョンアップもされてしまうので詰み状態です💧解決法か代用できる他サービスでもあればと思ったのですが…

    • @InIchiGaSan
      @InIchiGaSan 7 месяцев назад

      triatoさんが開発していたTaggerの更新が止まってしまったので、現在はpicobyteさんという方が開発したTaggerを使っています! github.com/picobyte/stable-diffusion-webui-wd14-tagger

    • @Dora-xr8uz
      @Dora-xr8uz 7 месяцев назад

      どうやら同じエラーでダメみたいです… とりあえず代用でversatile diffusronのimage to text使って見ます。 ありがとうございました🙇