InIchiGaSan 【AI x 3DCG x Movie Lab】
InIchiGaSan 【AI x 3DCG x Movie Lab】
  • Видео 65
  • Просмотров 189 567
[3D Animation] Let's Create 3D Animations Using Mootion!!
Mootionという3Dアニメーション生成AIの使い方を解説しています。
Mootionでは、テキストや動画から3Dアニメーションを生成したり、Sotytellerという動画を生成する機能もあります。
今回の動画では、Mootionの基本的な使い方を解説しますが、別の動画で、3Dモデル生成AIと組み合わせて、オリジナルのアニメーションを作る方法を解説したいと思います。
ぜひ、チャンネル登録をしてお待ちください!
皆さんもこの動画を参考に、Mootionでアニメーションを作ってみてください!
【目次】
00:00 イントロ
00:42 Animator - Log in
01:48 Animator - Subscription Plan
03:14 Animator - motion
04:26 Animator - motion (Video Gen)
05:09 Animator - series
06:14 Animator - pose
06:52 Animator - meme
08:09 Animator - capture
09:58 Storyteller - Generate from Prompt
11:32 Storyteller - Gegenerate
12:33 Storyteller - Use Asset
13:31 Storyteller - Animate
15:35 Storyteller - Movie Settings
17:56 Storyteller - Use my content
19:41 アウトロ
【関連リンク】
Mootion
[www.mootion.com](...
Просмотров: 992

Видео

[Let’s Move the 3D Model!!] Create 3D Models and Animations Using Meshy!
Просмотров 2,3 тыс.Месяц назад
Meshyという3Dモデル生成AIの使い方を解説しています。 Meshyは、テキストや画像から3Dモデルを生成することができるだけでなく、生成したモデルにアニメーションを付けることもできます。 Meshyにはいろいろな機能がありますが、この動画では、Meshyの使い方を幅広く解説しています。 ぜひ皆さんもこの動画を参考に、いろいろな3Dモデルを作ってみてください! 【目次】 00:00 イントロ 00:41 Log in 01:02 Subscription Plan 02:13 Text to 3D 04:37 Preview Settings 06:08 AI Texture Editing 07:39 Smart Healing 08:48 Mesh Settings 09:50 Animation 11:38 Animation for Quadruped 12:52 Ima...
[Luma AI] Explaining the Features of Video and 3D Model Generation AI!
Просмотров 2,8 тыс.Месяц назад
この動画では、Luma AIの使い方を解説しています。 Luma AIは、3Dモデル生成AIのGenieや3Dシーン生成AIのInteractive Scenesなどで有名ですが、Dream Machineという動画生成AIサービスの提供も開始しました。 このように、Luma AIにはいろいろな機能がありますが、今回の動画では、これらの機能の使い方を幅広く解説しています。 皆さんもぜひ、Luma AIを使って、オリジナルの動画や3Dモデル、3Dシーンを作ってみてください! 今回の動画はLuma AIの機能を幅広く解説しているため、不要な章は飛ばしながら見ていただければと思います。 【目次】 00:00 イントロ 00:55 Dream Machine - ログイン 01:21 Dream Machine - サブスクリプションプラン 02:03 Dream Machine - txt...
[Let's Take a Look at the Drawing Process!!] Let's Create a Drawing Process Using Paints-Undo!!
Просмотров 4782 месяца назад
Paints-Undoという作画工程を推測するアプリの使い方を解説しています。 Paints-Undoは、Contol Netの開発などで知られるIllyasvielさんが開発した技術で、画像の作画工程を推測して、動画にすることができます。 このアプリを使うと、お気に入りの画像が出来上がっていく様子を動画にできるので、とても面白いですよ! 皆さんもこの動画を参考に、いろいろな画像の作画工程を動画にしてみてください! 【目次】 00:00 イントロ 00:41 Paints Undo - Install (Python) 02:25 Paints Undo - Install (PyTorch) 03:11 Paints Undo - Install (Local Host) 05:14 Paints Undo - Step1 05:30 Paints Undo - Step2 06:...
【Highly Anticipated Update!!】 Let's Create High-Quality Videos with Runway Gen-3!!
Просмотров 1,6 тыс.2 месяца назад
動画生成AIとして有名なRunwayから、Gen-3という最新バージョンがリリースされたので、さっそく使ってみました。 まだアルファ版なので、使える機能は限定的でしたが、とてもクオリティーの高い動画を生成できます。 皆さんもぜひ、Runway Gen-3を使って、いろいろな動画を作ってみてください! その他の動画生成AIの使い方についてはこちら👇 web版アプリ登場(Runway Inpainting, Motion Brush含む) ruclips.net/video/nftoKTlDZ8M/видео.html VIGGLE ruclips.net/video/0r3rzgaG0Vg/видео.html GoEnhance ruclips.net/video/2A3PMo_Slmw/видео.html Domo AI ruclips.net/video/HDlv5zGyCDM...
【Web App Also Available!!】Guide to Using Domo AI & VIGGLE (Web app) and PixVerse (Magic Brush)!!
Просмотров 9153 месяца назад
【Web App Also Available!!】Guide to Using Domo AI & VIGGLE (Web app) and PixVerse (Magic Brush)!!
[Rodin Gen-1] A Guide to Using 3D Model Generation AI and Creating Animations!
Просмотров 9 тыс.3 месяца назад
[Rodin Gen-1] A Guide to Using 3D Model Generation AI and Creating Animations!
【Tripo × Mixamo × UE5】Let's Create and Animate a 3D Model!
Просмотров 34 тыс.4 месяца назад
【Tripo × Mixamo × UE5】Let's Create and Animate a 3D Model!
【VIGGLE & Domo AI】 Move Your Favorite Characters Freely with Images + Videos!!
Просмотров 23 тыс.5 месяцев назад
【VIGGLE & Domo AI】 Move Your Favorite Characters Freely with Images Videos!!
【High Consistency!】Let's Create Various Styles of AI Videos with GoEnhance!
Просмотров 2,3 тыс.6 месяцев назад
【High Consistency!】Let's Create Various Styles of AI Videos with GoEnhance!
【Incredible Consistency!】Let's Create Cool AI Dance Videos with AnimateAnyone Evolved!!
Просмотров 3,7 тыс.6 месяцев назад
【Incredible Consistency!】Let's Create Cool AI Dance Videos with AnimateAnyone Evolved!!
"What's This?! Fun!!" Let's Make AI Videos with Domo AI!
Просмотров 6 тыс.7 месяцев назад
"What's This?! Fun!!" Let's Make AI Videos with Domo AI!
【Challenge AI Videos!】 Make your favorite characters dance with ComfyUI AnimateDiff! Part2 - vid2vid
Просмотров 4,3 тыс.7 месяцев назад
【Challenge AI Videos!】 Make your favorite characters dance with ComfyUI AnimateDiff! Part2 - vid2vid
【Get Slick Moves!】Create AI Videos with ComfyUI AnimateDiff! Part1 - txt2vid
Просмотров 3 тыс.7 месяцев назад
【Get Slick Moves!】Create AI Videos with ComfyUI AnimateDiff! Part1 - txt2vid
【No Complex Setup Required!】Comprehensive Guide on Features & How to Use PixVerse!
Просмотров 9 тыс.8 месяцев назад
【No Complex Setup Required!】Comprehensive Guide on Features & How to Use PixVerse!
【Here's something new!】 Let's create AI animated videos with Stable Diffusion Ebsynth Utility!
Просмотров 3,6 тыс.8 месяцев назад
【Here's something new!】 Let's create AI animated videos with Stable Diffusion Ebsynth Utility!
【Let's Try!】How to Use LoRA & Easy Creation Method (kohya's GUI)
Просмотров 18 тыс.8 месяцев назад
【Let's Try!】How to Use LoRA & Easy Creation Method (kohya's GUI)
[Smooth Animation!] Let's Create AI Movie with AnimateDiff! Part 2 (Mastering Useful Features!)
Просмотров 2,7 тыс.8 месяцев назад
[Smooth Animation!] Let's Create AI Movie with AnimateDiff! Part 2 (Mastering Useful Features!)
[Smooth Animation!] Let's Create AI Movie with AnimateDiff! Part 1 (Basic Usage)
Просмотров 3,6 тыс.8 месяцев назад
[Smooth Animation!] Let's Create AI Movie with AnimateDiff! Part 1 (Basic Usage)
[Create Your Own AI Video!!] Explaining How to Use Magic Animate & Vid2DensePose!
Просмотров 2,3 тыс.8 месяцев назад
[Create Your Own AI Video!!] Explaining How to Use Magic Animate & Vid2DensePose!
[Comprehensive Explanation!!] Explaining the Features and How to Use Pika1.0! I Also Made a PV!
Просмотров 4,9 тыс.9 месяцев назад
[Comprehensive Explanation!!] Explaining the Features and How to Use Pika1.0! I Also Made a PV!
[Anyone Can Do It!] Create a Commercial Using Suno AI x Gen-2!
Просмотров 1,6 тыс.9 месяцев назад
[Anyone Can Do It!] Create a Commercial Using Suno AI x Gen-2!
[Easy and Fun!] Try Stable Video Diffusion (SVD) with ComfyUI!
Просмотров 1,6 тыс.9 месяцев назад
[Easy and Fun!] Try Stable Video Diffusion (SVD) with ComfyUI!
[Music2Movie] Creating Videos from Music with Stable Audio x Kaiber!
Просмотров 6569 месяцев назад
[Music2Movie] Creating Videos from Music with Stable Audio x Kaiber!
[Which One is Best?] Comparing Movie Generation AI (Gen-2, Kaiber, Pika Labs) which are Easy to Use!
Просмотров 2,2 тыс.9 месяцев назад
[Which One is Best?] Comparing Movie Generation AI (Gen-2, Kaiber, Pika Labs) which are Easy to Use!
[Don't Miss Out!] Explaining Three Essential Features to Use in Stable Diffusion!
Просмотров 6 тыс.9 месяцев назад
[Don't Miss Out!] Explaining Three Essential Features to Use in Stable Diffusion!
[Must Watch!] How to Use Stable Diffusion ControlNet Part 2 (Comparison of ControlNets)
Просмотров 2,2 тыс.9 месяцев назад
[Must Watch!] How to Use Stable Diffusion ControlNet Part 2 (Comparison of ControlNets)
[Simple! Easy!] Create SDXL Images with Fooocus!
Просмотров 7999 месяцев назад
[Simple! Easy!] Create SDXL Images with Fooocus!
[Must Watch!] How to Use Stable Diffusion ControlNet Part 1 (Installation to Basic Usage)
Просмотров 7 тыс.9 месяцев назад
[Must Watch!] How to Use Stable Diffusion ControlNet Part 1 (Installation to Basic Usage)
[Moves Realistically!] Create and Animate an Original Avatar with Stable Diffusion x D-ID!
Просмотров 8769 месяцев назад
[Moves Realistically!] Create and Animate an Original Avatar with Stable Diffusion x D-ID!

Комментарии

  • @LOFITunesFX-p3f
    @LOFITunesFX-p3f 7 дней назад

    こんにちは!一番分かりやすいです!ワークフローがあるので助かります^^

  • @torayoshi2002
    @torayoshi2002 14 дней назад

    ゲームのサブキャラを反映させることができました。ありがとうございますっ。

  • @kytooo9260
    @kytooo9260 17 дней назад

    google colabでのLoRAの導入ってできるのですか?

  • @word4you
    @word4you 19 дней назад

    dataset-tag-edidor-standaloneでランチエラー出てしまいます。 要件を見ると、 「 PyTorch with CUDA >= 1.10.0 (TorchDeepDanbooruが使用するonnx-pytorchの要件) PyTorchのバージョンはtransformersに依存しています。」 仮想環境でPyTorchをアップデートせよ、でもその前にtransformersをチェックせよ? ってことでしょうけど、さて?何をどうやっていいか?まるでワカリマセン・・・

  • @yujisobue1649
    @yujisobue1649 19 дней назад

    興味があり、入れてみましたが、 raise err OSError: [WinError 126] 指定されたモジュールが見つかりません。 というエラーが表示されました。 原因、分かるでしょうか?

  • @rainbow-cozy
    @rainbow-cozy 24 дня назад

    突然クオリティ上がった線画レイヤーが出現したりで「ふぁっ!?」ってなるので、絵描きがみればすぐバレるw まあ、これを出して「手描きです!」の根拠にするアフォは居ないと思うけどね。 PVなんかの素材として雰囲気を出したい時とかに使えると思うよ。

  • @787-10
    @787-10 25 дней назад

    21:07変なアプデで動画と違うレイアウトになったので、改訂版お願いします

  • @たりほー
    @たりほー 28 дней назад

    提供してくださっているワークフローを使うとUPSCALEのところでノイズまみれになるのですが何か解決策はありますでしょうか

  • @kimukimu2438
    @kimukimu2438 Месяц назад

    うーん。とても丁寧で分かりやすかったのに設定した線画と全く違うポーズを取ってしまいますね

    • @InIchiGaSan
      @InIchiGaSan 27 дней назад

      ControlNetのPreprocessorを変えてみたり、プロンプトを変えてみたり、Control weightを変えてみたりして、ちょうどいい設定を探っていくしかないかなと思います。 あとは、アップロードする画像を、より鮮明なものにしてみるとかでしょうか。

  • @edwardnigh1765
    @edwardnigh1765 Месяц назад

    インストールしてるはずなのにTagger って出ってこないです。。。

    • @InIchiGaSan
      @InIchiGaSan Месяц назад

      動画で紹介しているTaggerはすでに更新が止まっていて、picobyteさんという方がtaggerを更新してくれているようなので、こちらをインストールしてみるのはいかがでしょうか? github.com/picobyte/stable-diffusion-webui-wd14-tagger

  • @edwardnigh1765
    @edwardnigh1765 Месяц назад

    Datatageditor、launch_userbatクリックしてエラーって書かれていて消えてしまうんだが。。。どうしたらいいですか?

    • @InIchiGaSan
      @InIchiGaSan 27 дней назад

      PyTorchのバージョンが2.4.0だと動かないようで、↓のリンクから古いバージョンのPyTorch 2.3.1をインストールしてからinstall.bat→launch_user.batを実行すると、うまく起動できると思います。 【リンク】 pytorch.org/get-started/previous-versions/#v231 【コマンド】CUDAのバージョンによってコマンドが違いますが、とりあえず12.1から試してみるといいと思います。 # CUDA 11.8 pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 --index-url download.pytorch.org/whl/cu118 # CUDA 12.1 pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 --index-url download.pytorch.org/whl/cu121

    • @torayoshi2002
      @torayoshi2002 16 дней назад

      @@InIchiGaSan 動画ありがとうございます!昨日からAI生成を始めた者なのですが、私もそこで引っかかってしまいました。launch_user.batを起動すると Error loading "C:\Users\〇〇〇\AppData\Local\Programs\Python\Python310\lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.と表示されてしまいます。 pytorchをインストール(使用)する為にはCUDA、VisualBasic、Windows ML、Windows SDK(MLを使用するためのもの)、Anacondaのインストールはマストなんでしょうか? 入っているのか入っていないのかすら分からず行き詰まってしまっています。orz

  • @仕事生活
    @仕事生活 Месяц назад

    今のバージョンだとあとfp16とbf16の選択する項目がないけど、何も入力しなくいいのかな?

    • @InIchiGaSan
      @InIchiGaSan Месяц назад

      最近のアップデートで、Kohya's GUIのインストール時(もしくは学習実行時?)に自動でfp16 or bf16を判断して設定してくれるようになったのかもしれませんね。 LoRA学習が問題なく進むようであれば、特に設定する必要はないのかな、と思います。

  • @仕事生活
    @仕事生活 Месяц назад

    どうしてもponyで足や胴が長くなったり崩れてしまいます、フォルダの画像サイズは全部1024x1024で固定しているにも関わらず... alphaの値を動かした方が良いのかな?ここもどう調整すればいいかよくわからん。

    • @InIchiGaSan
      @InIchiGaSan Месяц назад

      そうですねーー、LoRA作りは試行錯誤の繰り返しで丁度いいパラメーターの設定値を探っていくしかないのですが、 1. Kohya's GUIの設定画面でMax resolutionを1024, 1024にしているか確認 2. 学習データの角度やポーズの種類を増やしてみる 3. 学習ステップ数に幅を持たせて試してみる などでしょうか? DimensionとAlphaの設定については、私も完璧に理解しているわけではないですが、ちょっと学習量が足りないかな?と思ったときはDimensionを増やしてみて、AlphaはDimensionの半分くらいに設定しています。

  • @historiasunicass
    @historiasunicass Месяц назад

    Dear InIchiGaSan, I hope this message finds you well. First and foremost, I want to express my deep respect and admiration for your work. I am a huge fan and I think you are an incredibly intelligent and talented programmer. In my opinion, you are one of the best in your field. I have had a project in mind for several years, but I have found it extremely difficult to start. Despite extensive research, I have been unable to find an application that meets my needs. My goal is to produce my own television series and edit my other videos using a 100% secure application. I would greatly appreciate any advice or assistance you could offer. I understand that translating from Japanese to Spanish is challenging for me, but I am making an effort. I apologize for any inconvenience and thank you very much for your time and help. Best regards, Luis Enrique 🎉

  • @contentfreeGPT5-py6uv
    @contentfreeGPT5-py6uv Месяц назад

    Jaja

  • @YXGenshinImpact
    @YXGenshinImpact Месяц назад

    Thank you for your video. I followed the instructions and successfully started Paints-UNDO. Everything is fine until Step 3. I can't do this step. Some error message related to CUDA, xFormers makes me confused as to which step I did wrong.

  • @user-yy2vh6bv9w
    @user-yy2vh6bv9w 2 месяца назад

    こういうのってAIおじさんの手描きなりすましぐらいしか使われなさそう そもそもなんのレイヤー効果を使ったかの説明も出来ないだろうし、迷った2案3案のラフとかもないし

  • @kilirin5022
    @kilirin5022 2 месяца назад

    Tagger起動して画像読みこみまではできるのですが必ずエラーが出てプロンプトが出てきませんなにか解決方法でもあるでしょうか

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      返信遅くなりました💦 AUTOMATIC 1111のバージョンのバージョンが古い、Taggerのバージョンが古い、などの理由が考えられるので、それぞれを最新版にアップデートしてみるのはいかがでしょうか。 また、Taggerについては、動画でご紹介しているtriatoさんのプロジェクトはアーカイブされてしまっており、最新版のAUTOMATIC 1111に対応していないので、picobyteさんのTagger(triatoさんのTaggerを引き継ぎ、更新し続けてくれているプロジェクト)を使ってみるのも解決策の一つかと思います。 github.com/picobyte/stable-diffusion-webui-wd14-tagger

  • @ВарвараНестерова-э2д
    @ВарвараНестерова-э2д 2 месяца назад

    Очень красиво. И очень любопытно. ❤

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      Спасибо! Я рад, что вам это интересно. 😊

  • @illumina6969
    @illumina6969 2 месяца назад

    8GBのメモリでもBF16でよろしいのでしょうか

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      ご質問ありがとうございます! bf16もfp16もメモリの使用量はそこまで変わらないはずなので、bf16でも大丈夫だと思います。 ただ、一部のGPUやライブラリではbf16がサポートされていないこともあるので、うまく学習ができない場合は、fp16を選んでみてください。

    • @illumina6969
      @illumina6969 2 месяца назад

      @@InIchiGaSan ありがとうございます🙇‍♂

  • @wath71
    @wath71 2 месяца назад

    わかりやすかったです。ありがとうございました😊

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      ありがとうございます!😆 今後も有益な情報を発信していけるように頑張ります!💪

  • @諭吉-m9t
    @諭吉-m9t 3 месяца назад

    顔が思いっきり崩れます。修正方法などはないでしょうか??

    • @InIchiGaSan
      @InIchiGaSan 2 месяца назад

      VIGGLEはアップロードした画像と動画次第でアウトプットの結果が決まってしまうので、 ・顔がはっきりわかる画像にする ・あまり激しい動きの動画は避ける ・画像と動画の人物の体型をできるだけ同じようにする などを考慮すると、大きく動画が崩れることはないかと思います。 できあがった動画を修正する場合は、Domo AIやGoEnhanceなど、スタイルチェンジ系の動画生成AIを使うと、いい感じで顔が生成できたりします。

  • @suke0408
    @suke0408 3 месяца назад

    20:47 からですがSource modelのタブがなくModel quick pickをcostomに変えれないのですがどうすればいいでしょうか?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      Kohya's GUIのUIがアップデートされているようで、LoRA→Trainingタブの中にModelという項目があり、その中にPretrained model name or pathがあるはずなので、そこに学習に使うモデルを設定できるはずです。

    • @suke0408
      @suke0408 3 месяца назад

      @@InIchiGaSan ご丁寧にありがとうございます!試してみます!

  • @user-gf4xj3mh8z
    @user-gf4xj3mh8z 3 месяца назад

    Loadを押した後に画像が上手く表示されません;; 本来画像表示される所の左上に画像アイコンだけ表示されていて他は真っ白です。これは何かを間違えたのでしょうか…

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      以下を試してみるのはいかがでしょうか? インストールの問題: 動画の中でrequirements.txtファイルにfastapi==0.95.2を追加していますが、バージョンのアップデートに伴い、これが不要になった可能性も考えられます。 画像ファイルの問題: 画像ファイル自体に問題がある可能性も考えられます。画像ファイルが破損していたり、サポートされていない形式等。 画像のパスやディレクトリの設定の問題: 画像パスに特定の文字(日本語やスペースなど)が入っていると、うまくディレクトリを読み込めない可能性があります。 あとは、以下のリンクの下のほうにトラブルシューティングがあるので、こちらを確認してみるなどでしょうか。 github.com/toshiaki1729/dataset-tag-editor-standalone/blob/main/README-JP.md

    • @user-gf4xj3mh8z
      @user-gf4xj3mh8z 3 месяца назад

      @@InIchiGaSan ありがとうございます!!頂いたアドバイスを全て試してみます!!

  • @Dora-xr8uz
    @Dora-xr8uz 3 месяца назад

    バージョン1.94で taggerってどうしてますか?調べたところ使えないらしくて…taggerをインストールすると強制的にstable diffusionのバージョンアップもされてしまうので詰み状態です💧解決法か代用できる他サービスでもあればと思ったのですが…

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      triatoさんが開発していたTaggerの更新が止まってしまったので、現在はpicobyteさんという方が開発したTaggerを使っています! github.com/picobyte/stable-diffusion-webui-wd14-tagger

    • @Dora-xr8uz
      @Dora-xr8uz 3 месяца назад

      どうやら同じエラーでダメみたいです… とりあえず代用でversatile diffusronのimage to text使って見ます。 ありがとうございました🙇

  • @猫実験室
    @猫実験室 3 месяца назад

    難しそう

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      ComfyUIのAnimate Diffとかを先に触っておくといいかもしれません!

    • @猫実験室
      @猫実験室 3 месяца назад

      comfyUIにキーロガーがなんとかかんとかで危ないと聞きました、タイムリー

  • @takautosu
    @takautosu 3 месяца назад

    フォーマットをFBXにできないのですが、なぜかわかりませんか🥹💦❓❓❓❓❓❓

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      Tripoでモデルをダウンロードするときのフォーマット選択のことですかね?? 基本的にはFormatでfbxを選択すればfbx形式でダウンロードできるはずですが、Customでツールを選択すると、一部fbxを選べないものがあるのかもしれません。 または、一時的なエラーの可能性もあるので、時間をおいてからダウンロードできるか試してみるといいかと思います。

    • @takautosu
      @takautosu 3 месяца назад

      @@InIchiGaSan 丁寧にありがとございます! 時間を置いたらできました😭😭😭

  • @user-xf7sj2md4t
    @user-xf7sj2md4t 3 месяца назад

    すみませんが、kohya_ssが上手くインストールされません私のパソコンの環境は、windws 11 Pro 64ビットでチップの種類NVIDIA GeForce RTX 2070 Superメモリ(VRAM):7989MBですこれだと出来ないですか?教えて下さい。kohya_ssのインストールの途中で質問が出て来ません。宜しくお願い致します。出来るなら何か原因ですか、python-3.10.11-amd64.Git-2.45.2-64-bitをインストールしています。

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      返信遅くなりました💦 bmaltaisさんのkohya_ssのGitHubページに飛ぶと、WindowsのPre-requirementsとして以下の条件が挙げられています。 こちらの設定を試したうえで、再度kohya_ssを起動してみるのはいかがでしょうか? 1. Install Python 3.10.11. (インストール時にPATHを通すのを忘れずに)→恐らくインストール済み? 2. Install CUDA 11.8 toolkit. 3. Install Git.→恐らくインストール済み? 4. Install the Visual Studio 2015, 2017, 2019, and 2022 redistributable.

  • @capskey666
    @capskey666 3 месяца назад

    すごい、やっぱりあっという間に進化しますね

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      そうですね!3Dモデル生成AIの進化は凄まじいと思います。 ただ、これでもまだ実用レベルではない、という声も聞くので、さらなる進化に期待ですね🤩

  • @Legend-dy5zu
    @Legend-dy5zu 3 месяца назад

    先日から動画拝見させていただいています。ComfyUIを触り始めていたところだったので、とても助かります。 動画の中の件で教えていただきたいことがあるのですが、07:20 VAE/Embedding/LoRAの準備でのVAE、Embedding、LoRA(前出のLoRAとは別の)は、何をコピーしたらよいのか教えていただけると幸いです。素人で申し訳ありませんが、宜しくお願いいたします。

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      ご質問ありがとうございます! Stable Diffusionでは、VAEやEmbedding、LoRAといった技術を組み合わせることで、画像や動画のクオリティーを上げたり、自分のイメージに近い画像や動画を生成することができます。 VAEやEmbedding、LoRAを使うためには、専用のファイルが必要なのですが、本動画では、この専用ファイルを所定のフォルダに保存することを解説しています。 専用ファイルについては、Stable Diffusion VAEやStable Diffusion Embeddingなどで検索するとおすすめのものが出てくるので、それをダウンロードして使ってみるのがいいかと思います。 参考までに、VAEは「vae-ft-mse-840000-ema-pruned」というファイル、Embeddingは「EasyNegative」や「EasyNegativeV2」というファイルを所定のフォルダに保存しています。 LoRAについては、特定のキャラクターを生成しやすくなるものなど、いろいろなものがあるので、お気に入りのものを見つけたら、ファイルをダウンロードして所定のフォルダに保存しておくといいと思います(LoRAについて解説している動画もあるので、そちらの動画も合わせてみていただけると理解が深まるかと思います!)。

  • @noki9328
    @noki9328 3 месяца назад

    dataset-tag-editor-standaloneをcmdでフォルダを作成・インストールし、launch_user.batで起動しましたが、"Cannot find venv folder. Please run install.bat first." 何かキーを押してくださいと出てサイトへ移動できません。どうすればよいでしょうか?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      ご質問ありがとうございます! launch_user.batで起動する前に、intall.batというバッチファイルがあるはずなので、そちらを実行してからlaunch_user.batバッチファイルを起動してみてください。 この順番でバッチファイルを起動していけば、data-set-tag-editorのURLが表示されるのではないかと思います。

    • @noki9328
      @noki9328 3 месяца назад

      その手順でやっているのですができません

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      なるほど。 この手順でやってみてうまくいかないということは、requirementを確認してみた方がいいかもしれないですね。 こちらの動画ではサラッと省略してしまっているのですが、dataset-tag-edidor-standaloneのgithubページにrequirementという項目があり、PythonやPyTorchなどをインストールしている必要があります。 過去に(Stable Diffusion webUIをインストールするタイミングなど)すでにrequirementで必要なものをインストール済みだったので、この動画では特にエラーが出なかったということが考えられるので、一度requirementの条件を満たしているか確認してみるのがいいかもしれません。

    • @noki9328
      @noki9328 3 месяца назад

      @@InIchiGaSan ありがとうございます試してみます。またわからなかったらお聞きしてもよろしいでしょうか…?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      はい😊 お気軽にご連絡ください!

  • @nambara
    @nambara 3 месяца назад

    僕のモデル作りたいですねー

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      人型のモデルはまだ難しそうでしたが、今後のアップデートに期待です‼️ 人型のモデルが簡単にできるようになると、をアバター作るのが簡単になるので、いろいろな場面で使えそうです🤩

  • @王子あすなっち
    @王子あすなっち 3 месяца назад

    3Dモデルを画像から作ってみたけどクオリティが低すぎて使い物にならなかった

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      まだまだ改善の余地ありですね! 半年後とかに振り返った時、当時のクオリティは酷かったと笑い話にできるくらい進化していて欲しいです✨

    • @王子あすなっち
      @王子あすなっち 3 месяца назад

      @@InIchiGaSan そうですね。 現時点でクオリティが低いのはしょうがないのですが、全然使えないのに無料じゃなくお金が発生してるのがちょっと許せないですね。 自分が製作者側だったらファンの獲得だけにしときますね。流石にお金は取れない。

    • @RIDEREX
      @RIDEREX 3 месяца назад

      私は普段、ブレンダーでキャラモデルを制作していますが、このようなAIは使い物になりません。理由は、裸の素体と衣装を分離できていないだけでなく、表情を動かすための顔のパーツの分離(目眉毛、まつ毛、口、歯など)もできていないからです。表情を動かして喋らせたりできないのであれば、ウェブ漫画のモブシーンの背景で使用するくらいしかできませんね。このクウォリティのAIモデルを映画やアニメの登場キャラとして使用するのは無理だし、AI出力モデルは著作権問題で採用されないはず。3Dモデルを比較的簡単に作りたい場合はVRoidStudioで作ることをお薦めします。現在の主流データ形式であるVRM形式で出力できるから、そのままVTuberアバターやゲームソフトのモデルとして使用できますよ。著作権も制作したユーザーが持つことができ、商用利用OKですから。

  • @LONE_PUPPY
    @LONE_PUPPY 3 месяца назад

    ロダンじゃねーの?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      確かに‼️フランス語かもですね😱

    • @kay-wj5nw
      @kay-wj5nw 3 месяца назад

      彫刻やしな

  • @恥ずかしさをお届け
    @恥ずかしさをお届け 3 месяца назад

    ひな形として使って調整していくのがよさそうかな。

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      そうですねー。 まだ、そのまま使うには粗い部分が目立ちますね😭

  • @user-pz2co7wg2j
    @user-pz2co7wg2j 3 месяца назад

    生成された3Dモデルのポリゴンの流れ、トポロジーは、やっぱりまだまだいい加減なまま。たぶんUVもグチャグチャなんだろうな。 恐竜なんかだと、ボディと歯と舌を別々のパーツに分けて生成してほしい所だけど、ワンメッシュで生成されている。商用利用に耐えられるようになるのは、もう少し先かなぁ~。

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      確かに今はパーツごとにメッシュは分かれてないですね🤔 まだまだ改善点は多いですね!

  • @アリゾナ秀
    @アリゾナ秀 3 месяца назад

    私はBlenderの名前を知っている程度のド素人ですが、今SteamのTransport Fevar2と言う鉄道等輸送ゲームでジオラマ自作鉄道路線作成をしようとしています。しかし元メーカーがEROスイス?のせいか人物がすべて外人(白人、黒人)で日本人や東洋人は一人もいません。ゆえにだれか有志が作成してくれるのを待っていますが、今のところその兆候がありません。したがってもし可能ならド素人の私が作ろうと思っていますが(勿論日本風の建物も作りたいです)、そこで以下に質問をします。①こちらの目的は単に街を歩く人々、たたずんで携帯を見ている人物、駅のホームで電車を待つ人々、ゴルフ場でスイングをするプレイヤー、海水浴場での人々(海岸で日光浴。歩行、泳ぐ)等シンプルな動きの人物です。これらをTF2の画面上に挿入したいです。②しかるに顔や風体はアニメチックではなく出来るだけ実写に近いほうがリアルと思います。③又上記の人物を個々に作って挿入するとかなりの容量になるのでは?と思いある程度複数でランダムに歩行するアニメが良いですが、そのほうが容量が少ない?そういうのを作成できますか?以上の目的で見たところViggleとBlenderの組み合わせが一番簡単に出来そうですがいかがでしょうか?

    • @InIchiGaSan
      @InIchiGaSan 3 месяца назад

      ご返信遅くなりました💦 VIGGLEでは、複数人物が登場する動画を作るのが難しそうなので(参照元画像に出てくる人物は一人が推奨されています)、複数人物のアニメーションをまとめて作るのであれば、MixamoというAdobeのサービスがおすすめです。

  • @我が人生に幾万の悔いあり
    @我が人生に幾万の悔いあり 4 месяца назад

    登録&通知オンにしました これからよろしくお願いします! とても参考になります! あとは商業利用、維持費などお金に関する情報も触れてくれるとさらに助かります。

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      登録&コメントありがとうございます! そうですね。商業利用できるのかや、どれくらいのコストがかかるのかは気になるところだと思うので、情報提供していけるように改善していきたいと思います🫡

  • @hman9715
    @hman9715 4 месяца назад

    いずれコンテとテキストと音声指示でアニメまで全部作成出来る様になったら、何か作ってみたいもんだw 案外そんな日も近いかも知れんね。

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      そうですね! Open AIのSoraやGoogleのVeoなど、長尺かつ一貫性の高い動画が作れるサービスも出てきているので、台本などがあればアニメが作れるようになってしまう日も近いかもしれないですね🤩

  • @raditan-radiology
    @raditan-radiology 4 месяца назад

    ありがたや

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      ご参考になったようでよかったです!☺️

  • @healingtherpist6521
    @healingtherpist6521 4 месяца назад

    素晴らしいですッ! プロって感じですね。できれば初心者向けの動画解説もつくっていただくと有難いです。 初心者の方が多いと思いますので。 何はともあれ有り難うございました。

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      コメントありがとうございます! なるほど。今回の動画では、ある程度基礎的な部分は省いてしまいましたが、もう少し基礎的な内容もあった方がいいと言うことですね。 今後の動画作りの参考にさせていただきます!🫡

  • @ran5tako
    @ran5tako 4 месяца назад

    すごい参考になりました。自分でもやってみます!

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      ぜひ、いろんなツールを組み合わせてオリジナルの作品を作ってみてください!😆

  • @BB-lb7pi
    @BB-lb7pi 4 месяца назад

    この動画すごく良いんだけど、生成AIって「楽して儲ける」ってヤツ多いけど正気で言ってるの?って思う。だってそんなヤツは山程いて、山程居る「楽して儲ける」ってヤツがマーケットのどれだけを寡占できると思ってるの…アメリカのゴールドラッシュで儲けたのは鉱夫にスコップを売ってたヤツって話があるけど、こういう動画こそが「スコップ売り」何だと思うよ。

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      楽して儲けるっていうのは、なかなか難しいですよね。本当にそんな方法があれば、みんな集まってきてしまうので、結局その中で生き残るために色々工夫が必要になってきてしまいます。

    • @我が人生に幾万の悔いあり
      @我が人生に幾万の悔いあり 3 месяца назад

      AIによる値崩れを見越して行動してる奴が勝つよ。あとセンスがもろに出る。

    • @hondacb400f5
      @hondacb400f5 3 месяца назад

      発想が逆だな、こういうのを取り入れていかないと置いてかれるんだよ キャラ一体あたり250万円くらいが相場として、AIの活用でそれが25万円とかになったら従来の作り方だと太刀打ちできないだろ 実際、かつては手作りしてた背景パーツがメガスキャンで様変わりしてるだろ

    • @hondacb400f5
      @hondacb400f5 3 месяца назад

      こういう動画は俺ら情弱にも救いの手を差し伸べてくれる素晴らしい教材だから感謝すべき

  • @Mohammed.Salem.
    @Mohammed.Salem. 4 месяца назад

    Wow this is amazing .... すごい 👏👏

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      Thanks! 😁 This is a power of thechnology〜

  • @MENMA0147
    @MENMA0147 4 месяца назад

    AIのほうは途中で服変わったりしなければ表情の変化や毛先の動きとか躍動感があっていいね

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      そうですね! Domo AIの方が動画に奥行きがあるというか、躍動感がある感じがします。 一方で、一貫性という観点からはVIGGLEの方がいいかなぁというのが個人的な感想です。

  • @phtmdJpjxjthvmajtpgptjtadwujvj
    @phtmdJpjxjthvmajtpgptjtadwujvj 4 месяца назад

    viggleの動画作ったあとにはハイケをつけるのはどうすればいいですか?

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      ご質問ありがとうございます! グリーンバックで動画を作っている場合は、動画編集ソフトなどでVIGGLEで作成した動画と背景素材を合成し、VIGGLEで作成した動画のグリーンバックの色を抜いてあげれば背景をつけることができると思います。 動画編集ソフトによってグリーンバックの処理の仕方は違ってくると思います!

  • @ai-xz4yz
    @ai-xz4yz 4 месяца назад

    Stable Diffusionのインストールが全て動画通り進めてきたのですが、 9:20の手順で以下のようなエラーが出てしまいます…何が問題なのでしょうか…? Kohya_ss setup menu: 1. Install kohya_ss GUI 2. (Optional) Install CuDNN files (to use the latest supported CuDNN version) 3. (DANGER) Install Triton 2.1.0 for Windows... only do it if you know you need it... might break training... 4. (Optional) Install specific version of bitsandbytes 5. (Optional) Manually configure Accelerate 6. (Optional) Launch Kohya_ss GUI in browser 7. Exit Setup Select an option: 1 04:57:18-500406 INFO Kohya_ss GUI version: v24.1.4 04:57:18-510402 INFO Python version is 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)] 04:57:18-511770 ERROR The current version of python (sys.version_info(major=3, minor=10, micro=6, releaselevel='final', serial=0)) is not appropriate to run Kohya_ss GUI 04:57:18-512753 ERROR The python version needs to be greater or equal to 3.10.9 and less than 3.11.0 C:\Lora_Kohya_ss\kohya_ss>

    • @user_fyu64477
      @user_fyu64477 4 месяца назад

      今はkohyaのphyonは3.10.11なんでそれインストールしてちょ

    • @ai-xz4yz
      @ai-xz4yz 4 месяца назад

      @@user_fyu64477 お返事頂きましてありがとうございます! 無事9:20以降進むことが出来ましたが、今度は子フォルダに入ってる画像を読み込むことが出来ませんでした。 もちろん動画内で修正されてることは行いましたが、それでもダメでした。 度々申し訳ございません申し訳ございませんが、アドバイスを頂けましたら幸いです… 動画上と異なる点がございましたので、こちらもご報告させて頂きます。 ①16:18で行うinstall.batをインストール際一番最初に「指定されたパスが見つかりません。」という文章が数秒表示されインストールが高速で進み(多分…)コマンドプロンプトが自動的に閉じられます。 ②launch_user.batを起動した際、アドレスは表示されましたが16:25の内容が異なりました。 PyTorch device: cpu Custom taggers loaded: ['aesthetic shadow', 'cafeai aesthetic classifier', 'Improved Aesthetic Predictor', 'wd aesthetic classifier'] C:\Users\kikin\AppData\Local\Programs\Python\Python310\lib\site-packages\gradio\components\dropdown.py:179: UserWarning: The value passed into gr.Dropdown() is not in the list of choices. Please update the list of choices to include: or set allow_custom_value=True. warnings.warn( Running on local URL: 127.0.0.1:7860 To create a public link, set `share=True` in `launch()`. ③17:24で修正するrequirements.txtの中身が以下の内容となっておりました。 gradio==4.28.3 transformers>=4.27.4 requests pillow numpy torch>=1.10.0 torchvision tqdm ダメもとで以下の修正を行いましたが、それでも画像読み込みが出来ませんでした… gradio==4.28.3 transformers>=4.27.4 requests pillow numpy torch>=1.10.0 torchvision tqdm fastapi==0.95.2 gradio==4.28.3 transformers>=4.27.4 requests pillow numpy torch>=1.10.0 torchvision fastapi==0.95.2

  • @contentfreeGPT5-py6uv
    @contentfreeGPT5-py6uv 4 месяца назад

    waooo thays

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      Impressive, right?

    • @contentfreeGPT5-py6uv
      @contentfreeGPT5-py6uv 4 месяца назад

      @@InIchiGaSan yes i have one Agi gpt five only demo, really impressive your product

  • @picchu3
    @picchu3 4 месяца назад

    AIがどれだけ普及しても、ラフ案を効率よく出せるかもしれない程度で、アートディレクションや実アセットを作り込むところでアーティストは必要 イラストでもすでにAI絵は飽きられてるし、誰でも出力できる成果物で稼げる範囲なんてたかが知れてると思ってる

    • @picchu3
      @picchu3 4 месяца назад

      インスタントラーメンでお店出して一儲けだ! って言ってるのと似てるかも。 薄利でトントンくらいはいけるケースが稀にあるかもだけど、そんなのより私は自分で作って食べるし、わざわざ外食で金払うなら普通に作ったラーメン食べにいく。

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      そうですね。 生成AIが使えるようになったとしても、アーティストの方達の仕事がなくなるわけではないと思います。 むしろ生成AIを使って、アーティストの人たちが自分のやりたいことに集中できる環境が作れるようになるといいですね!

  • @laystorin123
    @laystorin123 4 месяца назад

    すごいですね、ImageCreaterで作った映像からちゃんと3Dモデルが作られて 見えてないはずの背中とかもちゃんとできてるのは驚きです

    • @InIchiGaSan
      @InIchiGaSan 4 месяца назад

      AIが想像して描いてくれるのですが、たまに「そうくるか!」みたいな3Dモデルを作ってくれる時もあり、それはそれで面白いです😁