Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
🍀ジェネコのGPTsは👇こちらからどうぞ~^^(※公開設定の調整中なので😅)■Flux.1用のプロンプト作成(ジェネコのお手伝い)<ざすこのGPTs>chatgpt.com/g/g-675ef244e5688191a6968ed1ce357724-flux-1yong-huronhutozuo-ri-sienekonooshou-chuan-i
過不足ない、完璧な内容でした! デジタルに関してはほぼド素人の自分でも、無事描画までたどり着けました! 商用利用を考えているのでSchnellで入れましたが、我流でアレンジしたのでテキストエンコーダーがわかりませんでしたが、なんとかなってます。GPUは4070Superで、1枚1分程度でした。
ありがとうございます^^描画までたどり着けて良かったです✨Tiの方が若干早いんですかね~
導入から実際に画像作成する様子まで、とてもわかりやすい解説です。自分も他社製ですが4070TiSuperを使っているのでパフォーマンスも参考になります。
コメントありがとうございます!☺とっても励みになります🌱✨
いっさい飛ばさずすべて拝見しました。まったく無駄な部分が無くきっちりと導入から応用までわかりやすいまとめられた解説ですばらしいです。ローカルで使えるというのがやはり良いですね。Stable Diffusionもいいんだけど指とか細かいとこにおかしな表現があって限界を感じてる所だったのでこちらを試してみたいと思います。
ご視聴ありがとうございます!^^確かに StableDiffusionより高性能でしたのでぜひ試してみてくださ~い🌱
ありがとうございます。早速自分のマシンで確かめてみました。もともとForgeでFluxの環境は作ってましたが、量子化モデルは初トライです。Specは、corei7 11世代、RAM16GB 3060 12GBVRAMを考えてQ6を使用したのですが、これだとコンソールにwarnnigがガンガンでてヒヤヒヤしましたが、それでも何とか落ちずに生成できました。サイズなどのパラメタはデフォルトのままで、3分30秒程度。いやー4070早いですね。GPUのWeightをWarnnigが出ないギリギリの値まで下げ、サイズも512×700程度まで下げて1分30秒程度、まずはこの位で作成してみます。
そのぐらいのスペックでもちゃんと生成できるのは嬉しいですよね^^色々試してみましょう!
助かるよ☺️✨
使えるようになりました。ありがとうございます。動画の通りのモデルを使った場合、うちの4070Tiではちょっと遅いかな・・・。
TiとTi SUPER の差でしょうかねひとまず使える様になってよかったです^^
欲しいけど高い・・・、けど4070ti super が理想のグラボ。これで色々したい。
上を見るときりがないですので軽量化モデルを使って手の届く範囲でぜひ挑戦してみて下さい~!!
メモ取りながら見させていただきました。Fulx使いこなせてないので参考になります。そろそろSDXL,PONYから移行したいです。😅
私も最初は混乱気味だったのですが、使ってみるとまさに次世代って感じで目からウロコでした👀
Generationの中をどういじっていったらクオリティアップに繋がるかとか知りたいっす追記:いろいろ使ってみて思ったのは狙ったシンプルな命令が複数の場合にどうしてもどれかが疎かになっちゃうなって感じでした。単語羅列方式がどこまで指向性高かったかは知る由もないですが。
コメントありがとうございます!クオリティの向上に関してはパラメータ設定の調整というよりもプロンプト作成の方が強いかなと思います。Fluxの場合はシンプルな書き方よりもかなり詳細に文章で書いてあげた方がクオリティが高くなる傾向がありそうですね。^^
@@zasuko なるほど!あざます!!!
初心者的な質問ですいません。CPUですがAMDよりIntelの方がいいんですか?
ご質問ありがとうございます🌱CPUに関してはきちんと検証できていませんが、画像生成で主にパフォーマンスを求められるのはGPUの方なので、そこまで条件としては厳しくないかと思います、なので恐らく性能的にある程度のものであればどちらでも問題ないかと思われます^^
civitaiでGGUFモデルのバージョン違いがいくつもあって混乱してたから、ざっくり理解できたQ4.0・Q4.1・Q4.KSなんて、アップデートか何かだろうか?
オープンソースなのでモデルは公式以外のものが結構いろいろ出てますねこれじゃないとダメというのは無いと思うのでいろいろ試してみて頂くのがよいかと!🌱
RTX4070super買ったばっかりなんですけどRTX4070superでもFLUX環境くめますか...??
おお!12GBのやつですかね、十分動かせると思いますよ~☺ぜひ今回の動画を参考に試してみて下さい🌱
@@zasuko 先日はありがとうございました、zasukoさんの動画を参考に無事stable diffusionを楽しめています。ただ、理由あってWeb UI / AUTOMATIC1111の環境でやっているため、zasukoさんの説明にあるフォルダがなかったりしてFLUX導入できずに困っています。ベースモデル、VAEのファイルはあるのですが、CLIPフォルダがどうしても見つかりません。新たに作成すればよいのでしょうか?ご回答よろしくお願いします。
なるほど、では「models」フォルダにある「text_encoder」に入れてみて下さい、ここに入っていれば認識されると思います^^
@@zasuko ご回答ありがとうございます!さっそく確認したところ、text_encoderのファイルも見つかりませんでした,,,。modelsフォルダ内にあるファイルは、「Codeformer」「Controlnet」「deepbooru」「GFPGAN」「haypernetworks」「insightface」「karlo」「Lora」「reactor」「Stable_diffusion」「VAE」「VAE-approx」のみでした。お手数おかけします...。
なるほど、であれば試しに「Models」内に「CLIP」フォルダを作成してその中に入れてみて下さい~
初心者です。ざすこさんの動画を参考に独学しています。わかりやすくてありがたいです。この動画と同じようになりない部分があります、教えていただけないでしょうか。「clip_l.safetensors」と「t5-v1_1-xxl-encoder-Q8_0.gguf」models/clipのフォルダーに入れてもVAE / Text Encoderの選択に現れません。models/VAEフォルダに入れた「ae.safetensors」しか選択に出てきません。「clip_l.safetensors」と「t5-v1_1-xxl-encoder-Q8_0.gguf」をVAEフォルダに入れると選択しとして出てきます。どうしてでしょうか。何か設定があるのでしょうか。StabilityMatrixを導入してします。
ご質問ありがとうございます、同様の相談が他にもありましたが「Models」内に「CLIP」フォルダを作成してその中に入れてみるか、「Models」フォルダにある「text_encoder」というフォルダがあればそこに格納してみて下さい、それで認識されるかもしれません。
@@zasuko すばやしご返答ありがとうございます。「CLIP」はもともとありましたので、「clip」にして試しました。「text_encoder」というフォルダーはなかったので、作成して格納しましたがやはりだめでした。色々やってみます。※できなくてもvseに格納すれば動作するのでそちらでやります。
@@tendo-ai StabilityMatrix\Data\Packages\Stable Diffusion WebUI Forge\Models\text_encoderに格納してtext_encoderのファルダーごとコピーしてStabilityMatrix\Data\Models\の中にtext_encoderのファルダーを作成して格納したらできるようになりました。自己流です。
今まさに同じことで悩んで、ここ見て解決しました。ありがとうございます。ESRGANやLoraと同様、Data\Models\CLIPフォルダ内のデータをData\Packages\Stable Diffusion WebUI Forge\models\text_encoderから跳べるようにシンボリックリンク化しないといけないのが不発してるようですね。mklink /D で貼り直したら普通に読めました。
install失敗。Pony/forge環境がすでに存在してるのがいけないのか・・・
何かエラー表示のようなものは出ていますか?StabilityMatrixが起動しないとかでしょうか?
@@zasuko エラーアーカイブを報告してくださいという感じのエラーですね。中見てもさっぱりわかりません。
@@織田桐瓜紋 わたしも同様にインストール時にエラーを出しましたが再起動して確認したところ実際にはインストール完了してました。グラボは1世代前のRTX3080環境ですが安定して動作しています。
🍀ジェネコのGPTsは👇こちらからどうぞ~^^(※公開設定の調整中なので😅)
■Flux.1用のプロンプト作成(ジェネコのお手伝い)
<ざすこのGPTs>
chatgpt.com/g/g-675ef244e5688191a6968ed1ce357724-flux-1yong-huronhutozuo-ri-sienekonooshou-chuan-i
過不足ない、完璧な内容でした! デジタルに関してはほぼド素人の自分でも、無事描画までたどり着けました! 商用利用を考えているのでSchnellで入れましたが、我流でアレンジしたのでテキストエンコーダーがわかりませんでしたが、なんとかなってます。GPUは4070Superで、1枚1分程度でした。
ありがとうございます^^
描画までたどり着けて良かったです✨
Tiの方が若干早いんですかね~
導入から実際に画像作成する様子まで、とてもわかりやすい解説です。自分も他社製ですが4070TiSuperを使っているのでパフォーマンスも参考になります。
コメントありがとうございます!☺
とっても励みになります🌱✨
いっさい飛ばさずすべて拝見しました。まったく無駄な部分が無くきっちりと導入から応用までわかりやすいまとめられた解説ですばらしいです。
ローカルで使えるというのがやはり良いですね。Stable Diffusionもいいんだけど指とか細かいとこにおかしな表現があって限界を感じてる所だったのでこちらを試してみたいと思います。
ご視聴ありがとうございます!^^
確かに StableDiffusionより高性能でしたので
ぜひ試してみてくださ~い🌱
ありがとうございます。
早速自分のマシンで確かめてみました。
もともとForgeでFluxの環境は作ってましたが、量子化モデルは初トライです。
Specは、corei7 11世代、RAM16GB 3060 12GB
VRAMを考えてQ6を使用したのですが、これだとコンソールにwarnnigがガンガンでてヒヤヒヤしましたが、
それでも何とか落ちずに生成できました。サイズなどのパラメタはデフォルトのままで、3分30秒程度。
いやー4070早いですね。GPUのWeightをWarnnigが出ないギリギリの値まで下げ、サイズも512×700程度まで下げて
1分30秒程度、まずはこの位で作成してみます。
そのぐらいのスペックでもちゃんと生成できるのは嬉しいですよね^^
色々試してみましょう!
助かるよ☺️✨
使えるようになりました。ありがとうございます。動画の通りのモデルを使った場合、うちの4070Tiではちょっと遅いかな・・・。
TiとTi SUPER の差でしょうかね
ひとまず使える様になってよかったです^^
欲しいけど高い・・・、けど4070ti super が理想のグラボ。これで色々したい。
上を見るときりがないですので軽量化モデルを使って
手の届く範囲でぜひ挑戦してみて下さい~!!
メモ取りながら見させていただきました。Fulx使いこなせてないので参考になります。
そろそろSDXL,PONYから移行したいです。😅
私も最初は混乱気味だったのですが、使ってみると
まさに次世代って感じで目からウロコでした👀
Generationの中をどういじっていったらクオリティアップに繋がるかとか知りたいっす
追記:いろいろ使ってみて思ったのは狙ったシンプルな命令が複数の場合にどうしてもどれかが疎かになっちゃうなって感じでした。単語羅列方式がどこまで指向性高かったかは知る由もないですが。
コメントありがとうございます!クオリティの向上に関しては
パラメータ設定の調整というよりもプロンプト作成の方が強いかなと思います。
Fluxの場合はシンプルな書き方よりもかなり詳細に文章で書いてあげた方がクオリティが高くなる傾向がありそうですね。^^
@@zasuko なるほど!あざます!!!
初心者的な質問ですいません。CPUですがAMDよりIntelの方がいいんですか?
ご質問ありがとうございます🌱
CPUに関してはきちんと検証できていませんが、画像生成で主にパフォーマンスを求められるのはGPUの方なので、そこまで条件としては厳しくないかと思います、なので恐らく性能的にある程度のものであればどちらでも問題ないかと思われます^^
civitaiでGGUFモデルのバージョン違いがいくつもあって混乱してたから、ざっくり理解できた
Q4.0・Q4.1・Q4.KSなんて、アップデートか何かだろうか?
オープンソースなのでモデルは公式以外のものが結構いろいろ出てますね
これじゃないとダメというのは無いと思うので
いろいろ試してみて頂くのがよいかと!🌱
RTX4070super買ったばっかりなんですけど
RTX4070superでもFLUX環境くめますか...??
おお!12GBのやつですかね、十分動かせると思いますよ~☺
ぜひ今回の動画を参考に試してみて下さい🌱
@@zasuko 先日はありがとうございました、zasukoさんの動画を参考に無事stable diffusionを楽しめています。
ただ、理由あってWeb UI / AUTOMATIC1111の環境でやっているため、zasukoさんの説明にあるフォルダがなかったりしてFLUX導入できずに困っています。
ベースモデル、VAEのファイルはあるのですが、CLIPフォルダがどうしても見つかりません。新たに作成すればよいのでしょうか?ご回答よろしくお願いします。
なるほど、では「models」フォルダにある「text_encoder」に入れてみて下さい、ここに入っていれば認識されると思います^^
@@zasuko ご回答ありがとうございます!さっそく確認したところ、text_encoderのファイルも見つかりませんでした,,,。modelsフォルダ内にあるファイルは、「Codeformer」「Controlnet」「deepbooru」「GFPGAN」「haypernetworks」「insightface」「karlo」「Lora」「reactor」「Stable_diffusion」「VAE」「VAE-approx」のみでした。お手数おかけします...。
なるほど、であれば試しに「Models」内に「CLIP」フォルダを作成してその中に入れてみて下さい~
初心者です。ざすこさんの動画を参考に独学しています。わかりやすくてありがたいです。
この動画と同じようになりない部分があります、教えていただけないでしょうか。
「clip_l.safetensors」と「t5-v1_1-xxl-encoder-Q8_0.gguf」models/clipのフォルダーに入れても
VAE / Text Encoderの選択に現れません。models/VAEフォルダに入れた「ae.safetensors」しか選択に出てきません。
「clip_l.safetensors」と「t5-v1_1-xxl-encoder-Q8_0.gguf」をVAEフォルダに入れると選択しとして出てきます。
どうしてでしょうか。何か設定があるのでしょうか。
StabilityMatrixを導入してします。
ご質問ありがとうございます、同様の相談が他にもありましたが
「Models」内に「CLIP」フォルダを作成してその中に入れてみるか、
「Models」フォルダにある「text_encoder」というフォルダがあれば
そこに格納してみて下さい、それで認識されるかもしれません。
@@zasuko すばやしご返答ありがとうございます。
「CLIP」はもともとありましたので、「clip」にして試しました。
「text_encoder」というフォルダーはなかったので、作成して格納しましたが
やはりだめでした。色々やってみます。
※できなくてもvseに格納すれば動作するのでそちらでやります。
@@tendo-ai
StabilityMatrix\Data\Packages\Stable Diffusion WebUI Forge\Models\text_encoderに格納して
text_encoderのファルダーごとコピーして
StabilityMatrix\Data\Models\
の中にtext_encoderのファルダーを作成して格納したら
できるようになりました。
自己流です。
今まさに同じことで悩んで、ここ見て解決しました。ありがとうございます。ESRGANやLoraと同様、Data\Models\CLIPフォルダ内のデータをData\Packages\Stable Diffusion WebUI Forge\models\text_encoderから跳べるようにシンボリックリンク化しないといけないのが不発してるようですね。mklink /D で貼り直したら普通に読めました。
install失敗。Pony/forge環境がすでに存在してるのがいけないのか・・・
何かエラー表示のようなものは出ていますか?
StabilityMatrixが起動しないとかでしょうか?
@@zasuko エラーアーカイブを報告してくださいという感じのエラーですね。中見てもさっぱりわかりません。
@@織田桐瓜紋 わたしも同様にインストール時にエラーを出しましたが再起動して確認したところ実際にはインストール完了してました。
グラボは1世代前のRTX3080環境ですが安定して動作しています。