A Latent Place
A Latent Place
  • Видео 83
  • Просмотров 177 387
ComfyUI: FLUX - My 48.9 Cents | English
[AI DUBBED] In this video I show you the different basic techniques for using FLUX. However, this time I also have a personal opinion about the model.
Important Links:
ComfyUI: github.com/comfyanonymous/ComfyUI
Q Models: huggingface.co/city96/FLUX.1-dev-gguf/tree/main
GGUF Custom Nodes: github.com/city96/ComfyUI-GGUF
XLabs LoRA Collection: huggingface.co/XLabs-AI/flux-lora-collection
FLUX IPA: huggingface.co/XLabs-AI/flux-ip-adapter
XFlux ComfyUI Nodes: github.com/XLabs-AI/x-flux-comfyui
XLabs HF: huggingface.co/XLabs-AI
Workflow, flux_dev_simple: www.alatentplace.de/download/wf/flux_dev_simple.json
Installed Custom Nodes:
Manager: github.com/ltdrdata/ComfyUI-Manager
Impact Pack: github.com/ltdrdata/...
Просмотров: 819

Видео

ComfyUI: FLUX - My 48.9 Cents | German
Просмотров 2,1 тыс.Месяц назад
In diesem Video zeige ich euch die verschiedenen Grundtechniken, um FLUX zu benutzen. Allerdings habe ich diesmal auch eine persönliche Meinung zum Model. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI Q Models: huggingface.co/city96/FLUX.1-dev-gguf/tree/main GGUF Custom Nodes: github.com/city96/ComfyUI-GGUF XLabs LoRA Collection: huggingface.co/XLabs-AI/flux-lora-collection FLUX IP...
ComfyUI: Material Transfer | English
Просмотров 7132 месяца назад
In this video I show you how you can achieve a material transfer using the IPAdapter. Important Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: www.alatentplace.de/download/wf/material_transfer.json Installed Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stabilit...
ComfyUI: Material Transfer | German
Просмотров 4682 месяца назад
In diesem Video zeige ich euch, wie ihr mit Hilfe des IPAdapters einen Material Transfers erreichen könnt. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: www.alatentplace.de/download/wf/material_transfer.json Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/Comfy...
ComfyUI: Style & Composition Transfer | English
Просмотров 1,5 тыс.2 месяца назад
In this video I show the different variants for a style and / or composition transfer with the IPAdapter. Important Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Prompt Injection Discussions: github.com/cubiq/prompt_injection/discussions Latent Vision: ruclips.net/video/ewKM7uCRPUg/видео.htmlsi=-SKFRBD5-d4d9xAu Workflow: NA Installed C...
ComfyUI: Style & Composition Transfer | Stable Diffusion | German | English Subtitles
Просмотров 1,5 тыс.3 месяца назад
In diesem Video zeige ich die verschiedenen Varianten für einen Style und / oder Composition Transfer mit dem IPAdapter. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Prompt Injection Discussions: github.com/cubiq/prompt_injection/discussions Latent Vision: ruclips.net/video/ewKM7uCRPUg/видео.htmlsi=-SKFRBD5-d4d9xAu Workflow: ...
ComfyUI: Lighting with Normal Maps | Stable Diffusion | German | English Subtitles
Просмотров 1,2 тыс.3 месяца назад
In diesem Video zeige ich euch, wie ihr mit Normal Maps in einem Bild nachträglich die Belichting anpassen könnt. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI ICLight: github.com/kijai/ComfyUI-IC-Light YANC: github.com/ALatentPlace/ComfyUI_yanc TJ Normal Lighting: github.com/TJ16th/comfyUI_TJ_NormalLighting Workflow: www.alatentplace.de/download/wf/IClight_Normals.json Installiert...
ComfyUI: ICLight - Videos | Stable Diffusion | German | English Subtitles
Просмотров 6684 месяца назад
Mit ICLight könnt ihr die Lichverhältnisse in Bildern nachträglich ändern und anpassen. In diesem Video zeige ich euch wie. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI ICLight: github.com/kijai/ComfyUI-IC-Light KJNodes: github.com/kijai/ComfyUI-KJNodes YANC: github.com/ALatentPlace/ComfyUI_yanc Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager I...
ComfyUI: ICLight - Images | Stable Diffusion | German | English Subtitles
Просмотров 9014 месяца назад
Mit ICLight könnt ihr die Lichverhältnisse in Bildern nachträglich ändern und anpassen. In diesem Video zeige ich euch wie. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI ICLight: github.com/kijai/ComfyUI-IC-Light KJNodes: github.com/kijai/ComfyUI-KJNodes YANC: github.com/ALatentPlace/ComfyUI_yanc Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager I...
ComfyUI: Noise Injection Sampler | Stable Diffusion | German | English Subtitles
Просмотров 2,9 тыс.4 месяца назад
Mit dem Noise Injection Sampler könnt ihr eure Bilder noch mehr pushen. Ich zeige euch in diesem Video, wie mein neuer Sampler funktioniert. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI YANC: github.com/ALatentPlace/ComfyUI_yanc www.youtube.com/@latentvision Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyU...
ComfyUI: Instruct Pix2Pix | Stable Diffusion | German | English Subtitles
Просмотров 3,4 тыс.5 месяцев назад
Mit Instruct Pix2Pix könnt ihr per simplen Anweisungen existierende Bilder manipulieren lassen. In diesem Video zeige ich euch COSXL, Intruct Pix2Pix sowie das Pix2Pix Controlnet. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI COSXL: huggingface.co/stabilityai/cosxl Instruct Pix2Pix: huggingface.co/timbrooks/instruct-pix2pix Controlnet: huggingface.co/lllyasviel/ControlNet-v1-1/tree...
ComfyUI: IPAdapter v2 Batch | Stable Diffusion | German | English Subtitles
Просмотров 1,3 тыс.5 месяцев назад
In diesem Teil der Serie zeige ich euch, wofür der IPAdapter Batch gut sein kann. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stability AI: github.com/Stability-AI/stability-ComfyUI-nodes ...
ComfyUI: IPAdapter v2 Tiled | Stable Diffusion | German | English Subtitles
Просмотров 1,5 тыс.6 месяцев назад
In diesem Teil der Serie geht es um den IPAdapter Tiled. Auch er ist ein super Tool, mit dem man viel Spaß haben kann. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stability AI: github.com/...
ComfyUI: IPAdapter v2 Embeds | Stable Diffusion | German | English Subtitles
Просмотров 1,7 тыс.6 месяцев назад
In diesem Teil der Serie zeige ich euch, wie man die Embedings korrekt anwendet. Viel Spaß dabei! Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stability AI: github.com/Stability-AI/stabilit...
ComfyUI: IPAdapter v2 Style Transfer | Stable Diffusion | German | English Subtitles
Просмотров 1,9 тыс.6 месяцев назад
Das Video war ungeplant. Mitten in der Serie kommt ein neues Update heraus, mit einem wirklich coolen Feature: Dem Style Transfer! Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stability AI:...
ComfyUI: IPAdapter v2 FaceID | Stable Diffusion | German | English Subtitles
Просмотров 2,1 тыс.6 месяцев назад
ComfyUI: IPAdapter v2 FaceID | Stable Diffusion | German | English Subtitles
ComfyUI: IPAdapter v2 Basics | Stable Diffusion | German | English Subtitles
Просмотров 2,6 тыс.6 месяцев назад
ComfyUI: IPAdapter v2 Basics | Stable Diffusion | German | English Subtitles
ComfyUI: SUPIR Upscaler | Stable Diffusion | German | English Subtitles
Просмотров 3,3 тыс.6 месяцев назад
ComfyUI: SUPIR Upscaler | Stable Diffusion | German | English Subtitles
ComfyUI: SDXL Lightning | Stable Diffusion | German | English Subtitles
Просмотров 1,4 тыс.7 месяцев назад
ComfyUI: SDXL Lightning | Stable Diffusion | German | English Subtitles
ComfyUI: Lower Denoise Outpainting | Stable Diffusion | German | English Subtitles
Просмотров 1,5 тыс.7 месяцев назад
ComfyUI: Lower Denoise Outpainting | Stable Diffusion | German | English Subtitles
ComfyUI: Prompts with Moondream | Stable Diffusion | German | English Subtitles
Просмотров 3,6 тыс.8 месяцев назад
ComfyUI: Prompts with Moondream | Stable Diffusion | German | English Subtitles
ComfyUI: Inpainting Variants | Stable Diffusion | German | English Subtitles
Просмотров 2,5 тыс.8 месяцев назад
ComfyUI: Inpainting Variants | Stable Diffusion | German | English Subtitles
ComfyUI: Fixing Hands | Stable Diffusion | Deutsch | Englische Untertitel
Просмотров 2 тыс.8 месяцев назад
ComfyUI: Fixing Hands | Stable Diffusion | Deutsch | Englische Untertitel
ComfyUI: Hints for everyone | Stable Diffusion | German | English Subtitles
Просмотров 3,8 тыс.8 месяцев назад
ComfyUI: Hints for everyone | Stable Diffusion | German | English Subtitles
ComfyUI: Inpaint every model | Stable Diffusion | German | English Subtitles
Просмотров 3,9 тыс.9 месяцев назад
ComfyUI: Inpaint every model | Stable Diffusion | German | English Subtitles
ComfyUI: FaceID plus v2 | Stable Diffusion | German | English Subtitles
Просмотров 3,5 тыс.9 месяцев назад
ComfyUI: FaceID plus v2 | Stable Diffusion | German | English Subtitles
ComfyUI: FaceID plus | Stable Diffusion | German | English Subtitles
Просмотров 4,2 тыс.9 месяцев назад
ComfyUI: FaceID plus | Stable Diffusion | German | English Subtitles
ComfyUI: Brightness Controlnet | Stable Diffusion | German | English Subtitles
Просмотров 1,5 тыс.9 месяцев назад
ComfyUI: Brightness Controlnet | Stable Diffusion | German | English Subtitles
ComfyUI: SDXL Turbo Community Models | Stable Diffusion | German | English Subtitles
Просмотров 1,9 тыс.9 месяцев назад
ComfyUI: SDXL Turbo Community Models | Stable Diffusion | German | English Subtitles
ComfyUI: SDXL Turbo - Images in 1 Step | Stable Diffusion | German | English Subtitles
Просмотров 3,2 тыс.10 месяцев назад
ComfyUI: SDXL Turbo - Images in 1 Step | Stable Diffusion | German | English Subtitles

Комментарии

  • @alexisnik135
    @alexisnik135 4 дня назад

    thanks man great tutorial

  • @Ayawiskas69
    @Ayawiskas69 15 дней назад

    Kann das sein, dass die FaceSwapNode ne Macke hat? Ständig der gleiche Fehler: list out of range.

  • @DakrWingDuck
    @DakrWingDuck 18 дней назад

    Na ja, das konnte man natürlich auch zum Beginn von SD und dann SDXL Modells sagen. SD3 geht sicher in die gleiche Richtung. Apropo SD3...die sind ja auch nicht mehr ganz "Opensource". 😉 Die lokale Hardware ist immer das Problem. SDXL läuft auch nicht gut auf einer GTX 970. 😉 Der RAM ist auch mit entscheidend und wie hier schon gesagt wurde sind 32GB RAM zu wenig. 64 GB sollten es schon sein. Aber das sind die gleichen Spielchen, die bei aktuellen PC-Games auftreten. Frei nach der Devise: Wenn du Cyberpunk 2077 mit Pathtracing (flüssig) spielen willst, brauchste halt min. eine 4080. Wenn ich mir aber überlege, wie viele der Bilder welche bei SD und SDXL herauskommen schlecht sind, dann ist die etwas längere Wartezeit bei FLUX im Endeffekt genauso lang, oder sogar schneller und ohne extreme Verrenkungen beim Prompt und den Loras vornehmen zu müssen. Am Ende zählt nicht der "Durchsatz", sondern die Anzahl der Bilder die brauchbar ist. Noch ein Tipp: Verwende die Node "Clean GPU used" zwischen den einzelnen Berechnungsschritten, vor allem aber vor und falls mehr als einer verwendet wird, zwischen den Upscalern! Dies reduziert die Verwendung des VRAMs um bis zuu 50% und verhindert Überlauf und somit Hänger beim Upscalen!

  • @kinijustforfun5287
    @kinijustforfun5287 19 дней назад

    Hi, Was heisst das? "Workflow: NA" Selber bauen? Nicht Anbei? oder was ist NA?

    • @ALatentPlace
      @ALatentPlace 19 дней назад

      NA ist die Abkürzung für Not Available.

  • @DerRaucherDE
    @DerRaucherDE 21 день назад

    Sehr ausführlich gefällt mir, bin über Markus Rößler ( Der Zerfleischer ) auf dich gestoßen. Hab mal ne runde Kaffee ausgegeben den ich denk mal hier werde ich viel lernen :)

  • @simont733
    @simont733 21 день назад

    What if image to image generete instade of put clip text

    • @ALatentPlace
      @ALatentPlace 20 дней назад

      Should also work. But based on the denoise parts of the old image could stay.

  • @Wicked-0815
    @Wicked-0815 22 дня назад

    Wow, endlich mal ein richtig gutes erklärbär Video gefunden. Mal schauen was es sonst noch so bei dir gibt 🙂

    • @ALatentPlace
      @ALatentPlace 20 дней назад

      Viel Spaß beim Stöbern. :)

  • @juliana.2120
    @juliana.2120 24 дня назад

    wenn man die noise injection mit den gleichen samplern und schedulern verwendet (euler normal im Video) kommt dann nicht das gleiche raus wie wenn man einfach alle steps mit einem einzelnen euler sampler macht? ist vlt ne dumme Frage, ich riskiers mal :D dachte man wählt dann vlt eher einen anderen Karras oder 2M für den zweiten sampler

    • @ALatentPlace
      @ALatentPlace 23 дня назад

      Ohne Noise Injection würde das das Ergbnis sein, ja. Da wir aber in das halbfertige Bild Noise, also Rauschen, injecten, entstehen beim Versuch des zweiten Sampler daraus etwas sinnvolles zu machen mehr Details.

    • @juliana.2120
      @juliana.2120 22 дня назад

      @@ALatentPlace nochmal mit frischem brain den Kommentar gelesen. stimmt, macht Sinn :D

  • @juliana.2120
    @juliana.2120 24 дня назад

    super video!! könntest du vlt erklären was du bei 5:30 meinst mit channels?

    • @ALatentPlace
      @ALatentPlace 23 дня назад

      Das ist die Shape des normalen Empty Latents: [[1, 4, 64, 64]] Das die vom SD3 Empty Latent: [[1, 16, 128, 128]] Die 4 im ersten steht für RGBA, was die 16 Kanäle im SD3 genau bedeuten, keine Ahnung. :D

    • @juliana.2120
      @juliana.2120 22 дня назад

      @@ALatentPlace ich mach mich mal schlau, danke :)

  • @dashebi1759
    @dashebi1759 27 дней назад

    Ich stecke noch rel. neu in der Materie und wollte euren Discordserver beitreten. Gibt es einen auch für die deutsche Community?

    • @ALatentPlace
      @ALatentPlace 27 дней назад

      Es gibt eine rein deutschsprachige Sektion auf dem Server.

    • @dashebi1759
      @dashebi1759 27 дней назад

      @@ALatentPlace Danke. Ich schau dann mal vorbei.

  • @dashebi1759
    @dashebi1759 28 дней назад

    Bin begeistert. Leider habe ich kaum etwas verstanden. 😀

  • @Xyrnoz
    @Xyrnoz 29 дней назад

    Echt super deine Videos ! auch wenn dieses Video 12 Monate alt ist! immernoch Super :)

  •  Месяц назад

    mit ner 3070 ti ist ok, aber nix gegen andere Modelle, bis auf text. Text wird auch für kleinere Modelle kommen. Es ist noch früh für flux. Optimierung wird kommen.

  •  Месяц назад

    quick and dirty hauptsache erster. So sieht es bei xlab leider aus. Warte wohl eher auf andere Entwickler. Ist echt mist.

  •  Месяц назад

    yeah, ich hab was geschnallt. Ich habe bei der negativ node direkt geschrien :-)

  • @Stefan188x
    @Stefan188x Месяц назад

    1:07:39 naja aus dem Grund haben sich halt aber auch viele bei XL schon eine 3090 gekauft, irgendwo is es halt auch son Ding mit Fortschritt und wen lässt man zurück. Ich seh das Problem eher im Schnell und Dev und dass Controllnet und Lora eben direkt die Dev Lizenz hat sprich nicht kommerziell nutzbar ist

  • @Stefan188x
    @Stefan188x Месяц назад

    Lora und civitai wäre noch eine gute Frage ob die Loras jetzt auf Dev oder auch für schnell geeignet sind, der Filter bei civitai findet bei Schnell 1 lora und bei dev massig

  • @murphylanga
    @murphylanga Месяц назад

    Hm, ich wechsle in meinen Workflows zwischen den großen Fluxmodellen, SDXL, GGUF und den Comfy Optimierten Modellen hin und her, mit ner 4080. Img2Img mit Flux über SDXL und umgekehrt... Keine Problem und weniger als eine Minute für generieren und optimieren.... Ihr solltet auf eueren Arbeitsspeicher achten 32 GB sind zu wenig um effektiv damit zu arbeiten.

  • @SasukeGER
    @SasukeGER Месяц назад

    meine 3060 schafft leider nur Flux Schnell :(

  • @pk.9436
    @pk.9436 Месяц назад

    Gebe dir vollkommen Recht, hoffe es kommt ein vernünftiges Modell raus um auch mit nicht High-End Modellen gut und schnell zu arbeiten. Hat bisschen geschmäckle 🤐

  • @Jim1Dean
    @Jim1Dean Месяц назад

    ich benutze die GGUF Variante darf ich fragen welche Grafikarte du hast ? Ich würde gerne die Zeiten vergleichen. Ich habe eine alte Tesla P100 16GB die braucht für den selben Prompt 5min 5sec

    • @bodo2567
      @bodo2567 Месяц назад

      RTX 3080 hat er gesagt ... die hat offiziell 10 GB gemoddet gibt es die auch mit 20 GB

  • @apacchiart3970
    @apacchiart3970 Месяц назад

    Good points. I wish they provided a smaller model like 6/8B. A lot more people would be able to play with it locally. I have 16Gb Vram, but even then I don't want to wait ages for a decent pic with loras/control nets. I like to iterate fast to test out new ideas. SDXL/SD 1.5 will still be around for a while until SD can bring out a better model that isn't gimped like SD3

  • @zraieee
    @zraieee Месяц назад

    good, How do you show a yellow folders in NODE (Checkpoint)

    • @ALatentPlace
      @ALatentPlace Месяц назад

      This is coming from the rgthree custom node collection.

    • @zraieee
      @zraieee Месяц назад

      @@ALatentPlace thanks so much

  • @renegat552
    @renegat552 Месяц назад

    Der IP-Adapter ist wirklich schlecht. Ich hoffe sehr, dass Matteo sich dieser Sache annimmt.

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Er wartet derzeit auf ein besseres Model des IPAs, bevor er mit einer Implementierung anfangen möchte.

  • @DTD-vc3nv
    @DTD-vc3nv Месяц назад

    Vielen lieben Dank für dein tolles Video. Es ist natürlich Schade zu hören das es bei dir nicht Reibungslos läuft. Bei meinem System Ryzen 5600X, RTX 3060TI 8GB, 128 GB RAM und dieser ComfyUI Konfiguration (Unet Loader GGUF) -> flux1-dev-F16.gguf, (DualCLIPLoader GGUF) -> t5xxl_fp16, ViT-L-14-Text-detail-improved-hiT-GmP-TE, (Load LoRA) -> FLUX-dev-lora-add_details, (KSampler Advanced) -> 20 steps, Image Size 1024x1024 komme ich auf eine Model Ladezeit von 32 Sekunden sowie 79 Sekunden für die 20 Steps. Mit diesen Zeiten und den Ergebnissen die das Modell liefert bin ich absolut zufrieden, besonders schöne Bilder lasse ich dann einmal durch das Ultra-Sharp Model upscalen auf 2048x2048, dieser Schritt dauert zwar 4,5 Minuten aber das Ergebnis ist der Hammer. Der TaskManager zeigt wohl auch 64GB im Ram und 7.9 GB VRAM während der Laufzeit an. Dir noch viel Erfolg mit deinem Kanal.

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Danke. :) Vielleicht ist auch mal an der Zeit für mich, eine neue Comfy Instanz aufzusetzen. In der Hoffnung, dass es dadurch stabiler wird. Nichtsdestotrotz beobachte in den Frust auch in unserer Discord Community, nachdem der erste Hype etwas nachgelassen hat.

  • @W00PIE
    @W00PIE Месяц назад

    Ich verstehe deine Kritik am Ende nicht. Deine Hardware ist einfach zu schwach, das kannst du doch den Entwicklern nicht ankreiden, die hier ein verdammt gutes Produkt gratis in die Welt werfen? Keiner zwingt dich, ein zu großes Model zu nutzen. Auf meiner 7900XTX läuft alles richtig rund.

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Danke für das Feedback. :) Ich bin offen für eine gute Konversation, vielleicht kommst Du auf meinen Discord. Da kann man besser miteinander reden als über YT.

    • @matze2001
      @matze2001 Месяц назад

      Yep. Flux ist ein enormer Qualitäts-Sprung und noch eine Generation weiter, dann werden sehr viele Aufgaben, die heute per Fotografie gelöst werden, per Prompt erledigt. Ich hab hier schon 20 LoRa´s von Gesichtern gerechnet und mit etwas Nacharbeit direkt in ComfyUI (latent upscale, denoise + Lora) geht das auch mit nur 5-6 Trainingsfotos als valide Fotografie durch. Klar, die Hardware ist jetzt noch ein Problem, aber in 2-3 Jahren ist das was man heute noch recht teuer bezahlen muss, auch Consumer-Standard.

  • @bobbyboe
    @bobbyboe Месяц назад

    kannst du deinen reduzierten Dev-Workflow vielleicht doch noch auf den Server schmeissen?

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Bitte schön: www.alatentplace.de/download/wf/flux_dev_simple.json

    • @bobbyboe
      @bobbyboe Месяц назад

      @@ALatentPlace danke schön 💛

    • @bobbyboe
      @bobbyboe 28 дней назад

      @@ALatentPlace Feedback zur Geschwindigkeit von genau dem DEV-Workflow von dir: RTX3060 12GB: 2Minuten pro Bild

  • @der-zerfleischer
    @der-zerfleischer Месяц назад

    12 Millionen? Ich las mal was von 12 Milliarden. SDXL soll 6 Milliarden haben. MacBook Prro M3 Max 36GB Flux1-dev 1700sec. = 28 Minuten Da bekommt man Zahnschmerzen, gell? 🙂

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Ups, da ist tatsächlich ein wenig Kraut und Rüben passiert. Geistig war ich im Englischen "Billions", was auf Deutsch natürlich Milliarde bedeutet, nicht Billion. Danke für den Hinweis.

    • @der-zerfleischer
      @der-zerfleischer Месяц назад

      @@ALatentPlace Super Video und vor allem Schlusswort. Optisch erkennt man oft die Flux-Bilder. Testen kann ich es allerdings gar nicht (siehe Zeiten)

  • @bobbyboe
    @bobbyboe Месяц назад

    Vielen herzlichen Dank dass du etwas Klarheit in das Dickicht bringst. Ich hab extra gewartet auf dein Video, vorher fange ich gar nicht erst an. Ich bin dir auch sehr dankbar für deine ehrliche Meinung! super hilfreich!

  • @sebastianmuller1624
    @sebastianmuller1624 Месяц назад

    Flux Dev Bilder sollen tatsächlich kommerziell nutzbar sein, nur das Model selber nicht gratis kommerziell eingebunden sein... oder so

  • @sirmeon1231
    @sirmeon1231 Месяц назад

    Meine Ansicht zum Podcast Anteil zum Schluss: Naja die Hardware Limitierung kann man nur begrenzt vermeiden. Bessere Ergebnisse werden sich mittelfristig nicht mehr ohne mehr Leistung erzielen lassen. Dass der Open Source Gedanke immer weiter weg fällt sehe ich leider auch so, das ist kritisch. Wir haben ein ähnliches Lizenzmodell wie bei SD3 am Anfang, aber der Aufschrei blieb dieses Mal aus. Damit wird das wieder normalisiert und künftigen Modellen der Weg geebnet. Ja derzeit ist eigentlich alles online FLUX. Ich hoffe das ändert sich wieder. Ich mag die Bilder zwar, aber bin mir nicht mehr sicher, wie sich das entwickeln wird. SD3 in gut wäre genial! Hoffen wir da mal auf das Beste... 8B wäre gar nicht nötig, einfach das bereits veröffentlichte in gut!

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Das man die Hardware der benötigten Leistung im Laufe der Zeit anpassen muss lässt sich nicht vermeiden. Ist ähnlich wie im Gaming Bereich. Allerdings findet man im Gaming Bereich auf oft Anforderungen, die eigentlich erst mit der nächsten Hardware Generation erfüllt werden können. Bei FLUX besteht für mich der Gedanke, dass auch die nächste Generation nicht wirklich ausreichen wird. Das macht mir Sorgen. Du sprichst aber auch ein interessantes Thema mit den Lizenzen an. Nimm ein Model, welches augenscheinlich nicht so gute Bilder produziert (aka SD3 Medium, Woman lying on a green meadow), dann schreit auch jeder wegen der Lizenz und es werden Videos darüber gemacht. Nimm aber ein Model welches gute Bilder erzeugt (FLUX oder Kolors), dann schert sich kaum jemand um die Lizenzen.

    • @sirmeon1231
      @sirmeon1231 Месяц назад

      @@ALatentPlace ja das stimmt, auch die nächste Generation gpus wird es da schwer haben... Die KI Anforderungen sind hier mal schneller als die Technik dazu 😂 Mich ärgert das ein wenig mit den Lizenzen, weil aktuell alle Energie der community in flux geht, wo nach sd3 noch die rede davon war Modelle weiter zu entwickeln, mit denen wir auch wirklich arbeiten dürfen und die Ergebnisse verwerten. Und jetzt ist civitai voll mit flux-dev models? Really? 😅 wirf den Leuten eine Karotte hin und die hohen Ziele sind vergessen...

  • @sirmeon1231
    @sirmeon1231 Месяц назад

    Könnten wir das Bokeh evtl über "f-stop 9" oder so beheben? Hab es bisher nicht probiert weil ich den Look sehr mag...

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Habe ich auch noch nicht probiert. Das kommt darauf an, ob das Model darauf trainiert wurde bzw. das Tagging entsprechend angewendet wurde. Ich mag Bokeh auch gerne. Aber problematisch ist es, wenn man es auch kontrolliert nicht weg bekommen kann.

    • @sirmeon1231
      @sirmeon1231 Месяц назад

      @@ALatentPlace Klar, das tagging ist dafür Voraussetzung.

    • @nikomedia
      @nikomedia Месяц назад

      F-Stop hat bei mir nichts geholfen. Was hilft, zumindest bilde ich mir das ein, ist, den Hintergrund etwas detailreicher zu beschreiben, dann wird dieser auch nicht so unscharf. Natürlich, bei einer weißen Wand im Hintergrund wird das auch nichts bringen ;)

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Ja, das kann schon helfen. Bei SDXL war es aber angenehmer, da musste man den Bokeh im Prompt angeben und konnte es sogar mit der Gewichtung steuern. :D

  • @dompom8416
    @dompom8416 Месяц назад

    Merci für das Video und vor allem den letzten Teil mit deiner Meinung zum Modell. Mein erster gedanke als ich mich etwas damit befasst hatte war auch - ja gut werde ich sowieso nicht benutzen können :D Finde man muss auch unabhängig von Flux, beobachten wie viel Zeit man zum Teil beim generieren für ein einziges Bild investiert bis es so raus kommt wie man sich das vorgestellt hat. Ich liebe es diese Modelle zu benutzen aber wirklich effizient bin ich persönlich leider noch nicht damit.

  • @OnePikki
    @OnePikki Месяц назад

    Sobald Du den Prompt änderst, wird das model komplett neu geladen. Das ist jedenfalls mein Eindruck. Wenn Du zwischen Flux und zum Beispiel SDXL wechselst und umgekehrt, werden die Zeiten unerträglich - auch mit einer 4090. Am besten ist Comfy neu laden und nur Flux-Modelle nutzen, wenn Du vorher mit SDXL gearbeitest hast. Übrigens gibt es ein Schnell FP8 was bei super funktioniert. Generell haben alle Flux Models Probleme mit vertikalen Bildern (mein EIndruck!). Horizontal ist unfassbar gut!

    • @elessariel
      @elessariel Месяц назад

      Was wäre aktuell deine Empfehlung, wenn ich z.B. mittels FLUX einen Basis erstellen möchte und dann mit img2img er SDXL nochmal drüber möchte?

    • @OnePikki
      @OnePikki Месяц назад

      @@elessariel Flux schnell 8fp mit t5xxxl16fp clip und dann SDXL (gibt es ja einige gute Light Modelle)...

  • @Rachelcenter1
    @Rachelcenter1 Месяц назад

    12:25 nothing comes up when i search for layer weights. yes your video says you have custom nodes listed below but its not clear which link is for Ipams. nvm I googled it, and the internet says to go to manager and install "ComfyUI_yanc" from custom

  • @Fotomaggi
    @Fotomaggi Месяц назад

    Hm? mit dem neusten Comfyui ist es über den Manager nicht mehr zu finden. Und wenn man es von Hand installiert fehlen die image2promt nodes. Hast du da vielleicht ne Lösung für bzw. alternativen ?

  • @deheinrich4785
    @deheinrich4785 Месяц назад

    hi wie kommt das dass du beim ksampler noch so eine vorschau während des generierens bekommst?

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Das ist eine Option im Comfy Manager, nennt sich Preview Method. Dort kann man das einschalten. :)

  • @JianYang-j6w
    @JianYang-j6w Месяц назад

    how can i get tihs controlnet model name"control sd15 inpaint depth hand fp16.safetensors "?

    • @ALatentPlace
      @ALatentPlace Месяц назад

      Here: huggingface.co/hr16/ControlNet-HandRefiner-pruned/blob/main/control_sd15_inpaint_depth_hand_fp16.safetensors

    • @JianYang-j6w
      @JianYang-j6w Месяц назад

      oh i got this model thankyouSir it's very helpful for me !

    • @JianYang-j6w
      @JianYang-j6w Месяц назад

      @@ALatentPlace thankyou Sir! Additionally, my “MeshGraphormer Hand Refiner” node is reporting an error message of “An error happened while trying to locate the file on the Hub and we cannot find the requested files in the local cache. Please check your connection and try again or make sure your Internet connection is on.”. How can I resolve this issue

  • @josemariagala2588
    @josemariagala2588 2 месяца назад

    How can i see the node search popup?

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      Double click on the canvas.

    • @josemariagala2588
      @josemariagala2588 Месяц назад

      @@ALatentPlace Thanks for the info! Great video :) This flow would be applicable to design spaces with detail? and that brand logos are recognisable?

  • @holawholaw
    @holawholaw 2 месяца назад

    How to make the Ksampler node showing the image

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      There is an option in the ComfyUI Manager, called Preview Method.

  • @analysierer9456
    @analysierer9456 2 месяца назад

    Kann es sein das es Dave22 nicht mehr gibt?

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      Den gibt es noch: github.com/Davemane42/ComfyUI_Dave_CustomNode

    • @lupla78
      @lupla78 Месяц назад

      @@ALatentPlace Leider wird da nicht mehr weiter entwickelt. Anfang April wurde das Repository archiviert. Auf civitai wurde auch schon geschrieben, dass es nicht mehr funktionieren würde.

  • @jhj6810
    @jhj6810 2 месяца назад

    I did not get what is ipadapter noise for. Someone can help?

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      You can use it as negative image in the IPA, meaning it will send a noisy and blurred image to the unconditioning. By this you tell the model, that you do not want noisy and blurred images.

  • @freekhitman9916
    @freekhitman9916 2 месяца назад

    really good tutorial need to test that with my newer models and thanks that you love my fenris xl model ;-)

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      Hey. :) Also thanks for this nice model.

    • @freekhitman9916
      @freekhitman9916 2 месяца назад

      @@ALatentPlace thanks even the 16.4 is slightly outdated compared to my newer models for example "ragnarök", it has this "classic look" and love cats ;-)

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      yeah, i have to do some updates on my models collection. havent done for a while yet. :D

  • @robertherlet
    @robertherlet 2 месяца назад

    Wieso stellt dein LoadCheckpoint so eine schöne Ordnerstruktur dar?? Sieht bei mir immer noch aus wie Kraut und Rüben... 😁

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      Das kommt glaube ich aus den rgthree nodes. :)

    • @robertherlet
      @robertherlet 2 месяца назад

      @@ALatentPlace Danke, das war's tatsächlich 🙂

  • @sanbaldo
    @sanbaldo 2 месяца назад

    great tutorial Marco!! if you invert the mask, you can also change the background instead of the subject :D

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      Thanks. That's correct. :)

  • @willsmithorg
    @willsmithorg 2 месяца назад

    Thanks for the English version. Previously I was watching your German videos with subtitles.

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      Thanks for the feedback. :) I thouthg, by this it could be easier to watch, although I'm still in the process of finding a good workflow for the English versions.

    • @kakochka1
      @kakochka1 2 месяца назад

      The same, although I abandoned the idea of watching with subs. @ALatentPlace Could you maybe translate you previous relevant vids the same way?) I'd love to watch them!)

    • @ALatentPlace
      @ALatentPlace 2 месяца назад

      I thinking about also providing some previous videos translated. But it wouldn't make sense for all of them.

  • @profitsmimetiques8682
    @profitsmimetiques8682 2 месяца назад

    Hi ! I wanted to know if you have any idea how zia fit on I.ns.sta is made ? It's a specillized ai agency (themixedai) behind and i don't know what kind of workflow they use to get this level of quality, consitency. It seems that the base image is an exsiting one, but then they maybe use a 3d pose character + openpose + lora for body + lora for face, but something is off. I you have any idea on how to do that it would be really interesting to know, they are kinda the best in their field.

  • @profitsmimetiques8682
    @profitsmimetiques8682 2 месяца назад

    Hi ! I wanted to know if you have any idea how zia fit on I.ns.sta is made ? It's a specillized ai agency (themixedai) behind and i don't know what kind of workflow they use to get this level of quality, consitency. It seems that the base image is an exsiting one, but then they maybe use a 3d pose character + openpose + lora for body + lora for face, but something is off. I you have any idea on how to do that it would be really interesting to know, they are kinda the best in their field.

  • @nkofr
    @nkofr 2 месяца назад

    love your content. update to get "composition precise" :)

  •  2 месяца назад

    It doesn't matter if it's German or English. What matters is the time you spare for us. Thank you.