Explications au top, comme d’hab. Tu nous fais découvrir des techniques incroyables, comme d’hab. Tu nous fais gagner un temps fou, comme d’hab! MERCIII
"--sref" est un ajout majeur clairement. On est gâté. Je me rappelle de "'l'époque" ou pan, custom et vary sont sorti , c'était un gros plus aussi. J'attend leur "--cref" avec impatience. Sans oublier tout ce qu'il manque à niji 6 que V6 a eut récement.
Bonjour Thibault, bravo pour tes vidéos, on peut vraiment régler très finement les styles maintenant, tes astuces sont géniales, cela nous ouvre des possibilités incroyables !
Génial ! Merci pour la video 14:00 question intéressa : comment peut-on appliquer un inpainting sur notre propre image uploadée ( pas générée avec mid journey) Possible ?
Merci :-) Alors pas possible sur Midjourney, mais vous pouvez essayer sur Fooocus. J'ai fait une vidéo sur le sujet : ruclips.net/video/oURO_QRPQNo/видео.html
Superbe vidéo🎉🤩 Mid library, c'est la base. Je vois qu'on les mêmes références👍😉 Merci pour l'astuce du Pan et du Zoom. Je n'avais pas du tout pensé à cette technique 🔥
Hello ! Toujours clair et ludique, un grand merci. J'ai une question : comment as-tu fait apparaître ces barres vertes avec tous ces boutons sous tes images ? merci
C'est une extension qui s'appelle Promptalot. C'est très pratique car ça permet d'avoir plein de raccourcis. Il y a une version gratuite et une version payante (j'utilise la gratuite)
donc styles= artistes ?? les artistes sont considérés comme des styles???? c'est écœurant à entendre... les artistes sont des putains de filtres maintenant, ca c'est du progrès. vous allez juste tuer la vache qui vous nourrit, bravo pour l'ethique
lorsque l'on se trouve sur le site Alpha MidJourney, est-ce que la fonction --sref c'est la même chose que lorsque l'on copie /colle une image après le prompt et que l'image apparait dans un carré ? car je ne vois la différence
Non je crois que le carré c'est l'image de référence qu'on met habituellement en début de prompt et pour avoir le style ref il faut faire comme sur Discord en mettant --sref + l'URL de notre image. Pour moi ce sont deux choses différentes
Merci pour cette vidéo très intéressante ! Je n'ai pas la possibilité de changer le prompt quand je sélectionne "Variations Subtiles" Quelqu'un peut me dire pourquoi ? Il faut aller dans /settings ?
Super vidéo. J'ai déjà eu des images avec 2 styles différents. Pas sur des objets, mais un 1er plan 3d photoréaliste et un background ou ciel à la Van Gogh. Je n'ai pas testé sur des objets spécifique. Y a plus qu'à !
@@lestutosmidjourney Oui effectivement ça rend bien. J'ai eu plus de déchets avec les bâtiments incrustés. Ça fonctionne mieux en indiquant la configuration de l'environnement d'abord, suivi de l'incrustation.
Bonjour, J'ai suivi quelques unes de vos vidéo et c'est super, des fois un peu rapide, mais je m'en sors, j'ai 2 questions : - pourquoi écrire les prompts en anglais alors qu'il les comprends en français ? - est-il possible d'importer une photo à moi et d'y insérer un contenu IA ? Merci, j'espère que je pourrai avoir mes réponses. David
Bonjour, Midjourney comprend mieux l'anglais. Vous pouvez écrire quelques prompts simples en français, mais ce n'est pas optimal. Concernant l'import d'une photo perso, ce n'est pas possible malheureusement :-( Mais vous pouvez utiliser un outil comme Fooocus pour le faire. J'en parle ici : ruclips.net/video/oURO_QRPQNo/видео.html
Hello ! Petite question ( Si quelqu'un a la reponse) Est-ce autorisé de commercialiser des images utilisant des styles ? Par exemple creer une princesse disney qui n'existe pas du tout mais dont le style est le meme qu'une princesse disney ( Prendre ELSA avec un --sref par exemple)
Ah ce bon vieux style cursed il revient sur le devant de la scène avec le --sfer ! Je trouve ces images creepy absolument parfaites pour faire infuser une atmosphère angoissante dans nos rendus. Je n'ai pas fini de l'utiliser je pense ;-)
Génial comme dab, merci J'me demande Vraiment comment le bouzin est conçu et comment ils vont gérer le --cref proportion du corp, visage etc.... Ah oui y'en a qui vont râler lol mais y'a encore plus fort que midLibrary, c'est artstation mais bon ça va faire des pas content .
Je me disais qu'on verrait assez vite des BDs complètes en IA, même des remakes, genre Astérix en encre de Chine... Mais sur plusieurs images il y aurait trop de différences rien que les vêtements ou les cheveux, si l'ia improvise une tresse, ou change la forme d'un col, la position des poches ou des boutons sur un même personnage... Quelles fonctionnalités pourraient parer ce problème ?
@@mangomics oui et passer 1 an et demi dessus à l'ancienne ! J'espère que ce savoir faire va rester, je penses même que les passionnés vont continuer à créer des projets en coopération avec des dessinateurs pendant des décennies, qu'ils soient connus ou pas, mais à mon avis ce n'est plus un projet de vie valable pour nos collégiens. Je donne 5 ans aux IAs (Midjourney ou autres) pour nous sortir des bandes dessinées crédibles, sans faux raccords. Je ne crois pas encore à ce qu'elles nous écrivent des histoires convaincantes un jour, pour le moment chat gpt n'est vraiment pas si intelligent, mais je n'attends que de changer d'avis. Donc je penses qu'il y aura quand même quelques mois de travail pour l'écrivain, pour écrire, transformer son texte en dialogue dans des cases, décrire les cases pour l'IA mais ça ne demanderait qu'une personne, sans matériel compliqué, juste un ordinateur, même moi je pourrait envisager l'idée de devenir écrivain de BD et lancer une carrière d'artiste en plus de mon travail... Hors je ne serais pas tous seul à y penser, et les chances de percer sont vite plus maigres, y compris pour les dessinateurs.
Il y a la fonctionnalité --cref (character référence) qui devrait arriver dans quelques semaines (mars peut-être). C'est un peu comme le --sref mais pour les personnages. On verra ce que ça donne, mais ça pourrait régler les petits détails que vous mentionnés pour avoir un personnage identique d'une case à l'autre. On croise les doigts pour que ça marche.
Une question.sans vraiment de rapport...quand je demande deux personnages mind journey a tendance a les coller l'une a l'autre...meme je precise deux femmes se regardant de profil, separees de 1 metre...il.colle les d eux personnages...je dois passer a cote de quelque chose ...
Etonnant. Essaie peut-être de rajouter un objet, même petit, entre les deux personnages. Autrement pour être certain que deux personnages ne soient pas en contact, tu peux créer une image avec un seul personnage, et rajouter un second avec la fonctionnalité "pan". C'est justement le sujet de ma dernière vidéo : ruclips.net/video/WtzoYjrEOOk/видео.html
@@lestutosmidjourney ok , mais vraiment ca revient souvent de coller les personnages c'est vraiment etrange ...Une autre question , j'ai acces au site alpha de midjourney mais il n'ya pas encore toutes les fonctionnalités , ou alors j'ai pas vu , j'ai bien vu imagine mais blend describe , etc ca n'est pas encore sur le site
Merci :-) Ce sont deux fonctionnalités qui n'ont rien à voir. Le --sref permet de dicter un style pour tes rendus alors que le /blend va juste mélanger entre deux et cinq images ensemble. Le blend est très limité car tu ne peux pas ajouter de texte, ton prompt ne contiendra que des images. C'est une fonctionnalité que je n'utilise plus.
T'as essayé avec une vraie photo puis la denoter avec différents styles Ce serait une grosse avancée. Moi j'essaie mais je parviens toujours à conserver mon sujet de base sans deformer avec MJ
On ne peut toujours pas bénéficier des fonctionnalités de MJ avec une photo perso malheureusement. L'équipe a peur des dérives il me semble (qu'on puisse mettre des vraies personnes dans des situations compromettantes etc.)
Explications au top, comme d’hab. Tu nous fais découvrir des techniques incroyables, comme d’hab. Tu nous fais gagner un temps fou, comme d’hab! MERCIII
Merci beaucoup pour ton soutien, comme d'hab ;-)
"--sref" est un ajout majeur clairement.
On est gâté.
Je me rappelle de "'l'époque" ou pan, custom et vary sont sorti , c'était un gros plus aussi.
J'attend leur "--cref" avec impatience.
Sans oublier tout ce qu'il manque à niji 6 que V6 a eut récement.
Oui en ce moment on est gâté clairement. Si le --cref est aussi abouti, ça va être incroyable !
Une des meilleurs vidéos que j'ai vu sur Midjourney.merci
Oh c'est très gentil ça merci :-)
Merci de nous déblayer le terrain à chaque innovation , que de temps gagné ... Merci beaucoup 👍
Merci beaucoup, tant mieux si ça peut vous faire gagner du temps à tous (c'est la première fois qu'on me dit ça en commentaire d'ailleurs 😁)
Bonjour Thibault, bravo pour tes vidéos, on peut vraiment régler très finement les styles maintenant, tes astuces sont géniales, cela nous ouvre des possibilités incroyables !
Merci à toi 😊
UN IMMENSE MERCI pour cette vidéo comme d'habitude claire précise et très agréable à regarder et à écouter ! Bravo !
Un grand merci !
Très interessant comme tuto, merci pour ton taff. Les possibilités deviennent de plus en plus incroyable !
Merci beaucoup 😊 Oui on commence à pouvoir influer sur les détails, c'est génial.
Génial ! Merci pour la video
14:00 question intéressa : comment peut-on appliquer un inpainting sur notre propre image uploadée ( pas générée avec mid journey) Possible ?
Merci :-) Alors pas possible sur Midjourney, mais vous pouvez essayer sur Fooocus. J'ai fait une vidéo sur le sujet : ruclips.net/video/oURO_QRPQNo/видео.html
Magnifique découverte et merci pour ton boulot toujours aussi bien réalisé , on se régale.😊
Merci beaucoup pour ce gentil commentaire, c'est très sympa 😊
Suberbes techniques. Merci â toi de nous faire découvrir cette science artistique AI 😊
Toujours un plaisir ! 🙂
Tuto très intéressant, les possibilités deviennent immenses. Merci pour ton taff ;)
Toujours au top, merci pour cette nouvelle vidéo.
Avec plaisir :-)
Super tuto, comme d'habitude. Merci.
Merci à toi 😊
Superbe vidéo🎉🤩
Mid library, c'est la base. Je vois qu'on les mêmes références👍😉
Merci pour l'astuce du Pan et du Zoom. Je n'avais pas du tout pensé à cette technique 🔥
J'avais oublié ce site et quand je l'ai revu dans mes favoris, j'ai tout de suite fait le lien avec le --sref ! 🔥
Merci pour tout, un truc de malade !
Avec plaisir :-)
Hello ! Toujours clair et ludique, un grand merci. J'ai une question : comment as-tu fait apparaître ces barres vertes avec tous ces boutons sous tes images ? merci
C'est une extension qui s'appelle Promptalot. C'est très pratique car ça permet d'avoir plein de raccourcis. Il y a une version gratuite et une version payante (j'utilise la gratuite)
Merci !
Merci Thibault pour ta vidéo !
Avec plaisir :-)
donc styles= artistes ?? les artistes sont considérés comme des styles???? c'est écœurant à entendre... les artistes sont des putains de filtres maintenant, ca c'est du progrès. vous allez juste tuer la vache qui vous nourrit, bravo pour l'ethique
lorsque l'on se trouve sur le site Alpha MidJourney, est-ce que la fonction --sref c'est la même chose que lorsque l'on copie /colle une image après le prompt et que l'image apparait dans un carré ? car je ne vois la différence
Non je crois que le carré c'est l'image de référence qu'on met habituellement en début de prompt et pour avoir le style ref il faut faire comme sur Discord en mettant --sref + l'URL de notre image. Pour moi ce sont deux choses différentes
Merci pour cette vidéo très intéressante !
Je n'ai pas la possibilité de changer le prompt quand je sélectionne "Variations Subtiles"
Quelqu'un peut me dire pourquoi ? Il faut aller dans /settings ?
Oui dans /settings tu peux cliquer sur "remix mode" autrement tu peux juste taper /remix dans Discord et normalement tu devrais pouvoir écrire :-)
@@lestutosmidjourney yes ça a marché, merci beaucoup !!! Maintenant je vais me faire toutes les vidéos de votre chaine :p
J’ai testé sref sur navigateur web et sur discord et sur navigateur je n’ai pas de bon résultat … alors que sur discord oui . Tu sais pourquoi ?
Super vidéo.
J'ai déjà eu des images avec 2 styles différents. Pas sur des objets, mais un 1er plan 3d photoréaliste et un background ou ciel à la Van Gogh.
Je n'ai pas testé sur des objets spécifique.
Y a plus qu'à !
J'ai vu tes tests sur Discord, je ne pensais pas que c'était possible mais visiblement c'est totalement faisable ! Et ça rend bien en plus !
@@lestutosmidjourney
Oui effectivement ça rend bien. J'ai eu plus de déchets avec les bâtiments incrustés.
Ça fonctionne mieux en indiquant la configuration de l'environnement d'abord, suivi de l'incrustation.
Très intéressant. Merci.
Merci à toi 😊
Bonjour,
J'ai suivi quelques unes de vos vidéo et c'est super, des fois un peu rapide, mais je m'en sors, j'ai 2 questions :
- pourquoi écrire les prompts en anglais alors qu'il les comprends en français ?
- est-il possible d'importer une photo à moi et d'y insérer un contenu IA ?
Merci, j'espère que je pourrai avoir mes réponses.
David
Bonjour, Midjourney comprend mieux l'anglais. Vous pouvez écrire quelques prompts simples en français, mais ce n'est pas optimal. Concernant l'import d'une photo perso, ce n'est pas possible malheureusement :-( Mais vous pouvez utiliser un outil comme Fooocus pour le faire. J'en parle ici : ruclips.net/video/oURO_QRPQNo/видео.html
génial ! Merci
De rien 😁
Très bien expliqué en tous cas.
Merci beaucoup :-)
Hello ! Petite question ( Si quelqu'un a la reponse) Est-ce autorisé de commercialiser des images utilisant des styles ? Par exemple creer une princesse disney qui n'existe pas du tout mais dont le style est le meme qu'une princesse disney ( Prendre ELSA avec un --sref par exemple)
Bonjour, je t'invite à visionner cette vidéo : ruclips.net/video/czw4elcw2n0/видео.html
Ouais, y'a pas à tortiller, ça ouvre des possibilités vraiment incroyables.
(content que tu remettes un petit coup de "Cursed" 😁)
Ah ce bon vieux style cursed il revient sur le devant de la scène avec le --sfer ! Je trouve ces images creepy absolument parfaites pour faire infuser une atmosphère angoissante dans nos rendus. Je n'ai pas fini de l'utiliser je pense ;-)
Magnifique !
Merci :-)
Génial comme dab, merci
J'me demande Vraiment comment le bouzin est conçu et comment ils vont gérer le --cref proportion du corp, visage etc....
Ah oui y'en a qui vont râler lol mais y'a encore plus fort que midLibrary, c'est artstation mais bon ça va faire des pas content .
Y'en a qui râle déjà lol on se fait traiter de voleur assez souvent...
Je me disais qu'on verrait assez vite des BDs complètes en IA, même des remakes, genre Astérix en encre de Chine...
Mais sur plusieurs images il y aurait trop de différences rien que les vêtements ou les cheveux, si l'ia improvise une tresse, ou change la forme d'un col, la position des poches ou des boutons sur un même personnage...
Quelles fonctionnalités pourraient parer ce problème ?
Faire appel à un vrai dessinateur ? ^^
@@mangomics oui et passer 1 an et demi dessus à l'ancienne !
J'espère que ce savoir faire va rester, je penses même que les passionnés vont continuer à créer des projets en coopération avec des dessinateurs pendant des décennies, qu'ils soient connus ou pas, mais à mon avis ce n'est plus un projet de vie valable pour nos collégiens.
Je donne 5 ans aux IAs (Midjourney ou autres) pour nous sortir des bandes dessinées crédibles, sans faux raccords.
Je ne crois pas encore à ce qu'elles nous écrivent des histoires convaincantes un jour, pour le moment chat gpt n'est vraiment pas si intelligent, mais je n'attends que de changer d'avis.
Donc je penses qu'il y aura quand même quelques mois de travail pour l'écrivain, pour écrire, transformer son texte en dialogue dans des cases, décrire les cases pour l'IA mais ça ne demanderait qu'une personne, sans matériel compliqué, juste un ordinateur, même moi je pourrait envisager l'idée de devenir écrivain de BD et lancer une carrière d'artiste en plus de mon travail...
Hors je ne serais pas tous seul à y penser, et les chances de percer sont vite plus maigres, y compris pour les dessinateurs.
Il y a la fonctionnalité --cref (character référence) qui devrait arriver dans quelques semaines (mars peut-être). C'est un peu comme le --sref mais pour les personnages. On verra ce que ça donne, mais ça pourrait régler les petits détails que vous mentionnés pour avoir un personnage identique d'une case à l'autre. On croise les doigts pour que ça marche.
@@lestutosmidjourney génial, et qui sait, on découvrira encore d'autres problèmes à résoudre qu'on n'imagine pas encore ! 😄
Une question.sans vraiment de rapport...quand je demande deux personnages mind journey a tendance a les coller l'une a l'autre...meme je precise deux femmes se regardant de profil, separees de 1 metre...il.colle les d eux personnages...je dois passer a cote de quelque chose ...
Etonnant. Essaie peut-être de rajouter un objet, même petit, entre les deux personnages. Autrement pour être certain que deux personnages ne soient pas en contact, tu peux créer une image avec un seul personnage, et rajouter un second avec la fonctionnalité "pan". C'est justement le sujet de ma dernière vidéo : ruclips.net/video/WtzoYjrEOOk/видео.html
@@lestutosmidjourney ok , mais vraiment ca revient souvent de coller les personnages c'est vraiment etrange ...Une autre question , j'ai acces au site alpha de midjourney mais il n'ya pas encore toutes les fonctionnalités , ou alors j'ai pas vu , j'ai bien vu imagine mais blend describe , etc ca n'est pas encore sur le site
Le best as usual, merci pour ta passion du truc :)
Je souhaiterais avoir ton avis sur /blend vs sref. Merci
Merci :-) Ce sont deux fonctionnalités qui n'ont rien à voir. Le --sref permet de dicter un style pour tes rendus alors que le /blend va juste mélanger entre deux et cinq images ensemble. Le blend est très limité car tu ne peux pas ajouter de texte, ton prompt ne contiendra que des images. C'est une fonctionnalité que je n'utilise plus.
Merci !!
De rien ;-)
Oui Midlibrary est génial et beaucoup de styles sont testés. Partie Benchmarks.
Je l'utilisais assez peu à vrai dire, mais le --sref est le fonctionnalité idéale pour exploiter pleinement Midlibrary.
Moi ça marche pas le -SREF et j’met l’url de l’image que je veut
Je pense que c'est parce que vous avez écrit --sref en majuscule.
@@lestutosmidjourney non malheureusement même en le mettant en minuscule ça passe pas
T'as essayé avec une vraie photo puis la denoter avec différents styles
Ce serait une grosse avancée. Moi j'essaie mais je parviens toujours à conserver mon sujet de base sans deformer avec MJ
On ne peut toujours pas bénéficier des fonctionnalités de MJ avec une photo perso malheureusement. L'équipe a peur des dérives il me semble (qu'on puisse mettre des vraies personnes dans des situations compromettantes etc.)
@@lestutosmidjourney c'est sur qu'à portée de mauvaises mains.
Donc quand tu mélanges deux styles, tu mets un seul --sref
Oui c'est ça, et ensuite tu ajuste l'influence de tel ou tel style avec le multi prompting (les doubles "::")
Maintenant c'est carrément : COPIE moi le style de ce gars... LOL 🐒
Juste génial !
Merci !! :-)