Merci, Johan, pour ta vidéo ! Je serais passé à côté de la V3 sans toi. J’ai installé presque tous les modèles que tu recommandes dans ta vidéo. Merci pour ton travail de découverte au service de la communauté !
Bonsoir Johan, j'espère que tu vas bien ! Justement, ça tombe au pixels près, car je cherchais un outil comparable mais gratuit pour le moment. Merci pour l'info, et passe de bonnes fêtes ✨
Merci pour la news. Sur un disque, j'ai Pinokio et Stabiity Matrix et bien souvent je suis partagé. J'adore la simplicité de Pinokio mais c'est très agréable de gérer les models et lora sur l'autre. J'aimerai n'en avoir qu'un pour la place alors j'espère vraiment que la version 3 ugrade la partie gestion des modèles et lora dans des dossiers communs et pourquoi pas une relation directe sur les sites de modèle online ;)
Hello, oui, je comprends. Cependant ces deux plateformes sont très différentes dans leur fonctionnement et un rapprochement technique entre les 2 me semble difficile. Pour le reste, restons connectés 😉
@johansolutionsdigitales C'est là que techniquement je décroche. A l'avenir il serait intéressant de faire un comparatif de ces 2 plates-formes pour mieux comprendre leurs avantages et inconvénients ;) Encore merci de nous tenir informés.
Merci beaucoup Julien, Oui, pour toutes celles notées MAC, cela devrait être bien, sinon, attendez-vous à des temps plus longs. Cela devrait s'améliorer avec le temps... Bien à vous
Oui, j'en parle brièvement dans une vidéo, perso je préfère la version cloud, mais aller voir la chaine de @freudix www.youtube.com/@freudix qui a fait une vidéo dédiée sur le sujet
Merci pour la news, c'est sympa de votre part. S'il vous plaît connaissez-vous un tts locale puissant ? J'ai testé fish sur pinokio, et le résultat n'était pas bon.
Hello, si on a déjà installé Comfy UI et donc pas mal de modèles qui sont vite lourds (une tonne de Go) est-ce que de passer par Pinokio 3.0 ça évite les téléchargement des modèles ou non ?
Non je viens de le faire, tu télécharge la nouvelle version et tu la lance comme si l'ancienne n'existe pas et tout seul il vas faire la MIJ sans supprimer tes IA déjà existantes sur Pinocchio.
Bonsoir Emmanuel, je dirais que le plus est le mieux 😉 En ce qui me concerne, j'ai un I7 avec 64Go de Ram + une carte Nvidia RTX 4070 + des SSD. Cela permet de faire tourner confortablement un Llama 3. En passant de 32 à 64 Go de RAM j'ai pu charger de plus gros modèles LLM. Evidement une carte type 4080 ou 4090 serait un plus, mais le budget gonfle vite... Bien à vous !
Hello, oui les cartes AMD ne donnerons pas les mêmes performances et parfois, cela est incompatible. Généralement, c'est noté sur la fiche de présentation des applications
Merci pour cette nouvelle vidéo. Dans l'absolu, j'aimerais trouver une IA qui améliore la qualité des images et upscale en même temps tout en restant proche de l'original et c'est difficile car ça hallucine trop presque à chaque itération et magnific est bien trop cher pour mon usage. Est-ce que quelque chose existe avec Pinokio ?
@@johansolutionsdigitales Merci, j'ai déjà cela, je recherchais une nouvelle solution qui améliore sensiblement la qualité telle que les textures mais ça n'existe pas chez pinocchio refiners aurait permit de le faire, mais il y a un je ne sais quoi dans les réglages (je pense que c'est le seed obligatoire) qui empêche un résultat fidèle
Merci Johan pour cette vidéo 🙂 Je débute dans l'IA local 😉 Mais je me pose une question : est-il possible d'apprendre au modèle ? De lui donner à ingurgiter des données qu'il pourra nous restituer en temps voulu ? Par exemple, est-il possible de lui donner l'URL d'une documentation technique, qu'il l'a pompe et qu'on puisse lui poser ensuite des questions précises ?
Bonjour, avec plaisir 🙂 Oui, cela est possible selon les applications et les services, j'en ai parlé dans de précédentes vidéos. Et je vais en reparler prochainement. Soit on lui donne des fichiers, soit on crée des "embedding", des données vectorisées qui 's'ajoutent au modèle. Concernant les IA locales, c'est également possible. Bien à vous
salut, je comprend pas pourquoi, moi quand je veux télécharger face fusion ca me met une boucle qui tourne indéfiniment, j'ai essaye sur d'autre ia et rien ne fonctionne
Hello ! Évitez les bloqueurs de pub et autres antivirus, C'est long en installation... Sinon, demandez de l'aide sur le Discord Pinokio en fournissant vos logs
Avec ta configuration (GTX 1660 et Ryzen 5 3360), tu peux t'amuser avec des résolutions modestes, comme 512x512 ou 768x768, et utiliser 1 ou 2 LoRAs à la fois. En comparaison, j'utilise une RTX 2070 Super 8Go et un Ryzen 5 3600 (sous forge), et je commence à voir les limites à 1512x1792 avec 3 LoRAs. Si tu veux viser des résolutions ou des paramètres plus ambitieux, il te faudra envisager de changer ta carte graphique. ;)
Pinokio + WebUI et Ollama avec un Llama 3 dessus, cela fait du bon travail, ensuite il faut un PC qui ait une carte Nvidia récente et de la RAM (32 ou 64Go) pour charger le modèle. Bien à vous
@@johansolutionsdigitales j'ai une 4070Ti, ça devrait aller :) merci, et niveau benchmark ça équivaut a quoi le llama 3? par rapport a un gpt 4o ou un gemini 2.0?
j'utilise pinokio pour face fusion (en plan B de ROOP et inversement : roop va être meilleur sur les face swap de loin et face fusion meilleur sur les face swap de près. Tout ce ceci en vidéo lol ), clarity, hallo principalement. J'avais quelques crainte pour installer la V3 ayant la V2 mais ça se passe tout seul en fait
Ma Carte graphique est trop nulle (2060) j'attends les 50xx pour en prendre une plus adaptée et enfin me mettre à l'IA. En attendant je me renseigne et prépare tout ce qu'il faut :p
ça à l'air d'être une usine à gaz pour le commun des mortels... J'utilise stability matrix principalement pour comfy ui, je ne vois pas l'intéret de pinnochio, je ne suis pas dev et un dev n'est pas designer je ne comprends pas l'intéret .. Merci pour la présentation néanmoins
Non, Pinokio n'a rien d'une usine à gaz et dépasse de loin Stabilty Matrix par son périmètre d'applications disponibles. Vous voyez Antoine, moi, c'est votre commentaire dont je ne vois pas l'intérêt. Vous partez d'un postulat définitif et négatif qui méprise bien des personnes en quelques mots, le développeur, les utilisateurs... Bref, évitez-nous ça et revenez plus positif, bien à vous
mflux webUI pour mac dans pinokio n'est pas du tout, mais alors absolument pas optimisé, j'ai pourtant le dernier M4 max et aucun de mes cœurs performance n'est utilisé , c'est triste vu que mon GPU est presque aussi puisant que la RTX3090. Bref si quelqu'un peut me confirmer ces résultats ? ou si il y a une manip à faire pour activer mes cores performance ?, mais j'y crois moyen, c'est peut-être dû a pinokio lui-même dont le code n'est pas optimisé ? merci et merci Johan pour ta vidéo. J'ai une dernière question : ya t'il une alternative mac gratuite pour faire son lora flux ? Mais si vous connaissez des alternatives pinokio/flux mais optimisés pour les cores GPU je suis chaud merci
La plateforme de prédilection pour l'IA générative en image et vidéo reste Nvidia, Pinokio n'est en rien responsable de cela, c'est juste un lanceur. La puissance théorique ou disponible ne peut être utilisée que si elle adopte les normes. La puissance disponible d'un M4 ou d'un autre processeur ne sera exploité que si sa norme et ses API sont utilisées par les applications. AMD est ses GPU connaissent le même souci... J'espère que cela changera, cela passera par des outils offerts par Apple à la communauté de l'IA open source, tel que Nvidia a pu le faire ces dernières années. Bien à vous
Merci, Johan, pour ta vidéo ! Je serais passé à côté de la V3 sans toi. J’ai installé presque tous les modèles que tu recommandes dans ta vidéo. Merci pour ton travail de découverte au service de la communauté !
Merci à toi 👍 avec plaisir !
Merci. Je découvre ta chaine et je m abonne, je ne veux plus rien rater
Super, merci beaucoup et bienvenue ici ! 🙌🙂
Merci Johan pour cette nouvelle vidéo très claire. Au top comme souvent !
Merci à toi Mattieu 😊
Je viens de découvrir ta vidéo qui est très intéressante (et ton site) donc 1 abonnée en + .
Merci et bienvenue à toi 👋🙂
Merci Johan
Avec plaisir Marius ! Bien à vous
Merci.JOHAN
Maroc.
Merci, avec plaisir 👋
Merci pour cette news!
Avec plaisir Mathieu !
Génial merci !
Avec plaisir 🙂 Merci !
Bonsoir Johan, j'espère que tu vas bien !
Justement, ça tombe au pixels près, car je cherchais un outil comparable mais gratuit pour le moment.
Merci pour l'info, et passe de bonnes fêtes ✨
Bonsoir Luc ! Génial ! Avec plaisir, et très bonnes Fêtes également ! 🎄
Merci !
Avec plaisir ! 👋🙂
👍
Avec plaisir !
01:30 j'ai enfin trouvé quelqu'un qui a autant d'onglets ouverts que moi :o
😉 Possiblement
bonjour J'ai une question je voulais savoir sur Pinokio je cherche un truc pour avoir la meilleure qualité pour les vidéos RUclips
Bonjour, je ne crois pas que Pinokio puisse vous apporter plus de qualité vidéo, pouvez-vous préciser votre besoin ?
@@johansolutionsdigitales bonjour avec perroquet, je voudrais savoir si il y a pour faire des vidéos fluides
Merci pour la news. Sur un disque, j'ai Pinokio et Stabiity Matrix et bien souvent je suis partagé. J'adore la simplicité de Pinokio mais c'est très agréable de gérer les models et lora sur l'autre. J'aimerai n'en avoir qu'un pour la place alors j'espère vraiment que la version 3 ugrade la partie gestion des modèles et lora dans des dossiers communs et pourquoi pas une relation directe sur les sites de modèle online ;)
Hello, oui, je comprends. Cependant ces deux plateformes sont très différentes dans leur fonctionnement et un rapprochement technique entre les 2 me semble difficile. Pour le reste, restons connectés 😉
@johansolutionsdigitales C'est là que techniquement je décroche. A l'avenir il serait intéressant de faire un comparatif de ces 2 plates-formes pour mieux comprendre leurs avantages et inconvénients ;) Encore merci de nous tenir informés.
Hello Johan, super video comme d'habitude :-) c'est quoi le petit robot derriere toi ?
Hello, merci 🙂 Le petit robot, c'est Pipo mon petit assistant qui m'aide désormais, j'en dirai plus bientôt 😉
Superbe, merci. J'utilise déjà pinokio mais j'ignorais qu'on pouvait y créer ses LORA.
Avec plaisir 🙂 merci ! Oui Les LoRas c'est fantastique et FluxGym et top (attention, bien lire le commentaire épinglé sous la vidéo fluxgym)
Hello, merci pour la présentation. Très fluide comme toujours ;).
Petite question, avec un mac M3 24go c'est confortable ?
Merci beaucoup Julien, Oui, pour toutes celles notées MAC, cela devrait être bien, sinon, attendez-vous à des temps plus longs. Cela devrait s'améliorer avec le temps... Bien à vous
Merci Johan, avez vous testé Bolt avec Pinocchio?
Oui, j'en parle brièvement dans une vidéo, perso je préfère la version cloud, mais aller voir la chaine de @freudix www.youtube.com/@freudix qui a fait une vidéo dédiée sur le sujet
@@johansolutionsdigitales merci bcp
Bonjours excellent travail ya des ia image to video ?
Merci ! Oui, mais c'est loin et pas au top 😉 (je trouve)
Merci pour la news, c'est sympa de votre part.
S'il vous plaît connaissez-vous un tts locale puissant ? J'ai testé fish sur pinokio, et le résultat n'était pas bon.
Avec plaisir, merci ! Non malheureusement, idem pour Fish... Sur Mac il y a mieux semble t-il, Bien à vous
@@johansolutionsdigitales Merci, si jamais vous en trouvez un, n'hésitez pas à faire une vidéo à ce sujet.
@@Voicetudio c'est sûr ! 👋 Depuis le temps que j'attends cela...
Hello, si on a déjà installé Comfy UI et donc pas mal de modèles qui sont vite lourds (une tonne de Go) est-ce que de passer par Pinokio 3.0 ça évite les téléchargement des modèles ou non ?
Bonsoir, non malheureusement, sauf pour certaines API
Genial merci 👍 faut il supprimer l ancienne version pour faire une installation propre ou on peut l installer dessus stp ? Merci pour tes vidéos 👍
Avec plaisir, merci 🙂 Non, moi, j'installe par-dessus, ensuite parfois, il faudra réinstaller une application ou faire une mise à jour
Non je viens de le faire, tu télécharge la nouvelle version et tu la lance comme si l'ancienne n'existe pas et tout seul il vas faire la MIJ sans supprimer tes IA déjà existantes sur Pinocchio.
Super merci ! :)
Bonsoir Johan, quel matériel faut-il pour faire tourner Pinokio et utiliser les IA (LLM) performants ?
Bonsoir Emmanuel, je dirais que le plus est le mieux 😉 En ce qui me concerne, j'ai un I7 avec 64Go de Ram + une carte Nvidia RTX 4070 + des SSD. Cela permet de faire tourner confortablement un Llama 3. En passant de 32 à 64 Go de RAM j'ai pu charger de plus gros modèles LLM. Evidement une carte type 4080 ou 4090 serait un plus, mais le budget gonfle vite... Bien à vous !
@@johansolutionsdigitales merci beaucoup pour ces informations, cela va me permettre de réaliser un budget 👍
Bonjour, merci pour les vidéos ! Petite question même si on a une bonne amd ça tournera pas ? Ou très difficilement ?
Hello, oui les cartes AMD ne donnerons pas les mêmes performances et parfois, cela est incompatible. Généralement, c'est noté sur la fiche de présentation des applications
Merci pour cette nouvelle vidéo. Dans l'absolu, j'aimerais trouver une IA qui améliore la qualité des images et upscale en même temps tout en restant proche de l'original et c'est difficile car ça hallucine trop presque à chaque itération et magnific est bien trop cher pour mon usage. Est-ce que quelque chose existe avec Pinokio ?
Bonsoir Bruno, pour de l'upscale qui n'hallucine pas testez les outils de Topaz Labs : Gigapixel Photo AI
@@johansolutionsdigitales Merci, j'ai déjà cela, je recherchais une nouvelle solution qui améliore sensiblement la qualité telle que les textures mais ça n'existe pas chez pinocchio refiners aurait permit de le faire, mais il y a un je ne sais quoi dans les réglages (je pense que c'est le seed obligatoire) qui empêche un résultat fidèle
Merci Johan pour cette vidéo 🙂
Je débute dans l'IA local 😉
Mais je me pose une question : est-il possible d'apprendre au modèle ? De lui donner à ingurgiter des données qu'il pourra nous restituer en temps voulu ? Par exemple, est-il possible de lui donner l'URL d'une documentation technique, qu'il l'a pompe et qu'on puisse lui poser ensuite des questions précises ?
Bonjour, avec plaisir 🙂 Oui, cela est possible selon les applications et les services, j'en ai parlé dans de précédentes vidéos. Et je vais en reparler prochainement. Soit on lui donne des fichiers, soit on crée des "embedding", des données vectorisées qui 's'ajoutent au modèle. Concernant les IA locales, c'est également possible. Bien à vous
@johansolutionsdigitales merci pour la réponse, je vais aller fouiller dans les vidéos existantes.
salut, je comprend pas pourquoi, moi quand je veux télécharger face fusion ca me met une boucle qui tourne indéfiniment, j'ai essaye sur d'autre ia et rien ne fonctionne
Hello ! Évitez les bloqueurs de pub et autres antivirus, C'est long en installation... Sinon, demandez de l'aide sur le Discord Pinokio en fournissant vos logs
@johansolutionsdigitales merci beaucoup
bonjour johan j'ai un pc gamer avec nividia gtx 1660 et comme processeur AMD ryzen 5 3360 est bon pour flix 1.1 merci d'avance
Bonjour Lucas, je ne dispose pas de cette carte, il vous faudra tester... Bien à vous
@johansolutionsdigitales Merci beaucoup
Avec ta configuration (GTX 1660 et Ryzen 5 3360), tu peux t'amuser avec des résolutions modestes, comme 512x512 ou 768x768, et utiliser 1 ou 2 LoRAs à la fois. En comparaison, j'utilise une RTX 2070 Super 8Go et un Ryzen 5 3600 (sous forge), et je commence à voir les limites à 1512x1792 avec 3 LoRAs. Si tu veux viser des résolutions ou des paramètres plus ambitieux, il te faudra envisager de changer ta carte graphique. ;)
@@serial-battle merci beaucoup pour votre aide merci
Je vais changer de carte graphique et merci encore
Je peux utiliser pinokio sur mobile svp?
Non malheureusement, il tourne sur Windows, Mc et Linux pour le moment, mais qui sait...
@@johansolutionsdigitales ok merci
je connasi rien de tout ça, si je veux un chatgpt local gratuit et sans limite idiote sur la generation, tu me recommande lequel? merci
Pinokio + WebUI et Ollama avec un Llama 3 dessus, cela fait du bon travail, ensuite il faut un PC qui ait une carte Nvidia récente et de la RAM (32 ou 64Go) pour charger le modèle. Bien à vous
@@johansolutionsdigitales j'ai une 4070Ti, ça devrait aller :)
merci, et niveau benchmark ça équivaut a quoi le llama 3? par rapport a un gpt 4o ou un gemini 2.0?
j'utilise pinokio pour face fusion (en plan B de ROOP et inversement : roop va être meilleur sur les face swap de loin et face fusion meilleur sur les face swap de près. Tout ce ceci en vidéo lol ), clarity, hallo principalement. J'avais quelques crainte pour installer la V3 ayant la V2 mais ça se passe tout seul en fait
Intéressant, merci pour le partage, bien à vous !
Fluxgym est vraiment top, les concurrents sont trop compliqués niveau paramétrage pour arriver à quelque chose.
Oui, vraiment génial, c'est un super tool !
Slt combien tu dépenses pour les appel api🤔
Bonjour, de quelles APIs parlez-vous ? Vous vous êtes possiblement trompé de vidéo
@@johansolutionsdigitales, slt en fait je voulais savoir combien ça va coûter pour faire un appel API avec Make
J'ai vu "V3" dans le titre, j'ai sauté sur la vidéo :)
Je vous comprends 😉👌
Ma Carte graphique est trop nulle (2060) j'attends les 50xx pour en prendre une plus adaptée et enfin me mettre à l'IA. En attendant je me renseigne et prépare tout ce qu'il faut :p
Vous avez raison, préparez tranquillement tout ça et attendant votre 50xx, bien à vous !
Il faut un pc puissant
Oui, surtout avec une Nvidia récente disposant de 12Go de VRAM
ça à l'air d'être une usine à gaz pour le commun des mortels... J'utilise stability matrix principalement pour comfy ui, je ne vois pas l'intéret de pinnochio, je ne suis pas dev et un dev n'est pas designer je ne comprends pas l'intéret .. Merci pour la présentation néanmoins
Non, Pinokio n'a rien d'une usine à gaz et dépasse de loin Stabilty Matrix par son périmètre d'applications disponibles. Vous voyez Antoine, moi, c'est votre commentaire dont je ne vois pas l'intérêt. Vous partez d'un postulat définitif et négatif qui méprise bien des personnes en quelques mots, le développeur, les utilisateurs... Bref, évitez-nous ça et revenez plus positif, bien à vous
Pinokio c'est pas mal mais je préfère Stability Matrix 😃
Si vous ne faites que de l'image Stability Matrix est très bien, le périmètre de Pinokio est beaucoup plus large, pour ne pas dire infini...
@@johansolutionsdigitales image, video, train de Lora etc ...
essencielment flux
Je comprend 😉 Il est si bon !
mflux webUI pour mac dans pinokio n'est pas du tout, mais alors absolument pas optimisé, j'ai pourtant le dernier M4 max et aucun de mes cœurs performance n'est utilisé , c'est triste vu que mon GPU est presque aussi puisant que la RTX3090. Bref si quelqu'un peut me confirmer ces résultats ? ou si il y a une manip à faire pour activer mes cores performance ?, mais j'y crois moyen, c'est peut-être dû a pinokio lui-même dont le code n'est pas optimisé ? merci et merci Johan pour ta vidéo. J'ai une dernière question : ya t'il une alternative mac gratuite pour faire son lora flux ? Mais si vous connaissez des alternatives pinokio/flux mais optimisés pour les cores GPU je suis chaud merci
La plateforme de prédilection pour l'IA générative en image et vidéo reste Nvidia, Pinokio n'est en rien responsable de cela, c'est juste un lanceur. La puissance théorique ou disponible ne peut être utilisée que si elle adopte les normes. La puissance disponible d'un M4 ou d'un autre processeur ne sera exploité que si sa norme et ses API sont utilisées par les applications. AMD est ses GPU connaissent le même souci... J'espère que cela changera, cela passera par des outils offerts par Apple à la communauté de l'IA open source, tel que Nvidia a pu le faire ces dernières années. Bien à vous
Merci ❤💚
Avec plaisir !