Davvero bello. Un consiglio, fai qualche video sulla IA applicata ai render di interni. C'è tanta richiesta con scarsi risultati. Se trovassi qualcosa di davvero funzionale, faresti il botto!
Ciao davvero ottimo sia il programma che la tua spiegazione perfetta, io però vorrei chiederti: io scrivo canzoni e usando l'ormai famoso suno vengono ottime canzoni ma io vorrei che venisse usata la mia voce.. come fare? grazie se puoi darmi qualche dritta.
Fichissimo, però ho una domanda chi può richiamare la foto di Andrea o nel mio caso la foto di Paolo? Il modello trainato resta solo a disposizione nostra o anche di altri?
Ciao! Il modello mostrato non si presta per il face swap. Ci sono comunque altre opzioni open source (anche basate su Stable Diffusion) che permettono di farlo 😉
grazie Andrea molto interessante qs video, la foto del clown è molto bella, ma il prompt che hai lanciato è completamente diverso dall'output generato "ritratto fotorealistico di andrea vestito da clown che sta intrattenendo la gente per strada"....è un pò tentare a caso. Midjourney non ha questa funzione ma il motore di generazione AI è anni luce avanti rispetto a flux...o mi sbaglio?
Ciao, grazie mille per il commento e lo spunto! E' vero, nel video mi concentro poco sul fatto che, oltre all'indiscutibile qualità dell'immagine, il modello abbia restituito comunque un output non troppo fedele. Come spesso capita usando l'AI generativa, si tratta di testare e sperimentare continuamente, fino ad arrivare ad un risultato che si avvicini il più possibile a ciò che abbiamo in mente. In questo caso, ho mostrato "in diretta" qualche generazione. Alla fine del video ho mostrato invece alcuni risultati su cui avevo lavorato un po' di più😉
Davvero bello. Un consiglio, fai qualche video sulla IA applicata ai render di interni. C'è tanta richiesta con scarsi risultati. Se trovassi qualcosa di davvero funzionale, faresti il botto!
Ciao davvero ottimo sia il programma che la tua spiegazione perfetta, io però vorrei chiederti: io scrivo canzoni e usando l'ormai famoso suno vengono ottime canzoni ma io vorrei che venisse usata la mia voce.. come fare? grazie se puoi darmi qualche dritta.
Bellissimo! Questa è una delle cose che manca a Midjourney, anche se lo uso molto. Grazie per questa chicca !!!
Sì, veramente super divertente (e avanzata) 🙂
Fichissimo, però ho una domanda chi può richiamare la foto di Andrea o nel mio caso la foto di Paolo? Il modello trainato resta solo a disposizione nostra o anche di altri?
@Palo00 AZZ! Riformula il prompt please!
Domanda molto interessante,!! Qualcuno conosce la risposta?
Ciao, la training history del modello è accessibile solo tramite il nostro account personale
Ottimo metodo per creare una modella Ig/of 100% ai partendo da dati sintetici
Ciao Andrea! Conosci un software utile per tradurre in maniera OTTIMA i video in inglese?
Ciao! Intendi tradurre il parlato on il transcript? Per il parlato HeyGen fa anche il Lip Sync, prova a dargli un'occhiata 😉
veramente spettacolare 😍
Ciao sarebbe possibile utilizzarlo anche con 2 persone contemporaneamente?
Ciao, l'addestramento è pensato per un soggetto unico. Credo che al massimo potresti ottenere delle fusioni, sarebbe interessante provare😀
Ciao, non capisco come impostare Hugging Face
Ciao, nel video dico HuggingFace, ma ho avuto un puccolo lapsus e mi riferivo a GiHub (avevo corretto l'informazione in descrizione)
@@andreagiorgiAI Grazie . Sati facendo un lavoro incredibile. Complimenti.
Domanda: data una foto ad esempio di due calciatori..come faresti per sostituire uno dei due volti con un volto personalizzato?
Ciao! Il modello mostrato non si presta per il face swap. Ci sono comunque altre opzioni open source (anche basate su Stable Diffusion) che permettono di farlo 😉
grazie Andrea molto interessante qs video, la foto del clown è molto bella, ma il prompt che hai lanciato è completamente diverso dall'output generato "ritratto fotorealistico di andrea vestito da clown che sta intrattenendo la gente per strada"....è un pò tentare a caso. Midjourney non ha questa funzione ma il motore di generazione AI è anni luce avanti rispetto a flux...o mi sbaglio?
Ciao, grazie mille per il commento e lo spunto! E' vero, nel video mi concentro poco sul fatto che, oltre all'indiscutibile qualità dell'immagine, il modello abbia restituito comunque un output non troppo fedele. Come spesso capita usando l'AI generativa, si tratta di testare e sperimentare continuamente, fino ad arrivare ad un risultato che si avvicini il più possibile a ciò che abbiamo in mente. In questo caso, ho mostrato "in diretta" qualche generazione. Alla fine del video ho mostrato invece alcuni risultati su cui avevo lavorato un po' di più😉
Sarebbe interessante un confronto qualitativo fra questa webapp e artflow, che offre la stessa funzione dando diversi crediti gratuiti al mese
Ciao, grazie mille per lo spunto 🙂
Ottimo grazie! Ma se avessi due, tre foto molto simili tra, loro di un personaggio creato da me con l'AI riuscirei ad addestrare un modello?
Ciao, grazie a te! Sì, l'importante è caricare immagini coerenti dello stesso personaggio
🏆🔥
Grazie 😉
Quando diventeranno programmi che usano la propria gpu,e non bisognerà pagare,allora si puo fare
Bellissimo!!
Ci sarebbe un tool simile ma gratuito per fare alcune prove?
Puoi fare un video di come farlo in locale? Ho una 4090 da voler sfruttare
Ciao, grazie mille per lo spunto 😉
Ciao, è gratuito?
@DOMENICO_NIC Ma hai seguito il filmato?
Ciao! Come dico nel video, è necessario caricare un piccolo credito ($10 dollari) per addestrare il modello e generare le immagini
@@andreagiorgiAI grazie