Je trouve ça aussi passionnant que je suis désintéressé. Tous ces outils semblent fantastiques (si tant est qu'ils aboutissent) mais à quel moment quelque chose d'important artistiquement, ou même juste de cool, est crée ? Gagner du temps, c'est sympa. De l'argent aussi. Mais pour produire quoi et avec qui ? La révolution en terme de rentabilité, pas de créativité. Et ça va en plus tirer l'exigence vers le bas. Pas de quoi s'en réjouir.
Un underscore RUclips sans besoin d'un micode, de fonds verts et d'invités, dont le contenu serait généré par ChatGpt sous la gouverne d'un employé Webmedia qui taperait simplement une petite ligne de prompt. "On en est pas si loin" comme dirait Micode avec un sourire tout excité.
Le vrai souci pour l'instant à mon avis c'est que visuellement, ça se voit toujours que c'est généré par IA. Le jour ou on n'arrivera plus à discerné l'IA du vrai filme, on aura atteint un vrai stade.
C'est ce qui a été démontrer par un photographe qui a gagné un prix alors qu'il a généré l'image par IA et à refuser le prix pour alerté sur le fait qu'au jour d'aujourd'hui il faut une IA pour déterminer s'il s'agit d'une peinture ou photographie faite par une IA ou un humain
ça s'améliore tellement vite que sa deviendra rapidement un faux problème , sans compté qu'il a plein de style possible se qui brouille encore plus les piste .
1:58 Whisper est vraiment puissant je l'ai utilisé y'a 2 mois sur un challenge.. 8:20 L'entraînement des modèles stable diffusion ne prend plus autant de temps, avec les techniques comme LORA qui ne prend que 10min.
La vidéo de Corridor digital n'a pas été fait par une ia pourquoi il raconte ça; ils ont juste créé à partir d'une vidéo réel le style cartoon grâce à une ia mais le film est entièrement fait à la main. il suffit d'aller voir la making off et corridor dit juste qu'ils ont fait ça parce qu'ils ne savent pas faire de films d'animations. D'ailleurs des mecs de Disneys ont vu le film et on conclue que ça allait changé la manière de faire de l'animation mais que que techniquement ça a déjà été fait pour Pocahontas puisque l'ensemble du film avait été fait avec des acteurs avant de passer à l'animation. On peut pas dire que retravaillé une image avec une ia c'est faire un film complet avec une ia puisque le scénario, la composition, le montage la musique ont été imaginé, le décor est réalisé sous unreal engine avec des assets trouvé sur internet, le compositing des plans. L'ia ne sert juste qu'a appliqué un style à la vidéo finale.
ça me fait penser aux critiques des derniers Marvel qui disent que ce sont des films génériques, fades et sans saveurs comme si ils avaient été générés par une IA... faire des films pas de problème, mais faire un bon film requiert du talent, et là l'I.A ne peut pas intervenir.
Approche très intéressante! Je dirais qu’un point souvent négligé dans le développement d’IA pour les vidéos est la cohérence temporelle de la séquence d’image. Ici on simplifie un peu le problème en considérant qu’on peut générer un film avec des frames indépendantes (génération de vidéo en frame par frame). Mais pour arriver à un Netflix AI, il faudrait un modèle de AI qui soit de générer des séquences de frames (et donc des vidéos) qui sont temporellement cohérente à partir d’une prompt, plutôt que de recoller les morceaux. Et ça risque de prendre un peu plus de temps que quelques mois.
pour "l'anime" de corridors crew, les fonds sont fait sur UE et ce sont des imagées générées par stable diffusion sur des vidéos filmée sur des acteurs (eux même en l'occurrence)
Ces technologies pourraient pas aussi impacter le monde du jeu vidéo ? (Combiné à la précédente vidéo, on a presque tout pour un jeu vidéo avec de beaux graphismes, une tournure digne des plus grands scénarios et des personnages qui réagissent et qui "réfléchissent" tels des petites IA sur pattes)
Si si. Et typiquement, je vois bien les prochains gros Roguelike se baser non-seulement sur de la génération procédurale des niveau comme c'est le cas actuellement, mais avec en plus les assets graphiques également auto-générés. Un autre exemple pourrait être un gros RPG (fps style Skyrim ou top view style Divinity) avec les PNJ+quêtes via IA. ça va aussi ouvrir la possibilité d'avoir du doublage audio pour tout les personnages sans avoir 25% de la population de ton jeu qui à la même voix :D
C'est déjà presque le cas avec Unreal Engine 5, très intuitif et bien plus facile à prendre en main que ses précédentes versions. La génération procédurale de l'environnement et les nombreux nouveaux outils rendent le truc encore plus simple. Y'aura bientôt plus trop besoin d'une grosse équipe pour les triple A
Conclusion, on en a encore pour des années. Ça fait des années que l'on parle de machin learning avec les millions d'ordinateurs à la puissance de calcul qui nous dépasse complètement, qui sortent la quinzième décimale de pi en 15 secondes, à ce rythme là je n'aurais pas été surpris de discuter avec une véritable intelligence numérique qui comprend vraiment notre monde et notre sensibilité, et qui ne sortirait pas des fausses images de gens qui sourit avec 35 paires de dents ! Ensuite s'il ne comprend pas que son dessin animé dans cette démo glitch complètement à l'oeil humain, je doute que ce soit corrigé dans 1 an et demie. Ce sera peut-être mieux, y aura peut-être autre chose, mais le Netflix artificiel c'est pour dans 10 ans, allez peut-être 5 grand minimum.
C'est génial, ça me rappelle la série de vidéo de Slexno. Il essaie de voir si de la bouffe crée numériquement et plus ou moins appétissante que la bouffe filmer réellement. Ça pourrait être cool de le voir passer un jour
La première étape avant la génération complète ce sera plutôt la possibilité d'acheter / louer une version personnalisée d'un media existant. Comme un extrait de Dark Knight ou voir le film entier avec J Phoenix à la place de Heath Ledger ou l'inverse avec le film Joker. C'est assez simple et ils ont la banque visuelle nécessaire pour bien l'exécuter. Il y a un marché pour ce type de media.
moi juste j'aimerais savoir quel est l'intérêt de ce type d'IA, visiblement tous les gens qui en parle disent "oulala, c'est vraiment dommage pour les artiste, et les motions designer, etc" mais du coup quel est l'intérêt, ou est la création, le jeu d'acteur , la direction photographique et tous le reste que je ne cite pas, ou cela vas nous menez ? Et meme je comprend pas l'interet on dirait juste un genre de filtre comme y'a sur photoshop pour imiter des texture type aquarel, peinture, dessin au trait, juste je comprend pas, on avance a grande vitesse vers le manque d'idée, deja qu'on avance dans une société de plus en plus lisse bref j'ai hate de voir spiderman 12 dans 30 ans avec Tom Holland qui a exactement la meme gueul que maintenant 🤡
L'intérêt c'est de créer du contenu homogénéisé à l'infini pour moins cher afin d'enrichir encore plus les propriétaires du capital... C'est triste car l'IA n'innove pas, n'a aucune vision artistique, ce n'est qu'un outil purement productiviste...
Tout faire bien , plus vite a moindre cout . Voir qui permettra de développé de nouvelle technique et allez plus loin . Produire a terme même des œuvre extrêmement compliquer voir impossible a l'humain . Bref sa va tendre améliorer les qualité des oeuvres en gros . Car si tout le monde a accès au même outils ultra performant , il faudra réussir a faire le différence quelque part . Si le jeux d'acteur et graphiste sont obsolète ou bien moins important . Sa voudra juste dire qu'il faudra tout mettre les scénario etc.
Je sens qu'il y aura un nombre incalculable de préquelles/suite/versions alternatives des films à succès genre Harry Potter ("PromptVideo, fais-moi une version de Harry Potter où le héros est Neville depuis le début, mais en 15 films de 3h chacun", "PromptVideo, fais-moi une version de Harry Potter où ça se passe comme l'original, mais avec le POV de Dumbledore" etc) ou autre. Chaque utilisateur va se créer son propre film 2-3 fois par jour. Or ça prend beaucoup d'espace, un film. Ça risque de créer des problèmes de manque de data centers non ?
Peut-être qu'on pourrait se contenter de stocker les données de génération du film (qui prendront beaucoup moins de place) et demander à l'IA de ne générer la vidéo (plus volumineuse que les données de génération) qu'au moment du visionnage. 🤔
Génial (et un peu effrayant aussi pour les créateurs) ! Un point oublié mais qui reste cohérent dans l'assemblage des briques, étant la génération du son : voix ainsi que musique. Chose que les IAs sont déjà capables d'accomplir me semble-t-il (avec plus ou moins de degrés de réussite et qui reste encore légèrement imparfait) Mais c'est en cours, ou en bonne voix ! *Haha* 😅 Désolé, je drop le mic et trouve la sortie, promis ! > [ ]
Avant de générer des images inédites pour créer de nouveaux projets, il sera aussi question de piratage. S'il suffit d'un script et d'une banque d'images pour qu'une IA génère un film, alors tout ce qu'on aura à faire pour pirater un film, c'est de générer un dataset à partir du master officiel, de transférer ce dataset beaucoup moins gourmand en données, et de refabriquer le film avec l'IA. Et là tout de suite, je ne vois aucun moyen pour les studio de se prémunir de cela. Je vois mal comment il pourrait être illégal de posséder un dataset du film ou sa transcription filmée puisque aucun des deux ne sont la possession du studio... Je trouve en tout cas la question aussi intéressante que celle de la création !
Les sous-titres de RUclips sont généralement très bons, j'écoute toujours avec les sous-titres peu importe la langue. Français et anglais, aucun problème ou presque.
ce qui est bien c'est qu'à cette allure là, le divertissement dans 30 ans sera has been car trop facilement accessible pour tout le monde et on pourra retourner dans les champs pour enfin produire des choses utiles à notre survie
Je pense que ça serait intéressant de faire une vidéo sur NeuroSama, un VTuber IA, ça touche également au monde du divertissement, et je pense que dans un certain temps, on aura principalement des RUclipsr robot ahah
Les avancées récentes en matière d'IA sont proprement hallucinantes (merci ChatGPT et Copilot au quotidien dans mon taf ^^) et ça peut faire peur mais je pense que tous les métiers créatifs ne vont pas mourir pour autant, une petite partie probablement mais pas tous, loin de là (on le voit, "pour l'instant", avec tout le boulot que ça demande encore en pré et post-prod). Par contre, il va inévitablement falloir modifier les habitudes et les compréhensions sous peine de faire parti des dommages collatéraux (exactement comme ça avait déjà été le cas avec l'industrialisation, et nous avons pourtant toujours des opérateurs humains de machines semi-automatisées). Comme d'hab, super vidéo, sujet très intéressant et très bien amené, bravo ;)
L'exemple de corridor digital c'est de la rotoscopie assister par plug in ca fait déjà un petit moment que les I.A sont utilisé pour faire du motion tracking, c'est pas encore de l'autonome, genre ont lui prompt et l'algorithme mâche tout le boulot, ont l'assiste un minimum , mais c'est déjà extrêmement puissant et ca fait gagner un temp précieux sur le compositing .
J'ai une petite question qui me trotte dans la tête et qui pourrait être un sujet à développer dans une prochaine capsule. Quand est-il de l'utilisation d'AI dans le cadre d'enquêtes criminelles, cold case ou encore la revisite de procès emblématiques ? Y a t'il une réflexion dans ce domaine ? Exemple : je mets a dispo d'une AI ou un groupe d'AI tous les éléments d'une enquête et on nous sort les scénarios possible et les éventuels profils de suspects.
Si a la place d un serveur classique on y mettait un ordinateur quantique ca serait le jackpot , mais quid de la créativité , c est fou et inquiétant a la fois
Superbe video et ultra intéressant comme toujours !! J'ai utilisé whisper pour sous-titrer mes cours unviversitaire et le résultat est incroyable avec le model medium !
C'est faux , juste comme il aura beaucoup plus de personne ayant accès , logiquement le nombre pur d'oeuvre osef va augmenté . Mais l'innovation va toujours continué , par contre il risque d'être noyé dans la masse .
Mais du coup, la suite logique, ce serait que notre plateforme de streaming génère en 5 minutes un film qui corresponde de manière idéale au film qu'on voudrait voire sur le coup
Voici un commentaire que ChatGPT pourrait générer pour une vidéo RUclips sur la création de films par une IA : "Wow, c'est vraiment fascinant de voir comment l'IA est capable de créer des films de manière autonome! Cette technologie est révolutionnaire et promet d'ouvrir de nouvelles possibilités passionnantes dans le monde du cinéma. En tant que modèle de langage avancé, je suis émerveillé par les progrès que nous avons réalisés dans le domaine de l'IA, et je suis convaincu que nous n'en sommes qu'au début de ce que nous pouvons accomplir. Merci pour cette vidéo inspirante!"
J'ai hâte qu'on puisse communiquer réellement sur nos jeux vidéo en ayant des impacts réels comme la vidéo où l'on est enquêteur et que l'on pose nos propres questions, la dinguerie...
Il faudra aussi pouvoir générer des images avec une bonne profondeur de couleur (Netflix travaille en HDR). La plupart des modèles sont entraîner avec les images internet 8 bits et basse def. Donc on pourra facilement générer des films via ia, pour une vision web, mais pour avoir des belles images, il faudra d'autres IA
L’art a pour vocation de provoquer des émotions. Est ce que, sachant qu’une œuvre n’est pas créée par un humain, l’émotion est toujours là ? Perso, je ne suis pas sûr. Genre ça emballe qui d’écouter un concert d’un groupe virtuel qui joue de la musique crée par des machines ?
Je vois clairement toutes ces initiatives dun mauvais oeil. A vouloir remplacer a marche forcé les metiers de la creation, de linnovation/ingenirie, ... Et tuer nos ecrivains, nos intermitants du spectacle, nos ingenieurs... Alors que toutes ces IA et autre algo doivent rester uniquement au niveau macro pour que ca ne serve que daide a la reflexion,mais pas a la remplacer. On va finir par vraiment ecerveler nos societes avec ces outils... Beaucoup y voient une avancee, mais en fait on va droit dans le mur.
C'est un point de vue de technicien, c'est sûr que pour le rendu , l'aspect le résultat est là, mais c'est faire abstraction du travail des réalisateurs, le choix de montage, le choix d'éclairage, décors etc... qui, chez les bons réal sont des outils à sa disposition. Un exemple tout con, les films de Tim Burton ne seraient pas du tout les mêmes si ils avaient été des projets de Steven Spielberg. Après c'est sur que pour des travaux plus commun une IA serait capable d'en faire de même.
Même avec ça moi je verrais encore cinq ans avant les premiers résultats passables... Ya quand même aussi le son à générer. Faire tout ça de manière coordonnée et sans le support d'un ou de plusieurs pros et déployé pour des usages grands publics... Ça va pas être facile😅
il faut savoir une chose c'est que le film a aussi été fait avec de la capture d'image qui a été modifié avec l'IA et que les images ont été retravaillées mais oui c'est un début et le film entier avec un prompt est peut être à 2/3 ans max de maintenant mais là où on est à un bottle neck avec les modèles basés sur l'architecture transformers, c'est à partir du moment où un défaut de logique se glisse dans la suite donnée par l'IA. On arrive pas encore à lui faire analyser où son résonnement est faut et du coup cette erreur de résonnement reste dans la logique des output. On ne sait pas encore modifier ceci même si on s'améliore mais ça viendra rapidement. Alors oui c'est dit mais il faut voir la vidéo de corridor crew et l'analyse d'un animateur de Disney pour vraiment comprendre pourquoi c'est encore faisable uniquement pas des pro de la CGI
Moi je vois qu'il manquera quand même un truc essentiel au cinéma globalement : LE PARTAGE. Si t'es tout seul à avoir vu ton film et que personne n'en a rien à faire, ça n'aura pas le même intérêt.
Il y a que ceux qui sont hors du monde du cinéma pour être heureux. C'est une catastrophe industrielle pour le cinéma. Il faut interdire toute cette histoire d'IA dans le cinéma.
J'ai mis les sous-titres youtube à partir du moment où vous aviez dit que c'était nul et il mes que des bons mots, il n'y a pas les virgules et la points mais à part ça c'est pas mal
Qu'est-ce qu'on produira dans quelques années quand on sera capable de combiner toutes les avancées de l'IA avec le quantum computing... Déjà les modèles ultra-complex seront entrainés en quelques jours au lieu de quelques mois.
Incroyable j'y ai pensé il y a quelque jour, comme quoi la question est dans l'air, j'imaginais un temps futur on on pourrait même modifier les film comme bon nous semble
Je me demande ce que je vais transmettre à mes enfants lorsqu'on voit qu'on peut tout créer de A à Z et changer complètement notre histoire, nos sources, notre savoir. Au moins, faire du feu reste dans mes cordes.
je travaille sur un projet de film avec IA en utilisant des modèles hyper réalistes en 3D avec l'artiste Ray Caesar, ceci palie à tous les problèmes énoncés dans cette vidéo.
Très intéressante analyse tech Mais pour Netflix, on va pas se mentir, ça fait déjà quelques temps qu'ils l'ont cette techno visiblement (si on se réfère à 80% de leur productions)^^
Je t'arrete tout de suite, je fais moi meme des films, c'est mon metier et vous avez AUCUNE IDEE à quel point c'est impossible dans les années à venir qu'une AI fasse un film toute seule. IMPOSSIBLE! Y'a beaucoup trop de parametres, alors oui tu peux faire un film de merde qui n'a ni queue ni tete avec des plans qui se suivent qui n'ont aucun sens, ca oui, mais j'ai enevie de dire n'importe qui peut faire ca. Mais faire un film de bout en bout avec des acteurs des decors, du son, de l'etalonnage, une histoire qui fait sens etc. IMPOSSIBLE D'ailleurs allez voir The Flash au ciné quand il va sortir, ca m'arrangerait merci :)
Vous vous rendez pas compte du nombre de retake/kickback qu'on pour chaque shot pour chaque departement, c'est incalculable, jamais de la vie ca sera productif de demander à une IA de le faire, c'est bien trop pointilleux et precis, des fois ils nous demandent de corriger des pixels stp, bon courage à l'IA pour faire un film de bout en bout de 2heures et toutes les retakes qui vont avec et les clients qui changent d'avis au milieu du film.
Oulah, on se calme, tout doux, on arrive même pas à faire des mains réalistes pour l'instant, alors un film entier avec des milliers de plans où l'on doit voir des mains de façon précise, je pense que c'est pas pour tout de suite hein.
Pour le moment l'uncany valley n'a jamais paru aussi profonde qu'avec ce que génère les IA 😅 Bon et puis on a déjà du mal a générer des images réalistes d'acteurs en 3D actuellement (principalement à cause des animations) alors je pense qu'avec une IA qui fait un peu ce qu'elle veut quand ça l'arrange c'est pas gagné avant quelques années.
La ou ca pourrait etre très interessant c’est pour générer un film a partir d’un livre entier en input ! Comme ca pas d’oublie et d’elements passés a l’as dans le scénario haha
Messieurs j'ai un hack à vous proposer, basé sur deux postulats : 1) j'adore vos sujets 2) les "du coup du coup du coup" me fatiguent. le hack : laisser un algorithme lire quelques secondes de la vidéo en avance et filtrer les "du coup" (soit couper, soit remplacer par un silence). A mon avis y'a des clients (les geeks de 50 ans et +). Bravo!
Bien entendu. C'est inévitable. Encore un peu et tu feras lire ton passage préféré du Silmarillion à ton programme informatique, et quelques minutes plus tard tu auras droit ton adaptation filmique unique au monde...
arrêtez de stresser je suis sur a 100% que la hype des créations humaines restera plus grande que celle des ia, les gens avaient peur pour chaque avancée technologique et au final on s’en sort
Avec ControlNet c'est assez simple de faire des vidéos sur Stable Diffusion, c'est juste basé sur une autre vidéo. Edit : Ah bah après avoir vu le reste de la vidéo, ça a pas loupé, c'était bien ça :D
j'ai fini de régarder la vidéo, très interessante par ailleur, je me dit tiens, je m'ennuie je vais recopier la transcription et le coller dans chatgpt pour qu'il men fasse le résumé. je m'attendais à quelque chose de passable mais làs je suis bluffé. on est vraiment à l'aune que quelque chose. voici le copie colle du resultat : Le résumé de la transcription est le suivant : Le transcripteur envisage la possibilité de générer des films complets à partir d'une simple demande ou prompt. Il estime que cela pourrait être réalisé dans un délai relativement court, peut-être dans un an et demi ou huit mois, contrairement à l'idée répandue que cela prendrait des années. Il évoque les différentes briques technologiques nécessaires pour atteindre cet objectif. La première brique est la transcription automatique, où des modèles d'intelligence artificielle tels que Whisper permettent d'obtenir des transcriptions précises à partir de vidéos et d'audios, même dans des langues complexes ou techniques. La deuxième étape concerne la description d'images, où des modèles tels que CLIP permettent de décrire fidèlement des images, y compris des scènes complexes, des objets et des personnes présentes. En combinant la transcription automatique et la description d'images, il est possible de créer un script détaillé d'un film, comprenant les dialogues des acteurs et les descriptions de chaque scène. Une fois le script généré, il serait possible d'entraîner un modèle de génération de vidéos à partir de ce script. Des exemples montrent que des séquences d'images générées peuvent être combinées pour créer des vidéos fluides avec des mouvements réalistes. Cependant, il est noté que la génération des visages des acteurs pose encore problème, car les changements fréquents et fluides peuvent donner un résultat peu convaincant. Des techniques de post-production ont été utilisées dans une démonstration pour améliorer l'apparence des visages. En résumé, en combinant les différentes briques technologiques existantes et en résolvant les problèmes liés à la génération des visages des acteurs, il pourrait bientôt être possible de créer des films complets à partir d'une simple description, avec des acteurs virtuels et des scénarios personnalisés. Tout cela serait rendu possible grâce à des technologies Open Source accessibles à tous.
Je suis pas trop convaincu, j'aurais également répondu en tout cas quelques années, mais moins d'un an ça me semble très très optimiste. Analyser une image OK, mais analyser les dizaines de milliers d'images qui constituent un film, pas image après image mais contextuellement, dans la globalité de l'histoire, on n'a encore rien pour le faire me semble-t-il. Bon ça à la limite c'est assez probable que même un simple modèle de langage couplé à l'analyse des images puisse rendre cohérent tout ça. Au niveau des voix, il n'y a pas que la transcription, il faut également pouvoir dégager l'intention et les émotions derrière ce qui est dit, et là par contre, on en est vraiment loin. Et pour entraîner un modèle qui analyse tout ça, sur des milliers ou dizaines de milliers de films, ou possiblement tous les films qui existent (il ne doit pas y en avoir des millions en fait), les ressources nécessaires seraient gigantesques. Si on passe à la génération, il faudrait concrètement que l'IA puisse générer une histoire, en faire un script ultra détaillé, plan après plan, puis génère les images les unes après les autres en veillant à ce qu'elles restent cohérentes entre elles, et les ressources pour faire tout ça serait énormes. (Pour un film qui sera probablement sans saveur, du moins si on se base sur ce qu'on connaît actuellement, mais bon là il sera entraîné sur des films donc peut-être que ce serait mieux, on pourrait compléter son "imagination" en l'entraînant sur des livres également.) On y arrivera un jour, mais pour moi, c'est pas dans quelques mois.
Qu'est-ce qu'on va faire de tout ces gens qui vont perdre leur métier. C'est déjà visible(ou pas d'ailleurs...) dans l'industrie avec les automate et autres bras robotisé. Et tout ces divers métiers finiront par être contrôlé par une seul entité donc encore une concentration de richesse.
Dans quelques mois ? Je pense que ça me parrait rapide. Je dirais minimum minimum 3 ans avant que le contenu généré par entièrement prompt soit aussi regardable que le contenu traditionel
Il faudrait savoir le cout en émissions co² de ce type de production, ca doit énorme ! On nous annonce de possibles canicules à 50°, les IA peuvent surement être plus utiles.
C'est clairement moins émetteur qu'un film avec des acteurs, même un animé c'est des journées de travail pour quelques secondes d'images. En gros, moins un film est chère à produire, moins il pollue.
Individuellement sa doit être équivalent voir émettre beaucoup moins de CO2. Mais a terme j'imagine si tout le monde peut produire des films 4 k ultra réaliste alors oui sa va beaucoup plus polluer .
@@gauvaindf Tu as raison dans le principe, mais il y a 100% de chance que la prod virtuelle s'ajoute à la prod réelle, et donc que les émissions co² s'additionnent.
@@gauvaindf Oui 1 film traditionnel est surement beaucoup plus couteux qu'un film généré par IA ! Mais il ne faut pas sous estimer "l'effet rebond" Dès qu'une techno apparaît, elle se démocratise, nous allons en avoir des tonnes, de story, vidéos youtube et autres supports... ce qui va multiplier les besoins de stockage, de débit...
@@Hellgringo67 les gros studios sont très réactifs, ils font et continueront de faire le maximum pour réduire leurs coûts, donc abandonner les tournages dans des villes/pays, ce qui a toujours été plus ou moins le cas, demander le droit d'utiliser l'identité visuelle d'un acteur plutôt que sa présence physique, l'acteur y gagnera en libérant du temps, ou, car il est trop vieux pour le faire en vrai, ... Les cinémas existent toujours, mais certaine salle sont désertés, mieux ou moins bien que netflix en bilan carbone ? totale supérieur a avant netflix ou en augmentation ? Le temps disponible est limité et même si le coût diminue, si vous faites un film, ça ne veux pas dire que ça sera rentable pour vous de vous lancer dans la production de ce film. les pubs RUclips devient de moins en moins rentable pour les créateurs, même connu. Et rien ne dit que dans 5 ans il ne faudra pas payer pour partager/stocker/diffuser efficacement une vidéo de qualité ici. Si le souci c'est le bilan carbone, ne regardez plus de films, séries, youtube, si ça ne vous apporte rien, très souvent ont regardent par habitude, soutien, socialisation, ... si après avoir regardé une vidéo vous estimez que vous ne devez rien au créateur, c'est que vous auriez pu faire autre chose de votre temps. Ce n'est pas une critique personnelle, je le fais aussi, il faut s'en rendre compte et adapter votre consommation à vos inquiétudes et le reste du monde ne vous concerne pas, dans tous les cas vous ne pourrez pas changer le monde... Le monde capitaliste temps qu'il y a un marché et rien pour le restreindre, il en aura rien à faire de nous et du bilan carbone, il fera ce qu'il veut si ça ne marche pas, quelqu'un perd de l'argent et si ça marche quelqu'un en gagne. J'ai arrêté de regarder des films, séries /animes depuis des années, j'ai dû aller 5 fois au cinéma sur les 7 dernières années. Maintenant je consacre ce temps à la lecture. Rien à voir avec mon bilan carbone, mon temps est juste mieux dépensé à lire.
...et des bots viewers qui commenteraient et likeraient, qui regarderaient les pubs. Tout ça à partir d'un prompt. Et ensuite plus de youtube, de jeux vidéos à acheter, de cinéma, de musiciens, puisque l'on pourra le faire nous même en open source.
Tant que les gens accepterons de voir de la daube, alors en effet l'IA va arriver très vite. Pour faire un parallèle, dans les années 80 sont arrivés des dessins animés japonais, Goldorak et cie, qui remplaçaient le vieux cinéma d'animation 24 images secondes qualitatif de Disney, Tex Avery... Pari gagné. En économisant du temps, de l'argent, on pouvait inonder les écrans de dessins animés, médiocres à mon goût, mais qui trouvèrent une très large audience. L'IA ça sera pareil. Tant qu'on privilégiera la qualité sur la quantité, l'IA sera indétrônable. Et par qualité je n'e veux pas dire le soucis du moindre micro détail, les effets sépciaux de fous, non, juste du supplément d'âme.
Alors que ça marche d’ici 2 ans ok, mais que ça soit pertinent 5 ans. Pour avoir étudier la vidéo de corridor c’est pas encore au point, runwayml est encore instable mais à voir comment QUI va s’approprier le processus à part Netflix, si on a un modèle complet open source qui créer du contenu aussi fort qu’une production hollywoodienne ca va détruire RUclips et interroger tout le cinéma.
Je trouve ça aussi passionnant que je suis désintéressé. Tous ces outils semblent fantastiques (si tant est qu'ils aboutissent) mais à quel moment quelque chose d'important artistiquement, ou même juste de cool, est crée ? Gagner du temps, c'est sympa. De l'argent aussi. Mais pour produire quoi et avec qui ? La révolution en terme de rentabilité, pas de créativité. Et ça va en plus tirer l'exigence vers le bas. Pas de quoi s'en réjouir.
Un underscore RUclips sans besoin d'un micode, de fonds verts et d'invités, dont le contenu serait généré par ChatGpt sous la gouverne d'un employé Webmedia qui taperait simplement une petite ligne de prompt. "On en est pas si loin" comme dirait Micode avec un sourire tout excité.
et Micode a raison parce que c'est génial
ta le seum toi
WebMedia ou WeBEdia ?
@@adrianjodassin7376 Pas trop non.
@@toxik38680 sisi
Le vrai souci pour l'instant à mon avis c'est que visuellement, ça se voit toujours que c'est généré par IA. Le jour ou on n'arrivera plus à discerné l'IA du vrai filme, on aura atteint un vrai stade.
C'est ce qui a été démontrer par un photographe qui a gagné un prix alors qu'il a généré l'image par IA et à refuser le prix pour alerté sur le fait qu'au jour d'aujourd'hui il faut une IA pour déterminer s'il s'agit d'une peinture ou photographie faite par une IA ou un humain
ça s'améliore tellement vite que sa deviendra rapidement un faux problème , sans compté qu'il a plein de style possible se qui brouille encore plus les piste .
@@fabricemenoud3296 Vrai pour une photo, mais c'est une autre histoire pour un film, y'a beaucoup plus de paramètres à prendre en compte.
@@baboulibob Je disai la meme chose au sujet des télés interactives en 1990. Aujourd'hui on a les live twitch.
@@fabricemenoud3296 c'est exceptionnel mais tu as le nom du photographe j'aimerais me renseigner plus sur la chose
1:58 Whisper est vraiment puissant je l'ai utilisé y'a 2 mois sur un challenge..
8:20 L'entraînement des modèles stable diffusion ne prend plus autant de temps, avec les techniques comme LORA qui ne prend que 10min.
La vidéo de Corridor digital n'a pas été fait par une ia pourquoi il raconte ça; ils ont juste créé à partir d'une vidéo réel le style cartoon grâce à une ia mais le film est entièrement fait à la main. il suffit d'aller voir la making off et corridor dit juste qu'ils ont fait ça parce qu'ils ne savent pas faire de films d'animations. D'ailleurs des mecs de Disneys ont vu le film et on conclue que ça allait changé la manière de faire de l'animation mais que que techniquement ça a déjà été fait pour Pocahontas puisque l'ensemble du film avait été fait avec des acteurs avant de passer à l'animation. On peut pas dire que retravaillé une image avec une ia c'est faire un film complet avec une ia puisque le scénario, la composition, le montage la musique ont été imaginé, le décor est réalisé sous unreal engine avec des assets trouvé sur internet, le compositing des plans. L'ia ne sert juste qu'a appliqué un style à la vidéo finale.
Fallait regarder la vidéo en entier
ça me fait penser aux critiques des derniers Marvel qui disent que ce sont des films génériques, fades et sans saveurs comme si ils avaient été générés par une IA...
faire des films pas de problème,
mais faire un bon film requiert du talent, et là l'I.A ne peut pas intervenir.
Approche très intéressante! Je dirais qu’un point souvent négligé dans le développement d’IA pour les vidéos est la cohérence temporelle de la séquence d’image. Ici on simplifie un peu le problème en considérant qu’on peut générer un film avec des frames indépendantes (génération de vidéo en frame par frame). Mais pour arriver à un Netflix AI, il faudrait un modèle de AI qui soit de générer des séquences de frames (et donc des vidéos) qui sont temporellement cohérente à partir d’une prompt, plutôt que de recoller les morceaux. Et ça risque de prendre un peu plus de temps que quelques mois.
pour "l'anime" de corridors crew, les fonds sont fait sur UE et ce sont des imagées générées par stable diffusion sur des vidéos filmée sur des acteurs (eux même en l'occurrence)
Il le dit dans la vidéo
@@Blastdoor pas la partie Unreal engine
Ces technologies pourraient pas aussi impacter le monde du jeu vidéo ? (Combiné à la précédente vidéo, on a presque tout pour un jeu vidéo avec de beaux graphismes, une tournure digne des plus grands scénarios et des personnages qui réagissent et qui "réfléchissent" tels des petites IA sur pattes)
Si si. Et typiquement, je vois bien les prochains gros Roguelike se baser non-seulement sur de la génération procédurale des niveau comme c'est le cas actuellement, mais avec en plus les assets graphiques également auto-générés. Un autre exemple pourrait être un gros RPG (fps style Skyrim ou top view style Divinity) avec les PNJ+quêtes via IA. ça va aussi ouvrir la possibilité d'avoir du doublage audio pour tout les personnages sans avoir 25% de la population de ton jeu qui à la même voix :D
UnityAI
@@tendocat8778 Merci, je connaissais pas!
C'est déjà presque le cas avec Unreal Engine 5, très intuitif et bien plus facile à prendre en main que ses précédentes versions. La génération procédurale de l'environnement et les nombreux nouveaux outils rendent le truc encore plus simple. Y'aura bientôt plus trop besoin d'une grosse équipe pour les triple A
Des moddeurs ont réussi à implanter ça dans Skyrim. C’est encore rudimentaire mais les PNJ sont en mesure de répondre lorsque tu écris un texte
Conclusion, on en a encore pour des années.
Ça fait des années que l'on parle de machin learning avec les millions d'ordinateurs à la puissance de calcul qui nous dépasse complètement, qui sortent la quinzième décimale de pi en 15 secondes, à ce rythme là je n'aurais pas été surpris de discuter avec une véritable intelligence numérique qui comprend vraiment notre monde et notre sensibilité, et qui ne sortirait pas des fausses images de gens qui sourit avec 35 paires de dents !
Ensuite s'il ne comprend pas que son dessin animé dans cette démo glitch complètement à l'oeil humain, je doute que ce soit corrigé dans 1 an et demie.
Ce sera peut-être mieux, y aura peut-être autre chose, mais le Netflix artificiel c'est pour dans 10 ans, allez peut-être 5 grand minimum.
C'est génial, ça me rappelle la série de vidéo de Slexno. Il essaie de voir si de la bouffe crée numériquement et plus ou moins appétissante que la bouffe filmer réellement.
Ça pourrait être cool de le voir passer un jour
J'ai trop hâte de pouvoir générer le suite d'une série abandonnée par exemple.
Trop hâte de générer la fin des livres game of throne et refaire la fin de la série avec.
La première étape avant la génération complète ce sera plutôt la possibilité d'acheter / louer une version personnalisée d'un media existant. Comme un extrait de Dark Knight ou voir le film entier avec J Phoenix à la place de Heath Ledger ou l'inverse avec le film Joker. C'est assez simple et ils ont la banque visuelle nécessaire pour bien l'exécuter. Il y a un marché pour ce type de media.
moi juste j'aimerais savoir quel est l'intérêt de ce type d'IA, visiblement tous les gens qui en parle disent "oulala, c'est vraiment dommage pour les artiste, et les motions designer, etc" mais du coup quel est l'intérêt, ou est la création, le jeu d'acteur , la direction photographique et tous le reste que je ne cite pas, ou cela vas nous menez ?
Et meme je comprend pas l'interet on dirait juste un genre de filtre comme y'a sur photoshop pour imiter des texture type aquarel, peinture, dessin au trait, juste je comprend pas, on avance a grande vitesse vers le manque d'idée, deja qu'on avance dans une société de plus en plus lisse
bref j'ai hate de voir spiderman 12 dans 30 ans avec Tom Holland qui a exactement la meme gueul que maintenant 🤡
L'intérêt c'est de créer du contenu homogénéisé à l'infini pour moins cher afin d'enrichir encore plus les propriétaires du capital... C'est triste car l'IA n'innove pas, n'a aucune vision artistique, ce n'est qu'un outil purement productiviste...
Tout faire bien , plus vite a moindre cout . Voir qui permettra de développé de nouvelle technique et allez plus loin . Produire a terme même des œuvre extrêmement compliquer voir impossible a l'humain .
Bref sa va tendre améliorer les qualité des oeuvres en gros . Car si tout le monde a accès au même outils ultra performant , il faudra réussir a faire le différence quelque part .
Si le jeux d'acteur et graphiste sont obsolète ou bien moins important . Sa voudra juste dire qu'il faudra tout mettre les scénario etc.
Je sens qu'il y aura un nombre incalculable de préquelles/suite/versions alternatives des films à succès genre Harry Potter ("PromptVideo, fais-moi une version de Harry Potter où le héros est Neville depuis le début, mais en 15 films de 3h chacun", "PromptVideo, fais-moi une version de Harry Potter où ça se passe comme l'original, mais avec le POV de Dumbledore" etc) ou autre.
Chaque utilisateur va se créer son propre film 2-3 fois par jour.
Or ça prend beaucoup d'espace, un film.
Ça risque de créer des problèmes de manque de data centers non ?
Mettons que la technologie le permette, ce sera certainement plus un problème de puissance de calcul que de stockage, dans ton scénario.
Peut-être qu'on pourrait se contenter de stocker les données de génération du film (qui prendront beaucoup moins de place) et demander à l'IA de ne générer la vidéo (plus volumineuse que les données de génération) qu'au moment du visionnage. 🤔
Toutes les fan fictions qui vont être adaptées, ça promet du beau (non)
Génial (et un peu effrayant aussi pour les créateurs) !
Un point oublié mais qui reste cohérent dans l'assemblage des briques, étant la génération du son : voix ainsi que musique.
Chose que les IAs sont déjà capables d'accomplir me semble-t-il (avec plus ou moins de degrés de réussite et qui reste encore légèrement imparfait)
Mais c'est en cours, ou en bonne voix ! *Haha* 😅 Désolé, je drop le mic et trouve la sortie, promis ! > [ ]
Ça fait des mois que c'est déjà un cauchemar pour les illustrateurs en faite...
Avant de générer des images inédites pour créer de nouveaux projets, il sera aussi question de piratage. S'il suffit d'un script et d'une banque d'images pour qu'une IA génère un film, alors tout ce qu'on aura à faire pour pirater un film, c'est de générer un dataset à partir du master officiel, de transférer ce dataset beaucoup moins gourmand en données, et de refabriquer le film avec l'IA. Et là tout de suite, je ne vois aucun moyen pour les studio de se prémunir de cela. Je vois mal comment il pourrait être illégal de posséder un dataset du film ou sa transcription filmée puisque aucun des deux ne sont la possession du studio... Je trouve en tout cas la question aussi intéressante que celle de la création !
Les sous-titres de RUclips sont généralement très bons, j'écoute toujours avec les sous-titres peu importe la langue. Français et anglais, aucun problème ou presque.
Les sous titre générés automatiquement sont pas ouf, mais il y a des gens qui passent du temps à traduire des vidéos pour éviter ça
Les seuls problèmes c'est pour les prénoms/noms de marque etc, mais sinon oui c'est plutot clean
@@B25HIPHOP Faux ! Cette année, cela s´est considérablement amélioré ( il y a certainement du Bard là-dessus maintenant !) 😅
ce qui est bien c'est qu'à cette allure là, le divertissement dans 30 ans sera has been car trop facilement accessible pour tout le monde et on pourra retourner dans les champs pour enfin produire des choses utiles à notre survie
Je pense que ça serait intéressant de faire une vidéo sur NeuroSama, un VTuber IA, ça touche également au monde du divertissement, et je pense que dans un certain temps, on aura principalement des RUclipsr robot ahah
Les avancées récentes en matière d'IA sont proprement hallucinantes (merci ChatGPT et Copilot au quotidien dans mon taf ^^) et ça peut faire peur mais je pense que tous les métiers créatifs ne vont pas mourir pour autant, une petite partie probablement mais pas tous, loin de là (on le voit, "pour l'instant", avec tout le boulot que ça demande encore en pré et post-prod). Par contre, il va inévitablement falloir modifier les habitudes et les compréhensions sous peine de faire parti des dommages collatéraux (exactement comme ça avait déjà été le cas avec l'industrialisation, et nous avons pourtant toujours des opérateurs humains de machines semi-automatisées).
Comme d'hab, super vidéo, sujet très intéressant et très bien amené, bravo ;)
J'espère que Whisper peut être intégré a VLC afin de ne plus devoir chercher les sous-titres en ligne 😅
Rien que le serveur minecraft qui a ouvert avec traduction automatique du vocal en plusieurs langues est ouf
L'exemple de corridor digital c'est de la rotoscopie assister par plug in ca fait déjà un petit moment que les I.A sont utilisé pour faire du motion tracking, c'est pas encore de l'autonome, genre ont lui prompt et l'algorithme mâche tout le boulot, ont l'assiste un minimum , mais c'est déjà extrêmement puissant et ca fait gagner un temp précieux sur le compositing .
Moi je crois qu'on est encore très loin d'un résultat convaincant, les créatifs ont encore de la marge.
Le text to video sort dans quelques semaines (voir la derniere video de Two Minute Papers)
Les demo sont déja insane
y'a deja ModelScope Text to Video Synthesis
J'ai une petite question qui me trotte dans la tête et qui pourrait être un sujet à développer dans une prochaine capsule.
Quand est-il de l'utilisation d'AI dans le cadre d'enquêtes criminelles, cold case ou encore la revisite de procès emblématiques ?
Y a t'il une réflexion dans ce domaine ?
Exemple : je mets a dispo d'une AI ou un groupe d'AI tous les éléments d'une enquête et on nous sort les scénarios possible et les éventuels profils de suspects.
Si a la place d un serveur classique on y mettait un ordinateur quantique ca serait le jackpot , mais quid de la créativité , c est fou et inquiétant a la fois
Superbe video et ultra intéressant comme toujours !!
J'ai utilisé whisper pour sous-titrer mes cours unviversitaire et le résultat est incroyable avec le model medium !
Manque la brique la plus importante et compliquée à avoir, une énorme quantité d'énergie.
Le problème des IA c'est l’innovation, on risque de se retrouver avec du contenu moyen, sans intérêt particulier...
Le problème c'est la volonté de foncer et arroser tout le monde alors que ça serait très bien derrière une version pro payante uniquement.
C'est faux , juste comme il aura beaucoup plus de personne ayant accès , logiquement le nombre pur d'oeuvre osef va augmenté . Mais l'innovation va toujours continué , par contre il risque d'être noyé dans la masse .
@@ouranosaloha1933 Exactement ce qu'on a dit quand internet est arrivé dans la musique. On voit le résultat.
Mais du coup, la suite logique, ce serait que notre plateforme de streaming génère en 5 minutes un film qui corresponde de manière idéale au film qu'on voudrait voire sur le coup
Ca annonce du lourd !
Et aussi du très sale 😬🤐
Voici un commentaire que ChatGPT pourrait générer pour une vidéo RUclips sur la création de films par une IA :
"Wow, c'est vraiment fascinant de voir comment l'IA est capable de créer des films de manière autonome! Cette technologie est révolutionnaire et promet d'ouvrir de nouvelles possibilités passionnantes dans le monde du cinéma. En tant que modèle de langage avancé, je suis émerveillé par les progrès que nous avons réalisés dans le domaine de l'IA, et je suis convaincu que nous n'en sommes qu'au début de ce que nous pouvons accomplir. Merci pour cette vidéo inspirante!"
J'ai hâte qu'on puisse communiquer réellement sur nos jeux vidéo en ayant des impacts réels comme la vidéo où l'on est enquêteur et que l'on pose nos propres questions, la dinguerie...
Il faudra aussi pouvoir générer des images avec une bonne profondeur de couleur (Netflix travaille en HDR). La plupart des modèles sont entraîner avec les images internet 8 bits et basse def.
Donc on pourra facilement générer des films via ia, pour une vision web, mais pour avoir des belles images, il faudra d'autres IA
06:30 « L'effet des vitrails » 😮
On peut détecter que ce n'est pas une IA qui parle 😉
On dirait l'un des épisodes de black mirror qui vient de sortir " Joan is awful" c'est flippant vue la fin
L’art a pour vocation de provoquer des émotions. Est ce que, sachant qu’une œuvre n’est pas créée par un humain, l’émotion est toujours là ? Perso, je ne suis pas sûr.
Genre ça emballe qui d’écouter un concert d’un groupe virtuel qui joue de la musique crée par des machines ?
Je vois clairement toutes ces initiatives dun mauvais oeil. A vouloir remplacer a marche forcé les metiers de la creation, de linnovation/ingenirie, ... Et tuer nos ecrivains, nos intermitants du spectacle, nos ingenieurs... Alors que toutes ces IA et autre algo doivent rester uniquement au niveau macro pour que ca ne serve que daide a la reflexion,mais pas a la remplacer. On va finir par vraiment ecerveler nos societes avec ces outils... Beaucoup y voient une avancee, mais en fait on va droit dans le mur.
Époustouflant... 😳 Merci... 👍👍😉
Ai Winter .. is coming
C'est un point de vue de technicien, c'est sûr que pour le rendu , l'aspect le résultat est là, mais c'est faire abstraction du travail des réalisateurs, le choix de montage, le choix d'éclairage, décors etc... qui, chez les bons réal sont des outils à sa disposition. Un exemple tout con, les films de Tim Burton ne seraient pas du tout les mêmes si ils avaient été des projets de Steven Spielberg. Après c'est sur que pour des travaux plus commun une IA serait capable d'en faire de même.
Même avec ça moi je verrais encore cinq ans avant les premiers résultats passables... Ya quand même aussi le son à générer. Faire tout ça de manière coordonnée et sans le support d'un ou de plusieurs pros et déployé pour des usages grands publics... Ça va pas être facile😅
il faut savoir une chose c'est que le film a aussi été fait avec de la capture d'image qui a été modifié avec l'IA et que les images ont été retravaillées mais oui c'est un début et le film entier avec un prompt est peut être à 2/3 ans max de maintenant mais là où on est à un bottle neck avec les modèles basés sur l'architecture transformers, c'est à partir du moment où un défaut de logique se glisse dans la suite donnée par l'IA. On arrive pas encore à lui faire analyser où son résonnement est faut et du coup cette erreur de résonnement reste dans la logique des output. On ne sait pas encore modifier ceci même si on s'améliore mais ça viendra rapidement. Alors oui c'est dit mais il faut voir la vidéo de corridor crew et l'analyse d'un animateur de Disney pour vraiment comprendre pourquoi c'est encore faisable uniquement pas des pro de la CGI
Moi je vois qu'il manquera quand même un truc essentiel au cinéma globalement : LE PARTAGE. Si t'es tout seul à avoir vu ton film et que personne n'en a rien à faire, ça n'aura pas le même intérêt.
Il y a que ceux qui sont hors du monde du cinéma pour être heureux. C'est une catastrophe industrielle pour le cinéma. Il faut interdire toute cette histoire d'IA dans le cinéma.
Je pense que ce qui va arriver avant de générer des films ça va être la génération de manga, webtoon, bandes dessinées.
Le futur du dessin animé va être incrr
Pour la reconnaissance de texte il y a aussi Nvidia NeMo qui peut même convertir un audio en texte et ce texte en voix réaliste
J'ai mis les sous-titres youtube à partir du moment où vous aviez dit que c'était nul et il mes que des bons mots, il n'y a pas les virgules et la points mais à part ça c'est pas mal
Qu'est-ce qu'on produira dans quelques années quand on sera capable de combiner toutes les avancées de l'IA avec le quantum computing... Déjà les modèles ultra-complex seront entrainés en quelques jours au lieu de quelques mois.
Incroyable j'y ai pensé il y a quelque jour, comme quoi la question est dans l'air, j'imaginais un temps futur on on pourrait même modifier les film comme bon nous semble
Hâte qu'il existe ait une IA pour me faire à bouffer le soir (via imprimante 3D et légumes ou fruits frais à ajouter). Là ce serait utile.
Ce monde va être affreux, je préfère de loin la réalité !
Je me demande ce que je vais transmettre à mes enfants lorsqu'on voit qu'on peut tout créer de A à Z et changer complètement notre histoire, nos sources, notre savoir.
Au moins, faire du feu reste dans mes cordes.
Suffit de couper internet de temps à autre et pouf, tout redevient comme avant :)
@@francoisdamville Si c'était aussi facile.
Les sources historiques feront pouf également et elles ne reviendront plus comme avant.
ptin le jour ou netflix va nous sortir un film d'action a la Michael bay entièrement par IA, ça va être une dingz
Je pense que les scénarios sont générés par des IA depuis longtemps, tellement ils sont copiés-collés à partir d'autres plus anciens.
je travaille sur un projet de film avec IA en utilisant des modèles hyper réalistes en 3D avec l'artiste Ray Caesar, ceci palie à tous les problèmes énoncés dans cette vidéo.
6:42 je suis motion designer et oui je pleure mais le chemin est encore long et on doit quand meme avoir l idée
Très intéressante analyse tech
Mais pour Netflix, on va pas se mentir, ça fait déjà quelques temps qu'ils l'ont cette techno visiblement (si on se réfère à 80% de leur productions)^^
ca me rappel un épisode de Black Mirror (saison 6) :)
A mon avis l'IA voudra toujours tendre vers la perfection humaine mais sans jamais la dépasser
Je t'arrete tout de suite, je fais moi meme des films, c'est mon metier et vous avez AUCUNE IDEE à quel point c'est impossible dans les années à venir qu'une AI fasse un film toute seule.
IMPOSSIBLE!
Y'a beaucoup trop de parametres, alors oui tu peux faire un film de merde qui n'a ni queue ni tete avec des plans qui se suivent qui n'ont aucun sens, ca oui, mais j'ai enevie de dire n'importe qui peut faire ca.
Mais faire un film de bout en bout avec des acteurs des decors, du son, de l'etalonnage, une histoire qui fait sens etc. IMPOSSIBLE
D'ailleurs allez voir The Flash au ciné quand il va sortir, ca m'arrangerait merci :)
Vous vous rendez pas compte du nombre de retake/kickback qu'on pour chaque shot pour chaque departement, c'est incalculable, jamais de la vie ca sera productif de demander à une IA de le faire, c'est bien trop pointilleux et precis, des fois ils nous demandent de corriger des pixels stp, bon courage à l'IA pour faire un film de bout en bout de 2heures et toutes les retakes qui vont avec et les clients qui changent d'avis au milieu du film.
t'as des actions chez warner bros dude ?
On pourra réaliser des films avec des comédiens en activité, mixés à des acteurs décédés depuis longtemps, c'est fou.
Ca me fait penser à un film : Le Congrès de Ari Folman :-3
Oulah, on se calme, tout doux, on arrive même pas à faire des mains réalistes pour l'instant, alors un film entier avec des milliers de plans où l'on doit voir des mains de façon précise, je pense que c'est pas pour tout de suite hein.
Pour le moment l'uncany valley n'a jamais paru aussi profonde qu'avec ce que génère les IA 😅
Bon et puis on a déjà du mal a générer des images réalistes d'acteurs en 3D actuellement (principalement à cause des animations) alors je pense qu'avec une IA qui fait un peu ce qu'elle veut quand ça l'arrange c'est pas gagné avant quelques années.
La ou ca pourrait etre très interessant c’est pour générer un film a partir d’un livre entier en input ! Comme ca pas d’oublie et d’elements passés a l’as dans le scénario haha
Un film durant 6h minimum alors.
Messieurs j'ai un hack à vous proposer, basé sur deux postulats : 1) j'adore vos sujets 2) les "du coup du coup du coup" me fatiguent.
le hack : laisser un algorithme lire quelques secondes de la vidéo en avance et filtrer les "du coup" (soit couper, soit remplacer par un silence). A mon avis y'a des clients (les geeks de 50 ans et +). Bravo!
Pitié parlez du film "Le congrès" la prochaine fois
Pour faire un film, je pense qu'il faudra quelques année, mais un bon film, beaucoup plus.
Bien entendu. C'est inévitable.
Encore un peu et tu feras lire ton passage préféré du Silmarillion à ton programme informatique, et quelques minutes plus tard tu auras droit ton adaptation filmique unique au monde...
La vallée de l'etrange joue beaucoup
arrêtez de stresser je suis sur a 100% que la hype des créations humaines restera plus grande que celle des ia, les gens avaient peur pour chaque avancée technologique et au final on s’en sort
Un an c'est beaucoup trop court pour un film entier mais prête dans 10 ans
Avec ControlNet c'est assez simple de faire des vidéos sur Stable Diffusion, c'est juste basé sur une autre vidéo.
Edit : Ah bah après avoir vu le reste de la vidéo, ça a pas loupé, c'était bien ça :D
j'ai fini de régarder la vidéo, très interessante par ailleur, je me dit tiens, je m'ennuie je vais recopier la transcription et le coller dans chatgpt pour qu'il men fasse le résumé. je m'attendais à quelque chose de passable mais làs je suis bluffé. on est vraiment à l'aune que quelque chose. voici le copie colle du resultat :
Le résumé de la transcription est le suivant :
Le transcripteur envisage la possibilité de générer des films complets à partir d'une simple demande ou prompt. Il estime que cela pourrait être réalisé dans un délai relativement court, peut-être dans un an et demi ou huit mois, contrairement à l'idée répandue que cela prendrait des années. Il évoque les différentes briques technologiques nécessaires pour atteindre cet objectif.
La première brique est la transcription automatique, où des modèles d'intelligence artificielle tels que Whisper permettent d'obtenir des transcriptions précises à partir de vidéos et d'audios, même dans des langues complexes ou techniques.
La deuxième étape concerne la description d'images, où des modèles tels que CLIP permettent de décrire fidèlement des images, y compris des scènes complexes, des objets et des personnes présentes.
En combinant la transcription automatique et la description d'images, il est possible de créer un script détaillé d'un film, comprenant les dialogues des acteurs et les descriptions de chaque scène.
Une fois le script généré, il serait possible d'entraîner un modèle de génération de vidéos à partir de ce script. Des exemples montrent que des séquences d'images générées peuvent être combinées pour créer des vidéos fluides avec des mouvements réalistes.
Cependant, il est noté que la génération des visages des acteurs pose encore problème, car les changements fréquents et fluides peuvent donner un résultat peu convaincant. Des techniques de post-production ont été utilisées dans une démonstration pour améliorer l'apparence des visages.
En résumé, en combinant les différentes briques technologiques existantes et en résolvant les problèmes liés à la génération des visages des acteurs, il pourrait bientôt être possible de créer des films complets à partir d'une simple description, avec des acteurs virtuels et des scénarios personnalisés. Tout cela serait rendu possible grâce à des technologies Open Source accessibles à tous.
Qu'est-ce que RUclips attend pour implémenter "Whisper" pour générer les sous-titres??
Je suis pas trop convaincu, j'aurais également répondu en tout cas quelques années, mais moins d'un an ça me semble très très optimiste. Analyser une image OK, mais analyser les dizaines de milliers d'images qui constituent un film, pas image après image mais contextuellement, dans la globalité de l'histoire, on n'a encore rien pour le faire me semble-t-il. Bon ça à la limite c'est assez probable que même un simple modèle de langage couplé à l'analyse des images puisse rendre cohérent tout ça. Au niveau des voix, il n'y a pas que la transcription, il faut également pouvoir dégager l'intention et les émotions derrière ce qui est dit, et là par contre, on en est vraiment loin. Et pour entraîner un modèle qui analyse tout ça, sur des milliers ou dizaines de milliers de films, ou possiblement tous les films qui existent (il ne doit pas y en avoir des millions en fait), les ressources nécessaires seraient gigantesques. Si on passe à la génération, il faudrait concrètement que l'IA puisse générer une histoire, en faire un script ultra détaillé, plan après plan, puis génère les images les unes après les autres en veillant à ce qu'elles restent cohérentes entre elles, et les ressources pour faire tout ça serait énormes. (Pour un film qui sera probablement sans saveur, du moins si on se base sur ce qu'on connaît actuellement, mais bon là il sera entraîné sur des films donc peut-être que ce serait mieux, on pourrait compléter son "imagination" en l'entraînant sur des livres également.) On y arrivera un jour, mais pour moi, c'est pas dans quelques mois.
Mouais donc au final, c'est pas prêt d'arriver, minimum 10 ans je dirais !
C'est rapide 10 ans quand même
J’ai peur qu’ils analyse nos photos sur le cloud
Netflix va surtout déposer le bilant ^^
En tout cas vu les scénarios des films triple A c'est pas compliqué de faire mieux avec un prédicteur de texte XD
On va peut être découvrir que dragon ball evolution est un chef d'oeuvre !
ou pas hein 😆
Regardons la dernière saison de black mirror 🥲
Incroyable
Qu'est-ce qu'on va faire de tout ces gens qui vont perdre leur métier. C'est déjà visible(ou pas d'ailleurs...) dans l'industrie avec les automate et autres bras robotisé. Et tout ces divers métiers finiront par être contrôlé par une seul entité donc encore une concentration de richesse.
Passionnant !
un vritail. ......des vitraux....tss
Dans quelques mois ? Je pense que ça me parrait rapide.
Je dirais minimum minimum 3 ans avant que le contenu généré par entièrement prompt soit aussi regardable que le contenu traditionel
Il faudrait savoir le cout en émissions co² de ce type de production, ca doit énorme !
On nous annonce de possibles canicules à 50°, les IA peuvent surement être plus utiles.
C'est clairement moins émetteur qu'un film avec des acteurs, même un animé c'est des journées de travail pour quelques secondes d'images.
En gros, moins un film est chère à produire, moins il pollue.
Individuellement sa doit être équivalent voir émettre beaucoup moins de CO2. Mais a terme j'imagine si tout le monde peut produire des films 4 k ultra réaliste alors oui sa va beaucoup plus polluer .
@@gauvaindf Tu as raison dans le principe, mais il y a 100% de chance que la prod virtuelle s'ajoute à la prod réelle, et donc que les émissions co² s'additionnent.
@@gauvaindf Oui 1 film traditionnel est surement beaucoup plus couteux qu'un film généré par IA !
Mais il ne faut pas sous estimer "l'effet rebond"
Dès qu'une techno apparaît, elle se démocratise, nous allons en avoir des tonnes, de story, vidéos youtube et autres supports... ce qui va multiplier les besoins de stockage, de débit...
@@Hellgringo67 les gros studios sont très réactifs, ils font et continueront de faire le maximum pour réduire leurs coûts, donc abandonner les tournages dans des villes/pays, ce qui a toujours été plus ou moins le cas, demander le droit d'utiliser l'identité visuelle d'un acteur plutôt que sa présence physique, l'acteur y gagnera en libérant du temps, ou, car il est trop vieux pour le faire en vrai, ...
Les cinémas existent toujours, mais certaine salle sont désertés, mieux ou moins bien que netflix en bilan carbone ?
totale supérieur a avant netflix ou en augmentation ?
Le temps disponible est limité et même si le coût diminue, si vous faites un film, ça ne veux pas dire que ça sera rentable pour vous de vous lancer dans la production de ce film.
les pubs RUclips devient de moins en moins rentable pour les créateurs, même connu. Et rien ne dit que dans 5 ans il ne faudra pas payer pour partager/stocker/diffuser efficacement une vidéo de qualité ici.
Si le souci c'est le bilan carbone, ne regardez plus de films, séries, youtube, si ça ne vous apporte rien, très souvent ont regardent par habitude, soutien, socialisation, ... si après avoir regardé une vidéo vous estimez que vous ne devez rien au créateur, c'est que vous auriez pu faire autre chose de votre temps.
Ce n'est pas une critique personnelle, je le fais aussi, il faut s'en rendre compte et adapter votre consommation à vos inquiétudes et le reste du monde ne vous concerne pas, dans tous les cas vous ne pourrez pas changer le monde...
Le monde capitaliste temps qu'il y a un marché et rien pour le restreindre, il en aura rien à faire de nous et du bilan carbone, il fera ce qu'il veut si ça ne marche pas, quelqu'un perd de l'argent et si ça marche quelqu'un en gagne.
J'ai arrêté de regarder des films, séries /animes depuis des années, j'ai dû aller 5 fois au cinéma sur les 7 dernières années. Maintenant je consacre ce temps à la lecture.
Rien à voir avec mon bilan carbone, mon temps est juste mieux dépensé à lire.
ok, mais l'audio dans tout ça ? Les bruitages, etc
Pour moi on a encore des années devant nous si on veut un truc convainquant
Est ce que whisper fonctionne avec une chanson de death metal? 😁
...et des bots viewers qui commenteraient et likeraient, qui regarderaient les pubs. Tout ça à partir d'un prompt. Et ensuite plus de youtube, de jeux vidéos à acheter, de cinéma, de musiciens, puisque l'on pourra le faire nous même en open source.
Tant que les gens accepterons de voir de la daube, alors en effet l'IA va arriver très vite. Pour faire un parallèle, dans les années 80 sont arrivés des dessins animés japonais, Goldorak et cie, qui remplaçaient le vieux cinéma d'animation 24 images secondes qualitatif de Disney, Tex Avery...
Pari gagné. En économisant du temps, de l'argent, on pouvait inonder les écrans de dessins animés, médiocres à mon goût, mais qui trouvèrent une très large audience. L'IA ça sera pareil. Tant qu'on privilégiera la qualité sur la quantité, l'IA sera indétrônable. Et par qualité je n'e veux pas dire le soucis du moindre micro détail, les effets sépciaux de fous, non, juste du supplément d'âme.
Il manque la partie audio. C'est une partie encore très complexe.
Vous avez preshot la saison 6 de BLACK MIRROR 😄
Alors que ça marche d’ici 2 ans ok, mais que ça soit pertinent 5 ans. Pour avoir étudier la vidéo de corridor c’est pas encore au point, runwayml est encore instable mais à voir comment QUI va s’approprier le processus à part Netflix, si on a un modèle complet open source qui créer du contenu aussi fort qu’une production hollywoodienne ca va détruire RUclips et interroger tout le cinéma.
Perso à la question du début je dirais 3 ans.