La génération 3D par IA vient de changer pour toujours

Поделиться
HTML-код
  • Опубликовано: 31 мар 2024
  • on a franchi un cap
    👀 À ne pas manquer, ChatGPT vient de se faire détrôner par des génies français : • ChatGPT vient de se fa...
    Pas du tout obligé mais si vous vous abonnez ça m'aide vraiment 🙏 : bit.ly/3xqS2pi
    🎥 Suivez l'émission en direct: / micode (c'est 1 mercredi sur 2 à 19h)
    🎙 Toute l'émission en podcast, sur votre plateforme préférée: underscoretalk.netlify.app/
    🐦 Les annonces de dernière minute: / underscoretalk
    En plateau, il y a Matthieu Lambda et Vivien Londe !
  • НаукаНаука

Комментарии • 464

  • @erikmamet6699
    @erikmamet6699 2 месяца назад +302

    Salut Micode et l'équipe. Je suis ingénieur informatique spécialisée en IA ayant bossé pas mal sur des NeRF. Je me permet une petite précision : quand on entraine un NeRF on entraine une représentation implicite 3D à partir de laquelle on génère ensuite une image. La différence avec un modèle 3D classique est que le NeRF fourni une représentation 3D continue (pour tout point {x,y,z} le réseau de neurones renvoie une "transparence" et une couleur). Pour générer une image on fait ensuite du ray casting et on query le réseau de neurones le long de chaque rayon pour obtenir la couleur d'un pixel. Le fait que cette représentation implicite existe est ce qui rend NeRF ci chouette quand on bosse dessus.

    • @bimbabm
      @bimbabm 2 месяца назад +5

      Qu'avez vous fait par exemple ( je demande pour ceux qui ne parlent pas informatique)

    • @Boolzorusrex
      @Boolzorusrex 2 месяца назад +64

      J'ai compris la première phrase.

    • @blackstyme
      @blackstyme 2 месяца назад +2

      N'ayant pas suivi cette technologie. Je m'attendais pas du tout à voir du ray casting être utilisé dans le Nerf

    • @Tigrou7777
      @Tigrou7777 2 месяца назад +7

      Merci pour cette précision. Ca semble logique : ce type de représentation ("tout point 3D renvoie une couleur") semble proche de ce qui ce fait actuellement en 2D avec les IA (qui génèrent une couleur pour tout point 2D d'une image, cad un pixel).
      Obtenir un modèle 3D (des points reliés ensemble pour donner des triangles) a partir d'un prompt c'est un peu comme si on s'attendait a obtenir du vectoriel avec mid journey

    • @stewsama
      @stewsama 2 месяца назад +4

      J'ai rien compris ça m'intéresse

  • @cocacolazero635
    @cocacolazero635 2 месяца назад +239

    cest dommage de ne pas faire intervenir un professionnel de la 3D pour ce genre de discussions parce que y'a beaucoup d'infos qui mériteraient d'être nuancées ou précisées

    • @BaluZarD
      @BaluZarD 2 месяца назад +32

      c'est malheureusement souvent le cas sur cette chaine lorsque ça touche au jeu video, je suis du metier, du coup ça me saute aux yeux assez facilement ^^
      ca reste une bonne emission malgré tout, mais certains sujets sont (a mon gout) moins bien gérés que d'autres (coucou la dernière video sur les gacha)

    • @Mikado95110
      @Mikado95110 2 месяца назад +1

      pourquoi ? ils diront la même chose que les programmeurs de jeux vidéos, que c'est pas encore aboutis, que c'est un bloc 3D et que pour modifier une partie du model c'est plus galère pour l'animation et les maillages, et que dans 2 ans ce sera nickel potentiellement xD

    • @Liam3072
      @Liam3072 2 месяца назад +8

      @@Mikado95110 Si ça suit la même évolution que la 2D, dans 2 ans ce sera pas nickel. Encore aujourd'hui Midjourney et co c'est impressionnant de loin et amusant, mais en pratique quand tu veux un truc bien précis, que t'as une idée bien spécifique en tête d'un truc qui existe pas, ben... c'est souvent très compliqué, long, et pas toujours couronné de succès, et presque toujours pas mal approximatif quand on regarde de près.
      En fait c'est des outils qui peuvent être bien pour faire du maquettage, mais pas vraiment pour faire un produit final exploitable par des pros, en tout cas pas par des pros qui ont le goût du travail bien fait.
      Et c'est la même dans à peu près tous les domaines où j'ai vu l'IA bosser : musique, traduction, génération 2D, voice acting...

    • @ChainesdeNatsukim
      @ChainesdeNatsukim 2 месяца назад +9

      Trop hâte de perdre mon travail.
      La finalité étant 15 travailleur finisse en 3
      Super je suis déjà en reconversion. Je suis super triste j'aimer mon travaille

    • @Mikado95110
      @Mikado95110 2 месяца назад +1

      @@Liam3072 oui mais du coup comme ce que les programmeurs ont dit pas utilisable aujourd hui ! Apres comme on est au tout debut de l IA les recherches seront de plus en plus precises du coup jusqu a modifier des micro details. Perso jdonne meme pas 2 ans avant mais meme si c est dans 5 ans sa va se faire

  • @benjaminroman6646
    @benjaminroman6646 2 месяца назад +64

    Salut l'équipe ! Je bosse dans le jv, en 3d et génération d'enviros depuis quelques années maintenant. Je me permet quelques petites précisions sur ce qui freine l'implémentation des IA pour la génération d'objets 3d surtout dans les productions de jeux vidéos.
    Comme vous avez dit, déjà la base de données est ridicule à coté de celle pour les images mais il faut aussi prendre en compte qu'un asset 3d est beaucoup (beaucoup) plus complexe qu'une simple image. Une image c'est globalement un tableau de nombres, c'est assez simple de faire de l'apprentissage dessus (avec tout le respect que j'ai pour les devs d'ia). Pour un asset, là où ca va coincer, surtout pour des pipelines de grosse prods, c'est la création du mesh. Parce qu'il stocke des positions de points dans l'espace ok mais aussi la facon dont ils sont interconnectés entre eux pour former les polygones et faire de l'apprentissage là dessus c'est une autre paire de manches.
    En plus de tout ça, la plupart des fichiers 3d stockent aussi des métadonnées avec des attributs pour permettre par exemple aux matériaux de bien se positionner et là pour le coup y'a quasiment aucune donnée parce que trop de convetions differentes. En fait c'est un peu comme demander à une IA de générer une image mais en lui demandant aussi de générer le fichier photoshop avec tous les layers bien rangés exploitables dans un pipeline de production.
    En fait le gros souci c'est la création d'un maillage cohérent et ça, l'IA en est très très loin.
    MAIS... Il n'y a pas que l'IA dans la vie et les algos plus traditionnels évoluent aussi pas mal ces dernières années. Il y a notamment pas mal de progrès qui se font dans la gestion de topologie et IA arrivera sûrement bien plus tard dans ces domaines. Par contre comme on sait créer du mesh à partir d'images, et qu'on sait créer une continuité de point de vue à partir de quelques photos (ou d'images générées) on peut associer les deux. J'ai déjà pu voir des génerations en 2d de plusieurs points de vue d'objets 3d avec un stable diffusion assez classique. Ce genre de données pourraient ensuite être processées par un nerf pour en sortir une continuité de points de vue puis en extraire un certain nombre d'images pour les traiter en photoscanning. Il me semble bien que c'est un champ actif de recherche même si j'ai pas plus d'infos là dessus. Ça pourrait marcher pour les objets organiques où l'exigence sur la topologie est un peu moindre mais sur des assets plus complexe avec des besoins d'optimisation ca demandera encore du temps de développement.
    Voilà a mon avis pourquoi la génération 3d est pour le moment si compliquée mais comme toujours avec ces technos là, on est jamais à l'abri d'une surprise ^^

    • @JohnMarcel666
      @JohnMarcel666 2 месяца назад +3

      Merci beaucoup pour la qualité de votre commentaire !

    • @nort9689
      @nort9689 2 месяца назад +1

      perso je trouve l'idée assez intéressante, si à partir d'images 2d générées par IA on arrive à rendre un modele 3D même si le maillage n'est pas bon je trouve ça génial.
      Modéliser des personnages ou créatures c'est pas à la portée de tous (moi le premier) et laisser "l'imagination" d'une IA gérer la chose c'est vraiment pratique et à la portée budgétaire de chacun.
      Si le maillage est mauvais faire une retopo ça ne prend pas un temps énorme et le résultat final sera certainement convaincant.

    • @louisveran2439
      @louisveran2439 2 месяца назад +4

      Salut ! Je suis informaticien et je fais de la 3D en hobby, je me permet une petite précision sur ta précision.
      Tu as raison quand tu dis que les photos sont un tableau de nombres, (+/-) mais en réalité un mesh 3D n'en est pas très très loin en terme de data.
      Tu as du peut être déjà le rencontrer si tu as fait de la generation de mesh via des compute shaders (ex: marching cubes etc...) mais en fait un mesh c'est finalement un tableau de vertex (position {x,y,z}), arrêtes (lien entre deux vertex) et faces.
      Effectivement, c'est un peu plus de données qu'une image (vu qu'il y a trois 'tableaux' au lieu d'un) mais en terme de complexité de la donnée en elle même (je parle simplement de la quantité de donnée) on est du même ordre.
      Pour une image en 4K 'classique', on est sur 8 294 400 pixels, avec 3*8bit (R+G+B codés en 8bits chacun) on est sur 199 065 600 bits (sans compressions ni rien) soit 24Mo.
      Sur un model pour jeux vidéos, on essaye de limiter le nombre de vertex, donc on va éviter d'avoir 8 000 000 de vertex (sauf si c'est pour un gros gros mesh ou du terrain).
      si on dit 500 000 triangles (donc déja un gros modèle), on va se retrouver avec +/- 300.000 vertex (vu que les triangles sont connectés entres eux), soit 900 000 valeurs de positions (vu qu'on a la position x, y et z) codées en 32bit on est sur 28 800 000 de bits.
      Chaque face stocke les index des 3 vertex (au minimum), si on code l'index des vertex sur 32 bits (ce qui nous donne un nb maximum de vertexs de +/- 4.3 milliards) on est sur 500.000*32*3 bits soit 48 000 000 de bits.
      Pour les arrêtes, on stocke les index des deux vertex. Meme principe, il va y en avoir +/- 750 000 (3*500 000/2) et on y stocke l'index des deux points. En 32 bits ça donne :
      2*32*750 000 = 48 000 000 de bits aussi.
      on est donc sur un total de 98 880 000 bits pour le mesh dans sa forme la plus simple.
      Après, on peut stocker la normale de chaque face, selon la precision, elle peut etre calculée en 32,16 ou 8 bits. Si on part sur 32, on rajoute 3*132 bits par face soit 48 000 000 de bits.
      Et on peut aussi stocker, dans chaque arrête, la 'crease', 'bevel weight' et 'sharpeness' (on sort un peu du cadre du jeu video là) ce qui nous rajoute, pareil, selon la precision, 3*32 bits par arrete soit 72 000 000 de bits.
      Pour un nouveau total de 218 800 000 de bits soit 27 Mo (dans le cas le plus extreme car les normales sont souvent stockées à part dans une image en 8bits et 32 bits de precision pour les données supplémentaires facultative des arrêtes c'est un peu overkill mais bon c'est un exemple).
      Tout ça pour dire que déjà, si une IA arrive à générer un modèle avec 500 000 triangles et autant de précisions ça serait déjà incroyable !
      Après, je comprends ce que tu veux dire, vu que je touche un peu à la modélisation 3D et que je vois à quel point c'est compliqué de faire un modèle cohérent avec une topologie nickel, ça me paraît impossible (même si je sais au fond de moi que ce n'est pas le cas) qu'une IA le fasse.
      Comme tu dis, on est pas à l’abri d'une surprise, ça reste à voir :)
      J'éspère que tu ne prendras pas mal mon approche calculs un peu bourrin, je ne cherche vraiment pas à être agressif ou à "étaler mes connaissances" et n'hésite pas à me reprendre si j'ai fait une erreur !
      PS: Dans quelle boite de JV travailles-tu ? je m'y interesse aussi pas mal mais j'ai l'impression que c'est assez dur de rentrer dans le millieu :(
      bonne journée!

    • @Sasa-bk6sc
      @Sasa-bk6sc Месяц назад

      Bonjour, j'aurais besoin de votre avis ! J'aimerais orienter mes études vers l'animation 2D-3D (c'est vraiment ce que j'aime !) mais au vue des développements de L'IA pensez vous que ça vaut le coup de se former si le "métier risque peut être de disparaitre" ? Je m'informe car je n'ai pas les connaissances nécessaires pour y répondre. En vous remerciant !

    • @paulbarbier2224
      @paulbarbier2224 Месяц назад

      Salut je vais dans cette voie en étude sup est-ce que tu aurais un insta ou un réseau sur lequel ou pourrais echanger sans te prendre trop de temps. Merci à toi de ta reponse et bonne journée.

  • @benjamindjabelkheir4167
    @benjamindjabelkheir4167 2 месяца назад +19

    je suis chez Artline et notre prof de développement nous a clairement dis que dans son entourage ils ont la certitude qu'en moins de 3 ou 4 ans notre Bachelor vas devenir obsolète et les méthodes de production a grande échelle vont radicalement changer. Je n'ai bien sur pas toutes les connaissances et le meme réseau qu'eux dans le milieux mais il me semble également qu'Epic est en train d'investir beaucoup sur ces méthodes et qu'a termes avec l'arrivé du prochain unreal Engine alors que le 5 commence a peine à être exploité a sa juste valeur, toutes les méthodes de productions risques d'être revue et drastiquement simplifié. A la fois un peu paniquant mais en réalité j'ai hate de voir ce que ca peux donner! Merci pour les vidéos d'ailleurs elles sont toujours top et nous en apprennent beaucoup.

    • @meldyluova3340
      @meldyluova3340 2 месяца назад +1

      c'est quand même une chance que nos profs soient au courant de ce qui se passent au niveau de l'ia (moi je suis à H3D2)
      j'ai des potes qui sont dans une école physique (à Ynov) et eux leurs profs leur ont pas une seule fois en 3 ans parlé d'ia. ils ont aucune base, n'ont jamais testé de leur coté, ils se mettent juste à detester l'ia en pensant que c'est le mal sans savoir qu'ils pourraient l'integrer à leur workflow et que pour survivre dans l'industrie de demain c'est meme necessaire en fait qu'ils s'en servent

    • @benjamindjabelkheir4167
      @benjamindjabelkheir4167 2 месяца назад

      @@meldyluova3340 bah l’avantages d’écoles en ligne c’est que les professeurs sont majoritairement des professionnels du milieux qui sont la en second boulot donc pour avoir un pied dans ce qui s’y dit ou l’évolution des méthodes en production c’est plus parlant. Je pense aussi que pour beaucoup de professeur ça indique une refonte total de leur savoir et de ce qu’ils ont à partager donc même si aujourd’hui on est encore loin de ça ça peux faire peur à certain

  • @gouedallica
    @gouedallica 2 месяца назад +69

    Une pensée pour tous les artistes numériques 2d et 3d.... Et une pensée de soutien pour supporter le commentaire suivant : " oai mais faut utiliser l'ia comme un outil et pis c'est tout ".
    Courage !

    • @Damien_Figueiredo
      @Damien_Figueiredo 2 месяца назад +18

      la moitié notre industrie est déjà au chômage actuellement et à la vitesse où ca va on aura plus de travail dans maximum 10 ans, mais bon si on peut jouer dans notre jardin sur unreal... ca dégoute

    • @northerngannetproject3147
      @northerngannetproject3147 2 месяца назад +2

      Le pire c'est le metier de traducteur.... gpt est bien meilleur, même pour le truc le plus dur : traduire des poèmes...

    • @xyanide0101
      @xyanide0101 2 месяца назад +6

      Et du coup c’est quoi ton idée stupide ? Refuser une technologie pour prolonger un modèle social dépassé ?
      Encourager des gens dans des métiers devenus inutiles, juste parce que tu n’aimes pas le progrès ? Parce que c’est bien connu que les gens ne savent faire qu’une seule chose et ne peuvent pas apprendre de nouveaux métiers 🤡

    • @bobysmith5662
      @bobysmith5662 2 месяца назад

      @@xyanide0101 J'espère que tu sera le premier à te faire virer quand ton métier sera devenu obsolète.

    • @jicee91
      @jicee91 2 месяца назад +8

      @@xyanide0101 Pas sûr que nos chers dirigeants nous paient tous pour rester chez nous quand le travail n'existera plus.
      Après j'ai rien contre rester chez moi mais on a tous des charges etc
      Sauf si L'IA nous trouve une solution

  • @_kensey
    @_kensey 2 месяца назад +118

    Travaillant dans le jeu vidéo, j'ai du mal à saisir la hype sur ce sujet là. Les assets d'un jeu sont avant tout imaginés et conçus autour d'une direction artistique. D'une intention. C'est pour cela qu'on a besoin d'artistes 2D et 3D talentueux(ses). Idem pour les dialogues d'éventuels NPC. S'ils sont un minimum importants, il faut une écriture cohérente avec le fond et le lore. Donc impossible sans bon contexte. Bref, c'est pas demain la veille qu'on fera un jeu de qualité avec ce genre de système...sans parler de l'optimisation des meshs 3d et des propriétés game-ready qu'un bon asset 3d doit posséder.

    • @huyxiun2085
      @huyxiun2085 2 месяца назад +21

      Tous les artistes qui passent par l'IA savent bien que ça n'est qu'un outil. Mais un outil révolutionnaire, ajouté à l'arsenal d'outils déjà en place. Le travail de l'artiste n'est pas d'être un expert de l'outil. C'est d'être un expert dans l'utilisation de l'arsenal pour arriver à sa vision (et à la commande).
      Si vous êtes de ces artistes 2D-3D, je vous invite cordialement à vous y mettre rapidement.
      Si votre spécialité est ailleurs... je vous invite quand même cordialement à suivre l'actualité, car viendra bientôt l'outil qui vous concerne et vous aidera... ou vous obligera à vous adapter.

    • @Overcraft17
      @Overcraft17 2 месяца назад +18

      @@huyxiun2085 Le problème avec cet outil c'est que sa database comprend des images libres de droit, mais également des images copyrights. Sans toute la partie copyright, ces logiciels d'ia auraient encore bien des années avant d'être utilisable. Mais le profit est le premier moteur, alors les artistes et leurs images/photos etc on s'en fou. Et c'est un gros problème.

    • @oseftamaire7857
      @oseftamaire7857 2 месяца назад +8

      Tellement d'accord, je suis moi-même un joueur, et je ne veux vraiment pas de cette tech, comme tu le dis, l'humain et sa pensée sont importante pour garantir un jeu qui laissera le joueur au centre car tout est pensé par des humains.

    • @DJ_POOP_IT_OUT_FEAT_LIL_WiiWii
      @DJ_POOP_IT_OUT_FEAT_LIL_WiiWii 2 месяца назад +4

      Ca fonctionne pourtant meme si j'ai rencontrer deux/trois problemes. De un les textures sont tres flous, j'ai reussis a contourner ca un peu en redessinant les textures a part avec AI. Et ensuite la topologie 3D du modele est pas ouf. Avec les outils AI de retopo automatique ca le fais mais jamais aussi bon qu'a la main. Le modele est pret en 15 minutes si tu maitrise le workflow a la perfection. Les jeux Steams d'aujourd'hui sont bourrer de modele 3D generique qui peuvent etre fais par AI.

    • @Purplefoxdl
      @Purplefoxdl 2 месяца назад +13

      @@Overcraft17c’est claire. Perso j’ai du mal à me dire que je vais travailler avec des outils de pillage généralisé. Et je suis dégoûté de voir que cela ne semble pas poser trop de problèmes à beaucoup de monde.

  • @ShmuPixel
    @ShmuPixel Месяц назад +3

    Pour l'instant, tant que je n'ai pas la possibilité de voir et/ou éditer le maillage de l'objet généré en 3D, je considère que c'est inexploitable dans une production. Les IA pour l'instant savent peut-être générer un maillage, mais la topologie est toute aussi importante (surtout pour la 3D temps réel) et les IA ne savent pas encore la faire proprement. Ensuite il faut régler la question de la texture (son apparence et comment elle est appliquée, parce qu'il n'y a pas de méthode universelle), et celle du squelette dans le cas d'objets à animer (les humains et animaux typiquement, mais pas que). Sans compter qu'il y a aussi les enjeux du rendu précalculé, beaucoup plus exigeant encore que la 3D temps réelle qui "triche" pour imiter certains effets trop compliqués à produire en temps réel (translucidité, fluides, lumières, etc...). Y'a donc beaucoup d'étapes à franchir avant d'y être! Vous avez mis de côté la photogrammétrie assez rapidement, perso je pense justement que si on arrivait à apprendre à une IA comment faire le nettoyage d'une capture photogrammétrique, on gagnerait un temps fou (tout en gardant une fidélité du modèle 3D proche de ce qu'on recherche). Dans un premier temps en tout cas, je pense que c'est pluôt dans cette direction que les IA devraient aller. Une autre alternative, ce serait d'utiliser l'IA dans l'optimisation de la 3D en voxels. Aujourd'hui vous avez des sociétés comme Atomontage qui font du voxel hyper poussé, très fin, capable d'animer et modifier des objets en temps réel... Si on construit une IA pour sublimer cette technologie, les possibilités sont assez folles à mon avis.

  • @KofieBluejay
    @KofieBluejay 2 месяца назад +13

    Ah le vol de contenu, forcément que ça aide les IAs pour s’améliorer vite :)
    Mais au moins, pour la 3D, les artistes ont de la chance.

    • @Overcraft17
      @Overcraft17 2 месяца назад +15

      Merci de voir que je ne suis pas le seul a penser cela...Personne ne dit aux artistes un grand merci d'avoir passé 1,5,10 ans de leurs vie a créer de superbes illustrations et concepts arts, que ces p**** de dev se sont empressés de pomper pour aboutir à ce qui se fait aujourd'hui dans la génération d'image ia...

    • @keranao
      @keranao 2 месяца назад +5

      @@Overcraft17 c'est le far west l'ia, jusqu'a ce que des loi mettent le hola.enfin, espérons...

    • @KofieBluejay
      @KofieBluejay 2 месяца назад +6

      @@Overcraft17 Ce qui me sidère c’est que si je vole tous les patents de Apple et Google, forcément que mon entreprise sera la meilleure.
      Puis genre du jour au lendemain y’a la plupart des entreprises qui ont changés leurs TOS, ce qui fait que tout ce qui a été uploadé est devenu soit du vol légal, soit du vol illégal, mais tout le monde s’en fou car c’est pas un tableau réel.
      Autant j’apprécie qu’on ait des tech pour améliorer l’image dans les jeux vidéos, ou même une future IA pour mettre un canapé IKEA dans mon salon virtuel, mais pour le reste, c’est tellement inutile pour l’humanité, que ça donne juste envie de toute abandonner et partir vivre dans les bois.

    • @claesf9361
      @claesf9361 2 месяца назад +2

      @@Overcraft17les droits d’auteurs… un bon moyen de se révolter !?

  • @granitaxx648
    @granitaxx648 2 месяца назад +166

    tous les commentaire qui disent que la video etait geniale alors qu'elle est sortie depuis 4 minutes 💀💀

    • @heranef3594
      @heranef3594 2 месяца назад +12

      c'est des bots hein

    • @Lola_Duclin
      @Lola_Duclin 2 месяца назад +11

      c'est des bots de Q 😐

    • @yanisharaut4223
      @yanisharaut4223 2 месяца назад +2

      ​@@heranef3594 comment ca ? @Gertrude_Doelling28 cest un bot peut etre ??

    • @heranef3594
      @heranef3594 2 месяца назад +1

      oui c'est un bot@@yanisharaut4223

    • @hoxo4471
      @hoxo4471 2 месяца назад +7

      Après frérot tu vas voir l espace commentaire 4min après la sortie de la vidéo

  • @matdem2748
    @matdem2748 2 месяца назад +11

    En open source il y a le dernier model de stability: SV3D. Il est spécialisé dans la création de turn arround autour d'un objet. En tant qu'artiste je vois déjà un énorme potentiel pour passer d'une illustration à une modélisation 3D en un rien de temps. Pour l'instant le rendu est assez moyen, et surtout ça sort un format vidéo et non une modélisation, mais il est possible de passer la vidéo dans luma ai (qui a intégré le gaussian splatting) afin de sortir un mesh 3D exploitable. C'est la première version du modèle donc c'est tres imprécis, mais je n'ai aucun doutes que d'ici un ou deux ans ce sera devenu excellent. La principale différence est que ça part d'une image existante, qui peut être un dessin ,une photo ou une image générée par IA, ça permet donc de plus facilement garder un contrôle artistique comparé aux applications texte to 3D qui "imposent" un design.
    Sinon il y a aussi pleins d'applications qui utilisent les modèles de génération de depthmap (zoe,Midas...etc) pour recréer des scènes en 3D a partir d'une image 2D. Sinon super vidéo comme d'habitude 👍

  • @rocksquared
    @rocksquared 2 месяца назад +11

    Ce qui compte dans les models 3D, c'est la qualité de la topologie. Et même les sites de vente de modèle 3D genre turbosquid offrent *souvent* des modeles fait par des artistes aux skills moyens/ou fait a l'arache pour générer de la thune rapide avec des mauvaise topo.
    Donc pour que la AI prennent le dessus, il va falloir l'entraîner sur des modèles exemplaires, et pas avec la daube moyenne trouvable online.
    Mais vu la vitesse à laquelle ça progresse, je ne serai même pas surpris si dans 2 ans, un modèle de AI arrivait à pondre des modèles de haute qualité, artistiquement et techniquement.
    Il ne faut pas être naif, la AI va détruire des millions de métiers divers et variés, et dans 10 ans produire un film Pixar-like ou Ghibli-like avec un budget de 20K euros et sera tout à fait possible.

    • @fff235gg
      @fff235gg 2 месяца назад +1

      Exactement pour l'instant on y est pas encore. ça m'éffraie un peu quand on voit Sora, la 3D n'aura plus vraiment d'utilité dans le secteur de l'audiovisuelle.
      Cependant, j'attends avec impatience un remesher IA , ce serait merveilleux.

    • @Aonw
      @Aonw 2 месяца назад

      Donc 10 ans, tu seras le héros du film pixar intégrant tes propres envies du soir, tout ça depuis ton canapé.

    • @SimFiftyFifty
      @SimFiftyFifty 2 месяца назад

      @@Aonw Et dans 15 ans les gens seront déjà lassés de ça et de la chiée de contenu que ça aura créer et on aura juste explosé une industrie pour rien

  • @IC.Y
    @IC.Y 2 месяца назад +6

    J'adore.
    Une vidéo sur les IA, créée par une IA. Avec pour présentateur une représentation virtuelle composée à l'aide d'images d'Hugo Décrypte.
    C'est fascinant.
    Si en plus cette image de synthèse s'en défend, ce serait un délire à la Inception.
    Que, Qui, croire ?
    ...
    🤯
    Bisous Loulous 🥰
    ICY ~ Participante qui se fait passer pour une IA ~
    _ou l'inverse_ 🤷🏼‍♀️🤷🏻🤷🏽‍♂️

  • @mickaeljohan3589
    @mickaeljohan3589 2 месяца назад +1

    Super comme d 'habitude, à 09:00 je suis bluffé on arrive vraiment à un truc que l'on imaginait impensable dans le film "ENNEMI D’ÉTAT" l'on voit que ca va être bientot possible de surveiller ce que l'on ne voit pas pas prédiction 3D comme dans le film, c'est flippant

  • @alexandreamiel1865
    @alexandreamiel1865 2 месяца назад +2

    étant développeur de jeu vidéo professionnel, voici mon avis : NeRF en tant que tel est révolutionnaire, mais me semble compliqué à être appliqué au jeu vidéo, puisqu'il faut bien une triangulation plutot qu'un nuage de point ne serait ce comme évoqué ici pour gérer les collisions, idem pour les shaders, les raycasting etc. à moins de réinventer un système de pipeline de shader standardisé ( OpenGL, DirectX, Vulkan ) qui intègre ce modèle à 100%, je pense que dans 10 ans on en sera encore à faire de la 3D avec triangles pour les jeux vidéos. Il me semble que pour certaines opérations mathématiques 3D l'utilisation de triangles soit incontournable. Et si c'est le cas, il ne faut pas oublier que le métier de modélisateur 3D c'est bien de créer des topologies propres, bien conçues, avec les moins de triangles possibles, donc je pense que comme dans tous les domaines où l'erreur est inadmissible, peu admissible ( contrairement à la génération d'image ), l'industrie va mettre du temps à créer des outils d'IA réellement exploitables. Mais ca arrivera, il faudrait par contre un modèle pour appliquer après génération de la "propreté" aux topologies générées, les modèles 3D générés sont encore bien brouillons pour l'instant et pas exploitable, donc n'hésitez pas à bosser dessus Google et bonne chance.

  • @fs6107
    @fs6107 2 месяца назад +4

    Un truc délire qu'il y aura plus tard c'est : tu entre un ancien jeu genre WOW Vanilla dans l'IA et il te ressort le même jeu, mais avec des graphiques de fou 🤩 J'ai trop hâte 🥰

    • @reaverseath
      @reaverseath Месяц назад

      de vrai maj , un vrai support

    • @Slave2Freedom
      @Slave2Freedom День назад

      "j'ai trop hâte que les travailleurs de l'industrie du JV perdent leur travail"

  • @romainabrams9543
    @romainabrams9543 2 месяца назад +23

    Mon emploi d'artiste environnement 3D pour le monde du cinéma est prêt à mourir! Fun times.

    • @BaluZarD
      @BaluZarD 2 месяца назад +2

      t'as pas trop de soucis a te faire, tu auras juste un nouvel outil a apprendre a maitriser

    • @fff235gg
      @fff235gg 2 месяца назад +10

      @@BaluZarD Tu connais mal le secteur pour dire ça alors, évidemment qu'il va se faire remplacer car les mecs qui rassemblent les asset n'auront plus besoin de lui, ce sera plus rapide pour eux de prompter un truc que d'attendre plusieurs jours que l'artiste travaille dessus. Une grande partie du secteur va périr et pour le comprendre il faut comprendre les enjeux de la production à petite et grande échelle.

    • @fff235gg
      @fff235gg 2 месяца назад

      Dis toi que dans Unreal par exemple, certains développent un plugin qui utilisent l'IA pour créer des environements. Dans un logiciel comme celui ci il s'agit simplement d'assets de modèles agencés de la bonne manière (donc en soit il ne s'agit que de valeurs de position et de numéro d'identification d'asset). Les mecs ont récupérées la masse de scènes disponible sur le store qui utilise les assets de megascan, et s'en sont servi pour entrainer leurs modèles.

    • @johnsloane8523
      @johnsloane8523 2 месяца назад +8

      @@BaluZarD Non il y aura la concurrence des jeunes loups sans scrupules qui vont abaisser les prix et la qualité générale... pour "produire" (même de la merde)...

    • @BaluZarD
      @BaluZarD 2 месяца назад +2

      @@johnsloane8523 moué... entre la topo pourrie, le nombre de poly bien trop elevé, et les textures vraiment pas ouf... ça va plus vite de faire un vrai model a la main plutot que d'utiliser ce truc... Apres on vera ou ça va, mais pour l'instant je ne me fait aucun soucis

  • @SuperSupergeo
    @SuperSupergeo 2 месяца назад +2

    Merci, cette vidéo risque de m'être bien utile pour expliquer mes intérêts de recherche, je suis super reconnaissant de votre petit "overview" du domaine.
    Je me permets par contre de vous préciser que Luma a effectivement intégré le Gaussian Splatting à son pipeline depuis le succès de l'article, et qu'ils sont désormais à la fois une solution de NeRFs, de Gaussian Splats 3D, ET de génération d'objets 3D à partir de texte (quoique comme vous le mentionnez, la modification des dits objets est quasiment impossible).

  • @AngryChineseWoman
    @AngryChineseWoman 2 месяца назад +3

    0:39 Jveux une super Nintedo !!

  • @user-xs4xj6ly4p
    @user-xs4xj6ly4p 2 месяца назад +1

    Oui un comparatif entre plusieurs marques : par exemple pour les chaises entre 100 et 200€; le milieu de gamme et le haut de gamme.
    Aussi mettre les promotions de temps en temps. Merci Yada.

  • @nicolaswir
    @nicolaswir 2 месяца назад +2

    Le nerf est pour ainsi dire déjà dépassé par le gaussian splat, contrairement à ce qui est dit la qualité visuelle est bien supérieure mais surtout les gaussian splat sont relativement facilement modifiables (contrairement au Nerfs). Cependant on est encore loin de pouvoir éditer ça aussi facilement que des triangles sur lesquels sont appliqués des textures..il va falloir attendre quelques années de recherches.
    À court terme l'utilisations de ces technos va surtout impacter le ecommerce de par la qualité/facilité à produire/accessibilité dans un browser et légèreté des asset. Et très certainement les vfx où ça resoud pas mal de problèmes et permet du deep compositing (mais l'édition, notamment le relighting sera là indispensable..).

  • @Minikli_le_vrais
    @Minikli_le_vrais 2 месяца назад +6

    Prochaine étape: ia qui rig tout seul les model 3D

    • @SpectraFire44
      @SpectraFire44 2 месяца назад +3

      Mixamo 🤣

    • @Minikli_le_vrais
      @Minikli_le_vrais 2 месяца назад

      @@SpectraFire44 j'avoue

    • @SimFiftyFifty
      @SimFiftyFifty 2 месяца назад

      @@SpectraFire44 Mixamo ne marche que pour des humanoïdes et il le fait déjà pas très bien. Rig un quadrupède avec Mixamo qu'on rigole.

  • @user-rj6sg9fv8z
    @user-rj6sg9fv8z 2 месяца назад +1

    Micode et Mathieu, vs etes des kings capables de ns vulgariser des sujets pointus tout en les rendant passionants ! Longue vie a vs et a underscore !

  • @Pointillax
    @Pointillax 2 месяца назад +28

    Honnêtement, ça bande sur la génération 3D par IA dans le jeu vidéo, ça bandait sur les potentiels des conversation avec NPC gérées par IA. Mais un bon jeu, ça a une direction artistique, ça a une bonne écriture. Si la sauce est pas contrôlée mais procédurale pour tout le monde, ce sera de bon gros navets infâmes.
    Par contre utiliser ces techno dans des domaines comme de l'imagerie médicale, et là c'est jackpot

    • @Mr99Sebastien
      @Mr99Sebastien 2 месяца назад +2

      Pas sur de pouvoir se reposer sur une IA dans des domaines ou tu doit te baser sur des faits

    • @Pointillax
      @Pointillax 2 месяца назад +1

      @@Mr99Sebastien quand l'IA est utilisée pour extrapoler des visuels 3D en se basant sur de vraies imageries médicales, ça peut créer des outils pour préparer de la chirurgie par exemple

    • @DJ_POOP_IT_OUT_FEAT_LIL_WiiWii
      @DJ_POOP_IT_OUT_FEAT_LIL_WiiWii 2 месяца назад +2

      Si t'ecoute les joueurs deux minutes tu te rends compte rapidement que c'est des adulescents qui n'y connaisse rien a l'industrie. A les entendre il n'y a que 2-3 "bon" jeux par annee. Mais regarde les ventes, tu vois qu'il suffit de creer un jouet juste correct pour que ce soit rentable. Il y a pas besoin de sombrer dans le grand 'art'.

    • @angerenage3757
      @angerenage3757 2 месяца назад +1

      Pas besoin que le modèle 3D soit utilisé tel quel, il peut juste servir de base pour les artistes qui pourront alors gagner du temps et se concentrer sur d'autres aspects du jeu

    • @itami5681
      @itami5681 2 месяца назад

      @@DJ_POOP_IT_OUT_FEAT_LIL_WiiWii On s'en fou qu'il ne soit pas question de grand art. Les créateurs de jeux y aspirent et c'est le principal. Je sais pas quel genre de joueur tu fréquentes pour qu'il te sorte qu'il n'y a que 2-3 bons jeux par an, personne ne pense comme ça et n'a jamais pensé comme ça.

  • @rzcantoine5065
    @rzcantoine5065 2 месяца назад

    En tant qu' architecte d'intérieur, je pense que ce genre de techno pourrait également servir dans ce domaine, modéliser n'est en effet pas la même chose que générer par iA, je l'ai bien compris. Et cela pourrait tout aussi bien tuer le métier que l'aider généreusement, mais il me semble que les logiciels de 3D et 2D ont encore beaucoup de choses qu'ils manquent pour faciliter leurs utilisations, réduire les bugs, accélérer la modélisation qui peut être très longue quand on part de zéro ou tout simplement améliorer un rendu en 1 ou 2 clic au lieu de modifier une centaines de curseurs pour une vue parmi tant d'autres. Très intéressé de voir la tournure que prendra ces nouvelles techno.

  • @benjaminchauvet1740
    @benjaminchauvet1740 2 месяца назад

    Wow ! Super vidéo, super technologie !
    Pour ma part je suis un "amateur ++" qui veut faire de la modélisation 3D de bâtiments historiques et jusque la je faisais : photogrammétrie par drone , import en OBJ par Blender puis mise en scène dans UE.
    Si je comprends bien, et il faut que je me penche sur le fonctionnement du NERF, je pourrais faire avec mon drone les photos et ensuite directement importer et générer l'ensemble dans UE ?

  • @FranckMartin
    @FranckMartin 2 месяца назад +3

    le jeu Elite générait des environments 3D à partir de quelques paramètres dans les années 80 avec 64k de mémoire…

    • @cedricserieys9768
      @cedricserieys9768 2 месяца назад +1

      Et d'un réalisme époustouflant ! On en parle encore.

  • @floriandrone
    @floriandrone 2 месяца назад

    Salut, super vidéo.
    Ça serai top d'avoir les liens dans la description des IA présentées.

  • @julienjp8442
    @julienjp8442 2 месяца назад

    Bonjour, vidéo super intéressante comme d’habitude! Vous n’avez pas parlé de CHAT3D. C’est une startup franco américaine fondée par un jeune de mon école d’inge ! Ils font de la génération de 3D à partir de prompt c’est très impressionnant!

  • @VinnyVidiVicci
    @VinnyVidiVicci 2 месяца назад

    Pour des jeux videos types historiques, genre Assassins creed, ce serait tellement un gain de temps! Normalement ils font des mesures des batiments dans tous les sens pour avoir les bonnes dimensions (d'ailleurs pour l'anecdote, leurs travaux auraeint aidé à la reconstruction de NotreDame à Paris)
    Si tu peux partir des images, liés à du LIDAR et tu travaille avec NERF pour générer le reste de ton contenu, c'est ouf!

  • @philippebackprotips
    @philippebackprotips 2 месяца назад +1

    Il y a une limite dure à tout cela et je la rencontre déjà aujourd'hui, à savoir le temps disponible. Ce sera super pour m'aider à générer des choses diverses mais pour la consommation, je n'ai juste pas le temps et plus j'avance en termes de niveau décisionnel, mois j'en ai.
    Dès lors, tout temps investi exige des choix tranchés.

  • @samgranier6735
    @samgranier6735 2 месяца назад

    Salut à toute l' équipe
    Encore merci pour se super épisode 👍🖖👍😉🖖🖖👍
    J aimerai , si possible, exprimer une idée très sympa
    Le meilleur des deux monde (les plus vieux comprendront la reff )
    Donc Voici, les IA(s) c est pas mal du tout cela peux laisser rêveur ,c 'est tout a fait compréhensible.
    Mais il y a un mais si 'lont puis dire .
    C est très bien de pouvoir accéder à la génération d image 3d , de génération de mesh , de type nodal, polygonal et voir même paramétrique .
    Le premier ''hic'' c est une question de copyright comme toute génération d IA.
    Le 2me est l'export ,pas seulement le format de fichier
    (Propriétaire ,)
    Fichier .3ds, .max, obj, stl etc.... Ainsi que leur récupération.
    C est vrai bien-sûr que les les proprio de serveur d'I A de vivent que d amour et d eau fraîche ( ironie lol )
    Le 3me la compréhension
    Pour ce cas , c est plus la ''philosophie'' du modelage ou modo .
    Mais pas pour les personnes qui connaissent ce principe ,
    Mais ceux qui souhaitent comprendre et pratiquer le modelage , ou même les CGI dans l'ensemble.
    Ne vaudrait il pas mieux de pouvoir avoir le choix d. Apprendre a faire de l image de synthèse ? Ou bien de se ''laisser manœuvrer '' par des références d images , et, dire au revoir à l'imagination?
    A cela certain pourraient choisir , d améliorer le tout en disant oui mais les deux (choix)
    Je dirais il y a un choix supplémentaire,
    A) ne pas utiliser des services distant , mais local .
    B) un soft qui peut être un modeleur .mais qui utilise soit un hdri comme émetteur de lumière ,et qui affiche les matériaux , les Shaders, texture de façon indépendante .( Histoire de voir le rendue final.
    Ainsi la personne a le choix , devenir le roi du prompt, ou du modeling , ou même des deux .
    Je pense qu'il sera toujours mieux d avoir appris à faire ,concevoir etc..... Des choses plus tôt que d être une ''sirte de mouton'' ( je noirci le trait bien-sûr après chaque ses. Idées et ses goûts)
    PS c est bien mieux d'avoir le choix
    Dites moi se que vous en penser
    Thx1138

  • @CodeUtah
    @CodeUtah Месяц назад

    Je n'ai vu que 30 secondes au hasard de votre derniere video mais il m'a fallu 2 secondes pour m'abonner :)

  • @user-yv9xb6kf6z
    @user-yv9xb6kf6z 2 месяца назад

    Laisse moi vous faire cette lettre d'amour :
    J'adore votre chaine youtube et je vous adore (tes collegues aussi). j'adore le contenu, très interessant, instructif, intelligent même mais j'adore ausi la forme. Vos vidéos sont un pure moment de plaisir, de détente, de bien être, vraiment. J'adore le concept, les décors, ta voix, ta façon de raconter les choses, si clairement, calmement, mais jamais ennuyeux, bien au contrair, c'est toujours passionnant. Car il y a derrière un vrai coté technique et connaisseur.
    Des vrais moment de détente à écouter des experts (je pense que vous en êtes un peu, même si j'y connais pas grand chose) bref vous m'apprenez pleins de trucs et d'infos avec grand plaisir.
    J'ai l'impression d'etre dans mon canapé, bien au chaud, dans un confort total, à écouter de bons amis m'expliquer pleins de choses qui m'interessent.
    Ne changez rien ! Longue vie à votre chaine.
    PS : J'aime beaucoup aussi tes 2 collègues, un homme et une femme, je n'ai pas fait attention à leur prénoms. Mais ils sont tout aussi géniaux et agréable à écouter que toi ❤💞

  • @Dromarius
    @Dromarius 2 месяца назад

    Je regarde un RUclipsur Australien qui utilise ça je pense, je me suis TOUJOURS demandé comme il arrivait à faire ses plans dans son atelier et parfois de manière VRAIMENT incompréhensible genre même avec un drone et un rail par exemple ^^
    C'est trop cool !

  • @ermul61
    @ermul61 2 месяца назад

    Rien n’empêche de faire aussi de l'image relief multi points de vue par déplacement de parallaxe. Avec les outils d'ergonomie visuelle d'Alioscopy par exemple.

  • @TheSilverSmurfer
    @TheSilverSmurfer 2 месяца назад

    5:24 Oui, avec mon iPhone 4s et l’application de Microsoft qui s’appelait PhotoSynth…
    A l’époque, j’avais scanné la maison de mes parents, uploadé sur le site du même nom et avec un lien sur un site de vente en ligne pour la vendre…
    Les gens visitaient en mode Street View… ça n’avait pas vraiment aidé à la vente, mais c’était fou !

  • @eugenesural3551
    @eugenesural3551 2 месяца назад +1

    Yesss, première image demo : petite chapelle au dessus de Banyuls.
    Hâte de jouer à la version version de gta avec des assets de la côte vermeille

    • @jbodega_
      @jbodega_ 2 месяца назад

      Quand j’ai vu ça j’ai halluciné moi aussi c’est si random comme idée de plan de démo mdr

  • @RaphaelMansuy
    @RaphaelMansuy 2 месяца назад

    Génial comme toujours

  • @drumnbob
    @drumnbob 2 месяца назад

    C'est ouf la vitesse de cette évolution

  • @silviodemoro5741
    @silviodemoro5741 2 месяца назад

    Salut! Avez-vous le nom du plugin pour UnrealEngine ? Merci !

  • @xiorxorn
    @xiorxorn 2 месяца назад +2

    J'ai déjà vu cette technologie en 1982 mais c'était dans blade runner.

  • @Skralex
    @Skralex 2 месяца назад

    Salut Micode, j’ai travaillé avec la technologie NerF, et on avait utilisé un Lidar de la rue par exemple, un Lidar est une reprensation « 3D » de la scène et on utilise le Nerf pour reprojeter le résultat dessus, donc tu pourrais tres bien baked les textures dessus pour l’importer dans Unreal ensuite pour avoir des collisions de geometry 😄

    • @Skralex
      @Skralex 2 месяца назад

      D’ailleurs google dans ton exemple utilise un model 3D avec le nerf projeté dessus

  • @SiskoKorobase
    @SiskoKorobase 2 месяца назад

    Bonjour, la comparaison à 19:10 c'est un peu comme dans la modélisation 3D : FreeCad est un parametric (en anglais) alors que Fusion 360 fonctionne autrement. L'un et l'autre ont des avantages et des inconvénients. Ici pour ce sujet, c'est la même chose.

  • @leomaradan
    @leomaradan 2 месяца назад

    L'exemple des néophytes qui utilisent l'IA est bon : Je suis dev, j'essaye de créer des jeux 2D avec Unity/Game Maker, et je suis très mauvais en graphisme... Du coup, j'ai le choix entre récupérer des assets déjà fait par d'autres qui seront soit sur-utilisées, soit bon mais pas raccord entre eux, ou alors générer des assets via Stable Diffusion. Avec la 2ème solution c'est certe imparfait, mais ça me donne une base de travail pour corriger les pixel arts, etc

  • @dond989
    @dond989 2 месяца назад

    Le fait d'avoir un rendu 3d en temps réel ça peut être super pour les casques VR, pouvoir aménager son appart, bouger des meubles en temps réel etc... Perso j'y vois un projet sympa de ce point de vue là.

  • @mosstroopboy8722
    @mosstroopboy8722 2 месяца назад

    Votre émission est passionnante de technique, d’enthousiasme et de curiosité du monde .
    Merci aussi pour vos invités très pertinents.

  • @Trakka818
    @Trakka818 2 месяца назад

    Super vidéo,pour avoir l'avis des pro faut que vous invitiez le STJV - Le Syndicat des Travailleurs et Travailleuses du Jeu Vidéo ! C'est des très bons :) bonne continuation

  • @botviking2510
    @botviking2510 10 дней назад

    Je serais curieux d'avoir cette vidéo refaite après l'annonce de GPT-4O :D

  • @executiveproducer
    @executiveproducer 2 месяца назад

    Render Network/Otoy a fait un partenariat avec StabilityAI et une des premières propositions de ce partenariat est de générer 1 milliard de modèles 3D pour permettre aux créateurs de construire des modèles. Je pense que c’est interessant à creuser.

  • @jeremvfx
    @jeremvfx 2 месяца назад +1

    11:30 c'est pas dutout ca, cest un vertigo effect

  • @Neoh53
    @Neoh53 Месяц назад

    Quelle époque ! Tout va beaucoup trop vite !
    Depuis les premiers modèles de générations de textes, il y a tellement de chemins parcourus en si peu de temps !
    Rien qu'essayer d'imaginer ce qu'on aura dans 10 ans. C'est une folie !

  • @cuteraptor42
    @cuteraptor42 2 месяца назад

    11:30 ça s'appelle un dolly zoom

  • @LaSneakerie
    @LaSneakerie Месяц назад

    Et aucune réflexion sur l'impression 3d ? Ça pourrait aider énormément si on arrive à obtenir des objets bien modelisé et modifiable facilement

  • @demonxelloss
    @demonxelloss 2 месяца назад

    Nom de Zeus, 1080p temps réel.... ça fait rêver pour la VR / AR ^^

  • @devchannel5359
    @devchannel5359 2 месяца назад +2

    La technique du gaussian splatting est juste incroyable! J’avais hâte de voir ce que vous en pensiez

  • @TheTinyCats
    @TheTinyCats 2 месяца назад

    Super chaine! Quel succès!

  • @arthut_hara
    @arthut_hara 2 месяца назад +1

    0:40 Shangri-La Frontiers je me demandais comment les PNJ pourraient forger des équipements custom.

  • @StupidBirdChannel
    @StupidBirdChannel Месяц назад

    Alors, pour avoir été graphiste 3d, si ça interesse les gens, pour le moment, dans l'univers de l'animation 3d ou de jeu vidéo, ya pas de progrès du tout. Même les scans sont pas TANT utiliser que ça (à l'exception des FX de films) pour une simple raison. Le nombre de polygons.
    Pour faire simple, histoire de pas faire bruler ton pc pendant un render, ou pour avoir un taux de FPS décents (hormis Unreal mais c'est un peu spécial) il est nécessaire de diminuer le nombre de plygones en utilisant pas mal de méthode, comme de la retopologie. Alors certe, ça peut faire sauter l'étape de sculpt, mais pour être franc , la mise en place d'un tel système, et le clean up derrière prend autant de temps qu'un sculpt, mais est bien plus couteux qu'un sculpt.
    De plus, avec une mauvaise retopologie (et la on va parler unreal) il est très dur d'animer, donc , si pour les décors d'unreal , il n'est pas trop grave d'avoir une topologie complètement cassé, pour un personnage, ou quoi que ce soit qui bouge, ce n'est pas viable.
    Pour le moment l'utilisation la plus fréquente est pour recréer le visage d'un acteur (ex: last of us/ tout les jeux de david cage) mais hormis ça, dans le jeu vidéo, c'est parfaitement useless...
    Ensuite on est pas a l'abris de l'arrivé d'une IA qui change complètement le game.

  • @fruitscrucycleman349
    @fruitscrucycleman349 Месяц назад

    Des robots, des drones, et satelites et sondes equipé de camera 3D qui se promene dans la nature. Des ultra microcopique et geant.

  • @kopsudga9262
    @kopsudga9262 2 месяца назад +3

    Moi je suis concepteur mécanique dans un bureau d'études aéronautique, je travail depuis des années sur un logiciel de CAO (Catia). L'IA m'aide énormément pour créer des macros en tout genre (écriture sur pièces à usiner, optimisation des sets géométriques, modélisation d'engrenages ultra rapide, etc).
    Je pense que ça peut fonctionner pareil pour les jeux vidéo: l'IA ne produit pas directement le fichier 3D, mais code un script ou une macro à lancer dans un logiciel de modélisation qui le guiderait à modéliser en lui demander de faire des opérations précises dans un ordre bien défini.
    Une chose est sur si l'IA continue sur cette lancé, nos métiers vont vite changer.
    Merci pour votre analyse

    • @stormtrooper3455
      @stormtrooper3455 2 месяца назад

      j'utilise catia également. Honnêtement c'est faisable que l'IA puisse générer des pièces en 3D étant donné qu'on utilise des paramètres.
      Du genre: Dessine mois une pièce rectangulaire de 20 mm sur 50 mm de 2 mm d'épaisseur avec un perçage de 5 mm au milieu.

  • @Asterats
    @Asterats Месяц назад

    C'est pas une idée récente de faire une image 2D en 3D il y a déjà certains programmes qui permettent de transformer une photo d un endroit en 2D et le replacer en 3D réutilisable sur blender par exemple.

  • @genkidama7385
    @genkidama7385 Месяц назад

    ils peuvent faire les collisions avec SDF (signed distance field) sur le nerf, c'est un voxel.

  • @hedyramy
    @hedyramy 16 дней назад

    Purée, faut arriver à suivre à certains moments ce condensé de langage geek débité rapidement, mais c'était super intéressant, merci les gars! ^^
    (Même Vivien l'ingénieur chez Microsoft on sentait parfois qu'il était perdu et qu'il décrochait miskin mdrr)

  • @n0madc0re
    @n0madc0re 2 месяца назад

    Petit oubli que vous pourriez préciser la prochaine fois : la capacité de générer des modèles 3D depuis de la 2D va avoir une énorme importance pour la génération vidéo. Les modèlels de génération vidéo pourront se renforcer en vérifiant la cohérence structurelle des objets (en faisant 2D -> 3D -> 2D).

  • @antikomm-prodsn3083
    @antikomm-prodsn3083 Месяц назад

    Salut et merci Micode et à l'équipe.
    Je vais être un peu long alors n'hésitez pas à sauter à ma question en conclusion...
    Cette vidéo m'amène à croiser ce sujet à une réflexion bien connue par ingé son et spécialiste du mastering que vous avez dû avoir en passant aux podcasts :
    Le main type pour avoir un son optimisé quelque soit le matos d'écoute (monitoring) et le lieu [Cad: casque, vieille JBL bluetooth,sound système de ouf;ds une église, ta chambre etc...:
    Par exemple pour une grosse basse sub (ex:

  • @vince2lille
    @vince2lille Месяц назад

    J’attends ça surtout pour l’impression 3D ! 🤟🏻

  • @lechinoir4881
    @lechinoir4881 2 месяца назад

    C'est une dinguerie! J'image Google utiliser la techno avec leur flotte de GoogleCar. On pourrait avoir un streetview du turfu, voir meme des jeux videos openworld où on évolue dans une map qui est notre monde. 🤯

  • @artifont9906
    @artifont9906 2 месяца назад

    merci pour votre travail

  • @unitednorthpole
    @unitednorthpole 2 месяца назад +1

    Simple: tu demandes à Sora de générer un traveling dans un jardin et ensuite la vidéo générée est envoyée à nerf.

  • @mosstroopboy8722
    @mosstroopboy8722 2 месяца назад

    L’apparence figurative ou imaginaire du réel deviendra techniquement parfaite .
    C’est -peut-être- cette « perfection algorithmique » avec ses nombreux biais qui est à craindre …
    Une phrase de Lanza del Vasto :
    Ainsi échappai-je au bonheur absolu …

  • @clementverkimpe940
    @clementverkimpe940 2 месяца назад

    dans trois ans j'ose a peine imaginer ou on en sera avec l'évolution de l'IA. quand on se rend compte qu'un ans dans le passé on pouvait pas représenté un visage sans avoir d'énormes paté moches. et ce qu'on a aujourd'hui... la science avance vite et toujours plus de techniques sont trouvé et ça me rend dingue.

  • @Felix-mu5qf
    @Felix-mu5qf 2 месяца назад

    pour avoir essayer kaedim 3d c'est une dinguerie (un peu chère), ultra utile pour du mecanic reverse engineering, en tout cas monstrueux pour tous ceux qui n'ont pas de scanner.

  • @Ctrl_Alt_Sup
    @Ctrl_Alt_Sup 2 месяца назад

    Le rendu visuel n'est qu'un aspect du jeu. Il y a une grande différence entre dessiner une voiture et construire une voiture qui fonctionne, même virtuellement. Le joueur et le moteur du jeu doivent pouvoir contrôler en temps réel toutes les propriétés des éléments du jeu... et cela de façon très simple. Gérer toute l'interactivité d'un jeu à partir de prompts va demander encore du temps...

  • @bigminigame
    @bigminigame 2 месяца назад

    Ca soule peut être les gens de parler d'ia les 3/4 du temps, mais moi je kiff ce que vous faites sur cette chaine en ce moment !

  • @OperationNT
    @OperationNT 2 месяца назад

    Ca peut être intéressant tant que c'est pour des modèles dédiés à un décor statique. Par contre, tant qu'il n'y a pas de support de la génération de bones (pour les animations) sur un modèle de personnage/animal, je ne vois pas trop comment ça serait exploitable dans un jeu vidéo (même pour une démo "basique"). Mais bon, ça va peut être encore évoluer. 🙂

  • @user-fm3ro1ww3o
    @user-fm3ro1ww3o 2 месяца назад

    "traveling compenser" en français 😂

  • @FyL43
    @FyL43 2 месяца назад

    Personnellement j'attends des versions hybrides entre photogrammétrie et IA , ça serait une dinguerie je pense, ça corrigerait tout les artefacts, trous, petit objets complexes etc

  • @dylanbobard7455
    @dylanbobard7455 Месяц назад +1

    Puisqu’on parle JV, j’en profite. Je suis actuellement en train d’écrire et de bosser mon potentiel futur et premier jeu, mais je n’ai aucune idée de comment rentrer dans le milieu, ni d’obtenir les fonds nécessaires à la création (Assets, développeur etc etc). Vous inquiétez pas, je veux utiliser les bonnes vieilles méthodes 😂 Sérieusement si quelqu’un peux m’aider n’hésitez pas ! Soit ici soit même par Mail si vous voulez pousser la conversation ! Merci d’avance

  • @daiyokai_
    @daiyokai_ 2 месяца назад +23

    Le nombre de bot dans les commentaires :o

    • @Cbibi01
      @Cbibi01 2 месяца назад +1

      H bien on se motive tous et on les signale, allez le gars, on boîte les bots avec nos bottes

    • @RIPrisitas
      @RIPrisitas 2 месяца назад

      Ferme ta gueule

    • @zigzogzugzig
      @zigzogzugzig 2 месяца назад

      ben tu as vu les skins des bots mdr

    • @gtryer
      @gtryer 2 месяца назад

      Comme d'habitude

    • @RIPrisitas
      @RIPrisitas 2 месяца назад

      @@gtryer ce genre de personnes qui commente ça sont encore plus détestable que les bots

  •  2 месяца назад

    C'est le FSD (passé en prod récemment, en version 12.3.x et "Supervised") de Tesla dont vous parlez, non ?
    Ça permet de représenter le monde entourant la voiture à partir de 8 cameras, de construire une représentation 3D, puis de prendre des décisions dessus. Temps réel.

  • @juventinoaparis
    @juventinoaparis Месяц назад

    Ça serait bien créer des modèles pour impression 3d de tout et n'importe quoi

  • @granturismo-handicapoupasc4174
    @granturismo-handicapoupasc4174 2 месяца назад

    22:34 il vont finir par coupler google maps et des jeux videos

  • @008trigun
    @008trigun 2 месяца назад +1

    Mais l'application on en parle pour les jeux vidéos ..
    Mais pour les Maitre de jeu des jeux de role sur table ...
    C'est un game changer , imaginons la personne parle et le monde se crée au fur et a mesure pour ses joueurs ...

  • @c_r8256
    @c_r8256 2 месяца назад

    7:00 mais c'est Altis de Arma3 ça ? Avec une vus sur Kavala

  • @Wabadoum
    @Wabadoum 2 месяца назад

    Bien qualitative les images

  • @zelectron1
    @zelectron1 Месяц назад

    et la 3D dans le cadre de la définition/construction mécanique ? ("légèrement" plus utile pour fabriquer les objets de tous les jours : moteurs, électroménager, automobile, spatial, militaire sans limitation [donc majoritairement industrie y compris machines agri-agroalimentaire ...])
    AI appliquée aux CFAO / CAD:CAM (computer aided design and manufacturing) jusqu'au pilotage des imprimantes 3D, stéréolithographie, CNC 4 ou 5 voire 6 axes.

  • @MsGuigui35
    @MsGuigui35 2 месяца назад

    Coucou, ma copine est graphiste mais anglophone... MAIS votre contenu est tellement quali que je pense que ca vaudrait le coup de le traduire en anglais car je n'ai pas trouvé d'équivalent à votre podcast en anglais

  • @akekeprod5513
    @akekeprod5513 Месяц назад

    Spline 3d m'a l'air très révolutionnaire. Créer un film d'animation type pixar avec enregistrement de voix off sur chaque personnage breff un blender ia . Vous imaginez ça les gars

  • @mguillaume5986
    @mguillaume5986 Месяц назад

    la dinguerie de l'IA ne fait que commencer!

  • @Mr99Sebastien
    @Mr99Sebastien 2 месяца назад

    Je vais bientôt pouvoir battre des records de vitesse de mon trajet travail maison en toute légalité. J'ai très très hâte.

  • @philwalt2753
    @philwalt2753 2 месяца назад

    Hyper intéressant, cette vidéo répond à une question qui me démange depuis des années : pourquoi mon jeu vidéo idéal n'existe pas encore ? Je rêve, par exemple, de l'équivalent de Flight Simulator, mais au sol ; imaginez, une map grande comme une planète, sur laquelle vous pourriez, sans GPS, vous perdre, ou rouler pendant des heures pour atteindre une destination, en risquant peut-être de manquer de carburant... Ce serait incroyable. Mais depuis les planètes procédurales de No Man's Sky, rien à l'horizon : les maps 3D sont bridées à environ 200 km2 (soit environ 15km sur 15km), échelle qui semble seule à permettre à une équipe humaine de créer des décors jolis, détaillés, variés, pertinents. Mis à part le coup de force de Flight Sim. 2020, pour l'instant l'open world ultime n'existe pas encore, en tous cas si on rêve de distances (désolé, j'adore Forza Horizon 5, c'est un très beau travail, mais oui je me sens vite à l'étroit dans cette carte qu'on traverse en quelques minutes, cette autoroute de quelques km à peine...!). Et donc, peut-être un jour, une révolution 3D amènera ce jeu de dingue ; et j'ai déjà pensé à Google en effet, qui pourrait être de la partie, pourquoi pas...

  • @c2po_production
    @c2po_production Месяц назад

    Le problème de ces IA c'est quel te génère un mauvais maillage, du coup ce n'est pas utilisable en l'état sans qu'il y ai un travail de profondeur. Après pour en avoir testé quelque uns, cela peu donner quelque idée de forme (référence) à partir d'une image 2D (utile pour avoir une idée de spécialisation) mais pas plus.
    Ce qui pourrai changer la donne a mon sens ce sont les plugins qui permettent de faire de la retopologie auto, plus poussé que Quad Remesher (le plus connu) qui a mon sens n'est pas parfait. A partir de la on pourra générer des models, même de basse qualité et le retravaillé plus rapidement.
    Je suis assez amateur sur la 3D, j'ai fais quelque model mais cela reste assez fastidieux à mon sens, surtout pour faire de l'impression résine qui a un processus encore plus complexe si ont veut avoir de bon resultat.

  • @odalanoix
    @odalanoix Месяц назад

    En tant que designer graphique, ça m’intéresse beaucoup

  • @wougsuper6136
    @wougsuper6136 2 месяца назад +1

    Ils ont fait la même technologie que dans le jeu cyberpunk pour la génération d'un environnement 3D juste à partir d'une vidéo

  • @morganj7127
    @morganj7127 Месяц назад

    Grove Street game a tenté un truc, on a vu le carnage 😅

  • @hedyramy
    @hedyramy 16 дней назад

    Bonnes nouvelles, pour le jeu vidéo, le 10ème art, ça va générer des merveilles !
    Ça sera extraordinaire 😎😍🥰

  • @benjamindrey6951
    @benjamindrey6951 2 месяца назад +1

    La vraie revolution serait une ia capable de pouvoir convertir un nuage de points en mesh de qualité avec un maillage optimisé facilement éditable. En l'état je ne vois pas d application en dehors de la démo technique et des vfx . Et comme d habitude en 2d ou 3d l IA va sans sortir que sur des sujets répandu (une pelleteuse des legos ...) pour la création pure ou les sujet de niche ou il n y a pas de datas c est la catas. Bref sans nos artiste pour amener du sang nouveau on va-vite se lasser des résultats.

    • @Liam3072
      @Liam3072 2 месяца назад

      Yep. Un exemple simple : demandez à Dall-E 3 de vous générer Mario ou Sonic : facile, résultat immédiat, relativement propre et complètement ressemblant. Demandez-lui ensuite de générer ne serait-ce que Rayman... pas un ptit jeu indé totalement obscur hein, juste Rayman, un perso un peu secondaire en terme d'importance mais qui a quand même eu son heure de gloire... bah il en est incapable.

  • @EmmanuelBouillon0
    @EmmanuelBouillon0 2 месяца назад

    Passionnant, merci !

  • @Largoat
    @Largoat 2 месяца назад +1

    Yo ! enfin une nouvelle vidéo :)

  • @yacinezahidi7206
    @yacinezahidi7206 2 месяца назад

    Fater AI, qui fait du text-to-CAD, génère une modélisation 3D directement au lieu de générer point par point l'objet ce qui permet de ne pas faire d'erreur car elle génère un peu comme un humain