Je me permets un modeste conseil. Sois plus actif sur ta chaine youtube . Tu présentes bien, tu t'exprimes bien, et tu sais de quoi tu parles. Tu as vraiment le potentiel de monter ta chaine assez haut. Après si c'est par manque de temps à cause d'un autre taf, c'est dommage mais compréhensible. Si ce n'est pas le cas, ce serait cool d'avoir un peu plus de contenus de ta part.
Vous ne pouvez pas imaginer à quel point j'apprécie vos messages qui défilent ce matin depuis le réveil. Apprendre que mon travail et ma façon d'expliquer vous plaisent, c'est une motivation incroyable pour la suite. Je vois encore beaucoup de choses améliorables dans cette vidéo et j'y travaillerai pour les prochaines. Merci beaucoup pour vos commentaires !
Si seulement YT n'avait que des vidéos de cette qualité... C'est précis, technique, synthétisé, vulgarisé, sans faute de grammaire, ni agression visuelle avec des "cut" toutes les 5 secondes... Merci, pour la peine je m'abonne.
Pour avoir poncé le CES et le sujet ces derniers jours, je trouve ta vidéo extrêmement riche en informations, tout en restant très claire et très bien résumée. Chapeau bas ! C'est pas facile de rester accessible dans ce genre de domaine !
8:40 C'est faux le modèle transformer du DLSS4 (ray reconstruction/ super sampling) sera bien compatible pour les rtx 4000/3000/2000, c'est dans le blog officiel de présentation. Seulement le MFG x4 sera exclusif aux 5000 comme le FGx2 était exclusif aux 4000 (et encore je serai pas surpris que des mods sortent pour pour avoir le MFG sur toutes les rtx comme c'est arrivé pour le FGx2 du DLSS3)
Je devrais préciser : La fonctionnalité la plus interessante et la plus importante du DLSS 4 : MFG n’est pas rétro compatible. Donc le reste du DLSS4, c’est un peu vide quoi 😅
Belle découverte ta chaine, c'est carré et pertinent, très bon start: c'est claire, net et précis. J'espère que tu va nous parler des techno AMD aussi. N'hésite pas a faire un peu d'actu tech si tu a le temps, ca peut être intéressant d'avoir ton point de vu sur certain articles de videocardz. Je sub et je pouce 👍
Je t'avais découvert sur TikTok (que j'ai désinstallé depuis). Quel plaisir de te retrouver sur YT. Ton contenu est très propre, bien construit et expliqué et j'aime bien ton état d'esprit. Continue sur YT c'est vraiment top ce que tu fais.
Super vidéo , très intéressante à écouter j'ai compris certaine choses qui étaient encore peu claires cependant je ne sais pas si la majorité pense ça aussi mais je trouve que les musiques de fond choisies ne vont 1 : pas trop avec le ton que tu as dans ta vidéo et font un peu musique pub d'entrepreneur que l'on peut voir sur youtube . Ce que tu dis et la manière dont tu t'exprimes permet de se passer de musique de fond ou alors de prendre des musiques plus discrètes pour habiller simplement la vidéo . Bref hâte de voir tes prochaines videos ;)
Très bonne vidéo ! J'ai vu la dernière vidéo de Jigfio et à un moment, il parle de la latence, et je le rejoins énormément sur ce point. Tout d'abord, en rasterisation ou avec simplement un upscale, plus on a de fps, plus la latence diminue, et c'est principalement ce que recherchent les joueurs, notamment les joueurs e-sport. L'objectif est d'avoir un maximum de fps pour obtenir la latence la plus faible possible. Or, avec le mult generation, on aura une latence de 34 ms pour 248 fps, ce qui correspond à la même latence que pour 71 fps. Le jeu sera plus fluide, car il y aura beaucoup plus de fps, mais les sensations en jeu (mouvement avec clavier et souris) seront celles d’un jeu à 71 fps. Il a affirmé avoir déjà ressenti cela avec le frame generation, où l'on parlait de 140 fps avec 35 ms pour le même cas. Il s'attend à ce que ce soit bien pire avec le mult generation.
Même sans dlss ou autres enfumage il y a frames generations , depuis au moins le début de la série 5000 . Le nombre de fps affiché n' est sûrement pas les fps réels et ça se voit à l' oeil sur les vidéos .
En jeu compétitif tu ne cherches pas à avoir un jeu ultra beau... quand la plupart des joueurs jouent en settings low, pour mieux voir, paradoxalement. Sans compter que s'ils voulaient compter sur le dlss, l'intégration est tellement complexe au vu du relativement peu de titres nous le proposant à l'heure d'aujourd'hui, que je doute que ça en vaille la peine. Non vraiment NVIDIA sortez vous les doigts du cul, le problème uno c'est vraiment l'intégration de vos techs !
@@SiouplaitMerci il y a frame generation si tu l'actives, et uniquement dans ce cas là. t'es genre un complotiste de l'informatique qui croit qu'Nvidia ajoute des images que t'as pas demandé ou c'est comment ?.
Sans rentrer dans le débat..la réalité est que les 4090 sont hors de prix et ne sont quasi plus dispo en neuf… Donc le péquin lambda comme moi qui fini une quarantaine de jeu par an sur steam, il va prendre ce qui sera dispo. La 5090 n’est pas moins performante que le 4090… après si on veut jouer en mult c’est notre problème. Franchement déjà mettre 2000 boules dans un gpu ça me casse les pieds mais je peux me le permettre à cause d’usage que j’en fait qui n’est pas pour le gaming only.
Franchement comme je l’ai vu dans un autre commentaire, c’est vraiment dommage que tu n’aies pas un rythme de publication plus régulier. Ça se voit que tu es passionné et que tu sais de quoi tu parles. Ce serait top d’avoir plus de vidéos sur l’actu tech ou les infos hardware. Ça apporterait un vrai plus, surtout par rapport à certains qui balancent plus de fausses infos qu’ils n’expliquent vraiment les choses. Sinon, c’est du super boulot, tes vidéos sont agréables et faciles à suivre, j’espère vraiment que ta chaîne va continuer à grossir, parce qu’avec la qualité de ton contenu, ça ne peut que marcher.
Mec, ta chaîne a vraiment du potentiel, j’aime beaucoup ton contenu la ! T’as pas beaucoup d’abonnés et de vue, mais franchement ton contenu est super tu va faire que monter ! C’est pas Putaclic, c’est sérieux, tes factuel, et simple carré s’est top allez que du soutiens pour toi !!
superbe vidéo je suis entrain de me construire un pc j'ai tout compris grâce à toi, tu expliques super bien ! Seul petit conseil : hèsite pas à refaire certaines phrases plusieurs fois pour les prononcer parfaitement, tu as parfois un petit peu de mal à articuler... mais c'est juste du perfectionnisme, continue comme ca !
@azakyhoch1960 tout à si on voulait progresser dans cette voie les GPU devraient des parpaings donc une nouvelle voie est à prendre pour rester sur des tailles raisonnable
Excellente vidéo, qui remet un peu l’église au milieu du village. Et si cela ne me gêne pas d’avoir des technos d’upscale et FG, la com de Nvidia volontairement trouble, elle n’est pas honnête. Il était évident qu’on allait devoir faire « mieux avec pas plus », mais il faut aussi éduquer le consommateur comme tu le fait. Et puis il reste des points importants en suspend, quid des autres usages ? Le jeu est certes une part importante de l’usage d’un GPU, mais qu’en est il des résultats en modélisation 3D, ou en encodage vidéo ? Et enfin, mais ça c’est plus général, cela pose tout de même une question importante, celle du transfert de la responsabilité d’optimisation. Aujourd’hui ce sont les cartes qui « optimisent » les rendus, là où avant c’était les moteurs. Cela implique donc que seuls ceux qui ont les moyens d’acheter ces cartes pourront jouer correctement, là où avant c’est en achetant le jeu que tu étais assuré de jouer. Et ça me pose un soucis je l’avoue
Pas honnête? Pourtant elle est hyper claire : ils vendent de l'IA. Il le dit clairement "impossible sans IA". Bref, vous êtes vraiment rendus fragiles aujourd'hui, hein... Toujours un truc à redire.
Salut ! D'abord, merci pour cette vidéo, tu revient très clairement sur le débat en cours et tu expliques bien les choses ! Vraiment hyper intéressant sur l'IA. :) Je me permets quelques critiques concernant cette polémique, car je ne suis pas d'accord sur tout. Concernant les test de Nvidia, je suis d'accord sur le fait qu'on ne peut pas comparer deux choses comme si elles avaient les mêmes caractéristique alors que ce n'est pas le cas, faisant de ce test un test mensonger par omission. En revanche, je ne suis pas d'accord pour dire que c'est incomparable ! Car cela compare quand même les capacités des deux gammes. Je reconnais en revanche que cela aurait été plus pertinents de présenter plusieurs test en fonction de différents protocole. Les voici : 1/ Rastérisation 2/ A techno égale (DLSS, Ray-tracing) 3/Avec les ajouts technos de la gamme 5000. Mais la réalité, c'est que la rastérisation.... On s'en fout. C'est finie cette époque, les résultats concrets passent désormais par les technos. AMD commence déjà à prendre cette voie. Je suis 100% d'accord pour dire que le marketing de Nvidia est frauduleux, en revanche c'est faux de parler de "fake fps". Cette expression n'a absolument aucun sens. Déjà, parce que les technos s'appuient sur des ajouts hardware (on pense aux fameux Ray tracing core par exemple), en suite parce que, technos ou pas, il y a réellement un résultats visuels. Je suis d'accord que le DLSS peut créer des artefacts et autres et que aujourd'hui 144fps en DLSS est forcément un peu moins beau que 144fps en puissance brut. Mais déjà, plus le temps avance moins il est raisonnable et possible de créer de la puissance brut capable de faire tourner des jeux en 144fps à haute résolution mais en plus, la réalité, c'est que les artefacts sont quasiment imperceptible en pleine action et que le DLSS ne va cesser de s'améliorer et d'être pris en compte par les devs de JV. On le voit dans ta vidéo avec un expert qui trouve difficilement des failles visuels. Les critiques autours du fait que Nvidia créer des "fake fps" parce qu'ils ne s’appuient plus sur de la puissance brut résulte d'une vision passéiste (relative à la loi de Moore, je pense) qui consiste à croire que l'évolution du JV et plus largement de la tech ne doit s'appuyer que sur du hardware. Nous arriverons, un jour ou l'autre, à la suprématie du software et ça, Nvidia l'a bien compris (aussi frauduleuse que soit l'entreprise). Je le redis, mais le temps de la puissance brut est terminé. Nous rentrons dans une nouvelle ère. Ce que nous devrions d'avantage dénoncer, c'est le fonctionnement bassement mercantile de la direction de Nvidia (qui est évidemment concomitant à ses velléités capitalistique, en tant qu'entreprise capitaliste). Les 5000 vont sûrement être un gamme qui va le plus révolutionner le JV et la manière dont on créer des jeux, mais c'est un problème que ces innovations soit destinées à faire du profit plutôt qu'à faire évoluer le progrès humain. Merci encore pour la vidéo cependant, c'est clair, concis et intéressant !
Bonjour, bonnes explications, n'étant plus tout jeune (mais ce n'est pas pour ça que je ne suis plus capable de jouer 😄), j'avoue que j'étais un peu perdu dans le monde des cartes graphiques, et maintenant j'y vois bien plus clair. En gros, vu que l'on arrive à une limite physique, on n'a pas vraiment plus le choix, la solution est le sofware. En espérant que les cartes graphiques seront toutes aptes à gérer cet IA sans trop "pomper" sur le processeur que l'on devrait aussi changer...
j'aurais imaginé une chose pour réduire le cout de fabrication des carte graphique, vu qu'on ne peut plus réduire la taille des transistors et si on veut plus de coeurs par la suite ce qui va donc augmenter la taille du proc sur les plaques de silicium et augmenter le gaspillage de matière, pourquoi pas séparer les coeurs shaders, RT, IA sur 3 des processeurs différents ? qu'on réunira après sur un même PCB, ce qui pourrait nous faire imaginer ensuite des carte graphique avec des versions sans processeur IA ou sans processeur RT par exemple, on aurait des RTX 6090/80/70 et leur déclinaisons GTX 6090/80/70 pour 2x moins chère mais les mêmes perf pour la rasterisation. ou alors il faut créer un nouveaux procédés d'impression des proc sur des plaques de silicium carré et pas rond pour plus qu'il y est de gaspillage dans un premier temps.
J'ai déjà vu tes shorts,je m'abonne si ça peut te motiver à développer ta chaine :) Au sujet des RTX j'étais enthousiaste lors de l'annonce mais avec le recule j'attends de voir car le 30-->200fps en activant toutes les technos à fond ça me semble trop beau pour être vrai surtout quand tu vois la latence qu'annonce nvidia c'est faiblement réduit par rapport à la gen précédent.. je pense que les joueurs ne pousseront pas tous les curseurs à fond donc content de voir que tu ne te fais pas avoir par le marketing! J'attends de voir aussi les annonces d'AMD au sujet de la RX 9070XT si le positionnement tarifaire est intéressant ça peux être une alternative, surtout qu'apparemment ils envisagent de faire machine arrière et de rendre le fsr4 compatible avec les cartes de la génération précédent.. si vous avez une 7900xtx ne la foutez pas sur leboncoin un conseil!
Merci pour ces explications qui devraient permettres aux "dinosaures de la tech" qui ne comprennent pas les choix d'évolution d'NVIDIA vers l'IA, qui a bien compris que l'augmentation de la puissance de calcul pour du rendu en rasterisation est mort avec la loi de Moore. Tant mieux si l'IA permet de tripler les FPS !!! vrais ou fausses images on sera bientôt fixé sur le résultats final
quand on vois la taille du PCB qui fait la moitié de la taille du dissipateur n'est t'il pas possible d'en faire une plus grosse? (peux être par ce que ça demanderait trop de jus pour tout alimenté?)
Il y a tout simplement un plus grand nombre de modules logiciels qui utilisent simultanément la mémoire, les anciennes technos continuent à en avoir besoin , elles ne sont pas remplacées mais on ajoute d'autres besoins en bande passante. du coup il est nécessaire de l'augmenter
Tout simplement parce qu'il se trompe dans cette vidéo... la quantité de AI cores et la GDDR7 ne sont là que pour permettre un MFG de qualité (on l'espère en tout cas...). MAIS le DLSS 4 est compatible avec toutes les RTX.
La 3070 beneficiera du Dlss 4 mais pas du multi frame generation. Mais meme sans l'IA il y a quand meme un large gap entre une 3070 et une 5070. Ce qui est dommage c'est les 12Go seulement de Vram. Si tu peux la 5070Ti sera d'avantage future proof. Pour ma part je vais passer d'une 3080 a une 5080.
@@maxime_7165 OK , je viserai une ti alors . Les fps je m'en fou un peu mon écran bloqué à 144 ce qui est largement suffisant mais je voulais juste plus de puissance de calculs donc si la ti vaut plus le coup banko
Bonjour, Merci pour cette vidéo, je me permet de vous poser une question qui me dérange et qui me rends malade si vous permuter, Jai une ASUS Ws X299 Sage/10G avec une carte RTX 3090, 128 gb DDR 4 et je fais du montage vidéo avec Davinic Resolve Studio, ainsi avec Adobe première pro au par-avant, mais Ca crach tout le temps, une fois lors de l'export ou pendant le montage, malgré l'optimisation de Davinci, ça plante, et pourtant j'ai le dernier Bios, moi j'en suis sur c'est un paramétrage qu'il faut ajuster dans le Bios afin d'optimiser la carte mère, vu votre expérience, je pense que vous pouvez m'aider et m'orienter dans ce sujet SVP, un grand merci. meilleures salutations. je vais m'aboner à votre chaine, c'est cool.
Très bonne vidéo. Mais j’aurais un point à préciser : le modèle transformer n’est pas réservé aux RTX5000, toutes les RTX vont y avoir droit pour les DLSS Super Resolution.. La seule exclu 5000, c’est le MFG.
@@gedeon_teuzemany tu es sûr à 100% que c'est une exclu RTX 5000 ? Je ne trouve pas la réponse .. il y a un article en anglais sur le site de nvidia qui en parle comme un outil SDK développeurs, mais le doute plane quand même beaucoup sur la rétro compatibilité. Rien n'est précisé..
"la 5080 ne prends que 40€ par rapport à la 4080, c'est négligeable" Ouais et la 4080 par rapport à la 3080 ? En faite vous vous êtes pris une douille en amont et maintenant vous validez les prix actuels.
C'est une bonne nouvelle, je suis un joueur et eu utilisateur d'IA local pour mon taff. J'ai acheter une 3090 justement pour sa 25Go de VRam pour l'IA. ET voir que les prochaines cartes sont booster pour l'IA est vraiment une bonne chose. Mettre ce prix uniquement pour jouer, c'est hors de question.
Superbe vidéo, J'ai une rtx 4080 super et je viens de regarder sur le site de NVIDIA, en fait si je comprend bien, pour lke DLSS 4 , on aura juste pas la génération multi-images avec DLSS, EN REVANCHE on aura droit à la nouvelle génération d’images avec DLSS (simple et non multi), à la nouvelle reconstruction de rayons avec DLSS, à la super résolution avec DLSS et au nouveau DLAA ?
3:03 une des solutions pourrait être de commencer à transitioner sur une architecture plus efficace comme le Risc-v/. Arm, surtout aux niveaux des consoles qui ont des configurations fixes donc ça devrait pas être trop violent pour les devs Risc-v est open source, unix et linux le sont aussi donc ils ont qu'à baser leurs futurs os là dessus pour faire plus rapide
Merci pour cette vidéo très claire ! On comprend beaucoup mieux les choses maintenant ! Le DLSS4 a l’air prometteur mais combien de jeux seront compatibles au lancement de ces cartes et d’ci la fin de l’année 2025 🤔
Ceci n'est pas une question mais un manque de respect. Pas de verbe, pas de ponctuation... tu obliges ton interlocuteur à te relire pour te comprendre alors que tu as eu le culot de ne pas te relire pour te corriger. Tu mérites que personne ne te réponde, d'autant que anyway, ta question est bonne pour google. Si tu veux t'exprimer comme un goret sans instruction, il y a les moteurs de recherche pour ça.
Oui, mais pas le Multi Frame Generation. Le DLSS 4 changeant de modèle, donc tu auras moins d'artefact visuels, plus de qualité (et surtout moins, voire plus du tout, de ghosting), une consommation de vram légèrement réduite et une latence améliorée, mais tu ne pourras pas bénéficier du MFG, seulement du Frame generation classique.
Alors j'ai une carte de 2019 donc il faut que je prenne pas une rtx 50 ? (Je veux me mettre à jour) Pour beaucoup de jeux surtout les gros pour jeux avec tout au max.
Perso je vais prendre la 5070 ti en échange de ma 4070 ti, pas pour le gaming mais surtout pour l'AI. 640 AI TOPS contre 1406 c'est pas négligeable + les 4go de VRAM en plus.
NVidia a annoncé que le réseau transformer sera compatible avec tous les GPU précédents (jusqu' aux 20xx). La mémoire G7 est indispensable pour le MFG, pas pour le transformer. La différence actuellement mesurée d'input lag (sur Cyberpunk il me semble) passe de 51ms à 57ms quand on passe du frame gen classique au 4x (d'ailleurs ce 4x c'est 3 frames générées par IA). Je pense que ce 4x c'est pour ceux qui ont un écran 240hz minimum et qui veulent avoir un max de fps dessus. Les gens crient aux "fake frames" mais en réalité ça apporte une vraie fluidité, et avec les updates réguliers, les artefacts sont de moins en moins visibles. Aujourd'hui sur Witcher 3, les artefacts sont imperceptibles, alors qu'ils l'étaient sur Horizon FW, ou sur Ratchet&Clank à leur sortie (je n'ai pas retesté depuis)
NVIDIA ont clairement menti sur la puissance de la RTX5070 12Gb en disant qu'elle serait aussi puissante que la RTX4090 24Gb ce qui est totalement faux . (Sachant qu'ils joue sur les mots , ce serait grâce aux Software qu'elles seraient aussi puissante , mais en performance brut sans les soft c'est de la daube). Ou alors ils disent en même temps que les software sur RTX5000 ne seront donc pas compatible avec les 4000/S ... Ce qui serait donc honteux non ?? Aller je commence le visionnage de cette vidéo et je m'abonne ! En espérant qu'on ait la même passion > la technologie ! 😁💯 PS: Attention la première génération en GDDR7 n'est pas si incroyable comparé à la GDDR6/6X . D'ailleurs on peu facilement ce rendre compte que la GDDR6X étaient bien plus intéressante niveau conso/perf que la première génération en GDDR7. 😉 Pour info la 5070 12Gb a donc 192bits (ce qui va énormément limiter la vitesse de la bande passante de la mémoire donc de la GDDR7) , on va donc obtenir > 672 GB/s pour le total de la même (le total de la vitesse de la bande passante) , sachant qu'on aurait dû avoir encore plus avec le passage en PCIe 5.0 ... Ce qui n'a pas l'air d'être le cas on ne vois quasiment pas la différence entre le PCIe 4.0x16 et le PCIe 5.0x16 . (On aura des puces VRAM en GDDR7 @2333Mhz , pour rappel la GDDR6X était excellente car des fréquences bien plus faible (6X @1500Mhz max) pour une meilleure conso ... Mais c'est la aussi qu'on peu voir le gain même si c'est un peu trompeur on aura donc 28 000Mhz sur 12Gb de GDDR7 en 192 bits contre > 21 000Mhz pour 12Gb en 192 bits pour la RTX4070 classique (sachant que la fée GDDR6X était @1313Mhz par puce) et la bande passante mémoire @504GB/s .... Donc en réalité on va donc gagné à peine 7000Mhz sur la 5070 comparer a la 4070 . Et donc on passe de 504Gb/s sur la 4070 à 672Gb/s sur la 5070 donc disons un gain d'environ 12% pour la 5070 (+164 GB/s à peu près) ... Maintenant vous voyez ou je veux en venir ? C'est physiquement impossible que la RTX5070 12Gb soit aussi performante que la RTX4090 24Gb . Elle sera juste 15% (aller on va dire comme pour toute les autres une moyenne de 25% de performance supplémentaire brut) que la RTX4070 (j'ai même pas pris la peine de comparer avec les autres variante de la 4070 Ti/TiS etc) . Conclusion si la RTX5070 12Gb est à peine 20 à 30% plus performante que l'ancienne RTX4070 (en GDDR6X car elle existe en non X , mais c'est kiff kiff car la GDDR6 standard monte @2400Mhz voir un peu plus selon les gammes) . Je voulais prendre un autre exemple comme la RX7700XT 12Gb qui sur le papier est la concurrente direct de la RTX4070Ti 12Gb (sachant que pour la VRAM c'est identique sur la 4070 et la 4070Ti > vitesse bande passante mémoire de 504GB/s) . >> RX7700XT 12Gb > GDDR6 standard @2250Mhz par puce soit 18 000Mhz au total) sur un bus identique 192bits > vue que c'est pas de la GDDR6X (un peu plus rapide que la 6 standard) on obtient donc > 432Gb/s pour la vitesse bande passante mémoire contre 504Gb/s pour les 4070/4070Ti soit a peine 72Gb/s en moins (et pour les fréquences globale > 18K contre 21k MHz donc 3000Mhz d'écart (soit 3Gb/s d'écart) . Pour résumer faut savoir que SK-Hynix par exemple sur leurs site officiel ont annoncé que la GDDR7 serait 3 fois plus rapide/performante que la GDDR6 standard... On ce rend compte que ce ne sera pas du coup 3 fois mais seulement 1.5 fois grand max pour le moment , car c'est Samsung le leaders sur ce type de puce et eux même ont dit que la nouvelle génération en GDDR7 effectivement serait 3 voir 4 fois plus rapide mais qu'ils en avaient pas encore sortie (ce serait donc en cours de production et ils ont prévu de la GDDR7 de meilleurs qualité sur d'autres gamme qu'on à pas encore vue comme une probable variante de la 5080 16Gb avec 24Gb au lieu de 16Gb). En bref la technologie en GDDR7 n'est pas encore abouti . Et si NVIDIA le font c'est uniquement parce-qu'ils ont acheter l'exclusivité sur la première génération en GDDR7 (ils avaient fait pareil avec la GDDR6X d'ailleurs , quand on ne peu pas produire pour tout le monde et bien ce sera le fabricant qui sort le plus gros chèque qui sera servi en premier) . Donc j'aimerais qu'on m'explique ?? Elle est où la puissance incroyable promis par SK-HYNIX et Cie de la GDDR7 ? Car pour le moment c'est pas ultra stupéfiants quand on regarde en détail les specs des RTX5070/5070Ti/5080/5090/5090D ... (De plus vous verrez que les test afficher sur le site de SK-HYNIX c'était sur un BUS de 384bits , donc attention aux pièges marketing) .
"IMPOSSIBLE SANS IA" Clairement dit et répété pendant toute la présentation du CES. Tu devrais aller apprendre la définition du verbe "mentir". Et NON, il n'y a rien de honteux dans le fait qu'une ancienne techno ne soit pas compatible avec une nouvelle techno: est-ce que ta Twingo peut se recharger comme une ZOE??? Vous êtes VRAIMENT chiants, ne rêvez pas, hein: rien d'autre ne ressort des paroles des ignorants capricieux.
La loi de Moore tend à être dépassé mais elle reste valabe sur de nombreux autres composants. Pour les gens qui font de l'IA sur leurs infrastructures, la série 5 est un plus énorme. La vitesse de transfert est essentiel. ET la nouvelle génération pour l'IA est TOP. J'utilise aujourd'hui des RTX4090/4080/4050 et des Jetson Nano. Le blackwell est donc un plus. Concernant le marché, l'IA sur le SAAS (cloud) coute de 3 à 10 fois plus cher que sur sa machine, et l'impact RSE (écologique) des datacenters et leurs conso en énergie devient un probleme. Donc transférer le calcul vers les postes clients fait que le marché du gaming va perdre de l'importance pour NVIdia en faveur de l'IA domestique. Et puis avec une 4090 on flirte avec le max en rendu pour le gaming.... Vous aviez raison sur l'impact conso des tranformers qui génèrent énormément plus d'inférences (mais ENORMEMENT). Si je dis cela c'est que j'utilise des CNN, transformers, RNN, etc sur des RTX4090, donc Nvidia a changé son algo d'augmentation du FPS pour l'IA. Par contre avec ou sans série 5 hors génération d'image pour le gaming, on peut faire du RNN, CNN, Transformers, etc... Chouette format je m'abonne
la rasterization est finit depuis l'epoque gtx 1080 ti , apres cette carte nvidia n'avait plus le choix que de relancé la methode de creation de contenue 3D et ce pour pouvoir vendre des cartes a nouveau et commencé une autre ére de développement graphique , mais le probléme est qu'nvdia ne c'est pas arreter la , maintenant chaque lancement on des architecture nouvelle rendant la précédente toute obsolète
hello, merci pour ton contenu. J'ai reçu pour Noel une 4070 super, je peux la renvoyer et me faire rembourser pour prendre une 5070. Tu penses que c'est un bon deal ou pas ? :D
Échec, la loi de Moore n'est pas une hypothèse, c'est une directive de l’exécutif général d'Intel. Elle a seulement été abrogée lors d'un de leurs conseil d'entreprise.
Très bonne vidéo, mais petit rappel concernant le "mensonge historique". En 2022, la vidéo de présentation officielle du DLSS 3 mentait déjà quant au gain de performance, avec de mémoire une vidéo de Cyberpunk qui faisait passer le jeu de 25 fps à 125 fps. Et ce n'est pas un mensonge en soit, c'est vrai. Sauf qu'on sait aujourd'hui, tout le monde est d'accord avec ça, qu'il faut un minimum de 60 fps brut pour que l'input lag soit "ok" (personnellement je n'aime pas parler des chiffres sur ce sujet, la seule manière de comprendre c'est l'expérimenter.. et pour ma part, je trouve la sensation horrible. La sensation que la souris lag quand on fait tourner la caméra. Suffisamment en tout cas pour que ça paraisse chelou (difficile de l'exprimer avec des mots, encore une fois il faut l'expérimenter, et tout le monde n'y sera pas sensible de la même manière). Et pour finir, je fais partie de la catégorie de personnes qui ne demandent rien de mieux que 60 fps fixe. Pourquoi est-ce que j'irais activer des fake frames pour doubler ces fps si je suis impeccablement satisfait de 60 fps ? Et qu'en plus je perds en latence... non merci :) Je rajouterai quand même que j'ai hâte de tester le DLSS 4 sans FG, les améliorations en terme de ghosting et de netteté ont l'air au top ! Heureusement, je n'aurai pas besoin de changer mon laptop pour en profiter (avec une 4080 ça m'aurait fait mal qu'il soit déjà obsolète à ce niveau)
On compare le rendement point barre. Et pour les cg ça sera la même chose. Une toute petite minorité qui se touche sur la puissance pure, et la masse qui va juste kiffer jour avec plus de fps.
QUEL PUTAIN DE RAPPORT ??? J'aurai VRAIMENT tout lu comme conneries sur le sujet... Les Français ne s'épargnent plus la moindre connerie. C'est open bar pour tous à l'asile!
@@gedeon_teuzemany bah ton commentaire est un parfait exemple des excès de réseaux sociaux. Déjà tu dis les français en rapport avec un seul message, de plus tu n'apporte aucun arguments tu te contente juste de remuer le rien avec du vide. Donc soit t'es un bot pour agriculture, soit faut que tu stop un peu les réseaux la. T'es atteind.
Super vidéo bien expliqué je comprends mieux maintenant. Je vais sagement attendre les bench et surtout la latence de la 5070 pour l’instant ma 3080 tourne au top !
LOL! Ouais, vas-y: fonce! T'as pas vu les tests? Tout le monde est unanime: c'est une tuerie! Sérieusement: vous avez des assistants pour préparer vos questions, où vous les trouvez vous-même?
Superbe vidéo et perso pour ma part vu ce que fait Nvidia je pense que j'irais probablement chez la AMD, vu qu'ils cherchent plus de perf "brut" parce déjà que je suis pas fan du DLSS alors le frame gen franchement j'aime pas du tout. Si je joue en 4k c'est pour avoir une image nette et bien définie et non pas quelque chose de flou avec de potentiels artéfacts et en plus de la latence lol !
Si l'enfant capricieux que tu es pouvait seulement comprendre les mots quand on lui parle, tu ne serais pas là à être ridicule devant tout le monde. LA LOI DE MOORE C'EST FINI : TOI COMPRENDRE? Et AMD ne fera pas de miracles si Nvidia n'en fait pas (et ça c'était ON NE PEUT PLUS FACILE à deviner, hein... il suffit d'observer leur concurrence depuis des années, bref!) Vous êtes devenus insupportables avec vos petits nombrils de stars ignorantes et non-comprenantes. Vous en avez au moins un petit peu conscience où pas? Déjà que vous vous faites sérieusement enkuler avec le 4K qu'on vous a sorti trop tôt, et maintenant, ça veut une centrale nucléaire parce que ça ne supporte pas un peu de flou sur une technologie prometteuse qui débute... Quel public de merde, sincèrement! Vous rouler dans votre pisse devant tout le monde ne sert à rien, Nvidia n'est pas ta mère et même elle ne peut rien pour toi dans ce cas présent. Alors bonne chance à toi avec AMD qui JUSTEMENT fait lui aussi le choix des IA parce que anyway: LE LOI DE MOORE C'EST FINI! Mets toi ça dans le crâne, de toutes façons il n'y a plus de place dans ton nombril.
Merci pour cette vidéo, elle est vraiment top Par contre j'ai une question. Je joue en 4k Pour jouer aux jeux avec tous les paramètres à fond, et être tranquille dans le futur, dois je me tourner vers la 5090, ou bien la 5080 suffit ? A savoir qu'actuellement j'ai une 3080 qui commence à montrer ses limites Merci
1/ Pourquoi jouer en 4K? Envisages-tu de passer au 8K quand ça va sortir? 2/ Pour jouer avec les paramètres à fond dans tous les jeux et espérer dépasser les 60 FPS, il faut éviter le 4K car les CPU ne suivent pas la puissance des GPU qui le permettent. 3/ Une 5090 est clairement déconseillée tout comme la 4090 parce que le prix est lunaire. Tu ne verras pas un seul influenceur te dire le contraire. Et donc j'en reviens à ma question n°1 : pourquoi jouer en 4K ? Juste un rappel : pour passer du 720P au 1080P, nous avons doublé le nombre de pixels à traiter. Pour passer du 1080P au 4K, nous avons quadruplé les pixels. Crois-tu qu'au moment ou la loi de Moore trouve le mur qu'elle était sensé se prendre un jour, vouloir quadrupler la puissance nécessaire pour faire tourner des jeux soit une bonne idée? Sachant qu'on est partis pour la même CONNERIE avec le 8K et que les gens n'ont toujours pas compris ce que je viens de mettre en avant... Pensez bien à ce que vous faites. Les marchands d'écrans vous ont fait littéralement péter les plombs. A bon entendeur.
@@gedeon_teuzemany Je joue en 4k car j'ai un écran samsung ultrawide. Mais comparé à la 3080, et même la 4080, le gap de puissance sera vraiment réel avec la 5080 ?
Les config "futur proof" n'existent pas vraiment dans le sens où on ne sait pas ce qui nous attend dans 3 ans .. mais force est de constater que plus c'est cher, plus ça dure dans le temps. Mon avis: tu devrais tester le frame generation et le multi frame gen avec le logiciel *Lossless* *Scaling* . Parce que d'une personne à une autre, le ressenti est plus ou moins bon (pour ma part, je déteste, l'impression de latence ne me convient pas du tout, et je n'active JAMAIS le frame gen sur ma 4080) Et pour répondre plus précisément à ta question, il va falloir attendre les tests et les benchmark.. mais la 5090 sera quand même hors de prix. Une 5080 fera le job, d'autant plus si tu "supportes" le MFG.
Tant que ça fait chuter massivement le prix des autres cartes surtout celles des séries 40 🤌🏾 , j’attendrai un petit moment avant d’aller sur les nouvelles 6:13
10:22 Je suis désolé mais tu te trompes sur la question de la rétrocompatibilité .. Le DLSS 4 hors MFG est bien compatible avec TOUTES les RTX. 20. 30. 40. (sauf FG, uniquement 40 bien sûr). "DLSS Override for Model Presets - Enables the latest Frame Generation model for GeForce RTX 50 Series and GeForce RTX 40 Series users, and the transformer model for Super Resolution and Ray Reconstruction for all GeForce RTX users, when DLSS is ON in-game" "With the launch of DLSS 4 alongside GeForce RTX 50 Series GPUs, *all* *GeForce* *RTX* desktop and laptop gamers will receive upgrades, making their games and apps even better." (source : site officiel nvidia)
Excellente vidéo explicative mais quand n’est-il dû fameux plafond de verre comme quoi les générations de cartes graphique auraient atteint un plafond qu’il ne peuvent plus dépasser du coup ce plafond peut-être dépasser par le softwares (la vente de FPS ) ?
On fini par payer une tech au lieu de payer des perfs brut.Enfin bon, jusqu’ici que du marketing et cette année on compte même pas sur amd qui s’est malheureusement ramassé comme pas possible… ça en devient triste les nouveautés cpu / gpu chaque années 😕
attention le dlss 4 sera dispo sur les "oldgen" c'est uniquement le frame generation qui sera dispo sur les 5000 (de se qui est dlss en tout cas tout les nouvelle tech lier au rt a mon avis c pareil)
Au contraire, exactement comme j'en ai rien à branler des défauts des lentilles au cinéma, tout comme les capteurs d'ailleurs, qui cumubulés donnent des déformations de bord d'image, du flou de mouvement, des couleurs pas forcément toujours nettes, des problèmes de profondeur de champ, ben dans les jeux vidéos je suis totalement pour avoir des images qui soient légèrement moins bonnes que celles générées en raster+RT, et ça sera le cas de quasiment tout le monde très rapidement.
Nuancé, technique, des comparaisons intéressantes, des explications des deux opinions tranchées et des explications autant sur le software que sur le hardware ; ça fait du bien d'écouter quelqu'un qui reste dans l'objectivité. J'ai une GTX1070, pas du tout attaché aux graphismes et cette nouvelle génération semble prometteuse. De ce que je constate, Nvidia cherche surtout à créer un bas de gamme et un milieu de gamme abordable pour quelqu'un qui joue de temps en temps et qu'il n'a pas envie de mettre 800$ sur une carte et ceci est un choix marketing intelligence et à l'écoute. Nintendo a fait pareil avec la Switch et parait vouloir faire pareil avec la seconde. Je n'ai pas le DLSS sur la GTX1070 et je ne peux pas m'avancer. Cependant, sur des vidéos RUclips, j'avais du mal à voir les aberrations visuelles sur le DLSS 3.0 avec un oeil attentif. Je ne pense pas qu'en 4.0, en pleine action où plusieurs choses se passent en même temps, que les aberrations visuelles soient flagrantes. Comme tu l'as dit au début, on a atteint ou on est à la limite de Moore. Il y a des matériaux intéressants pour remplacer le silicium utilisé pour les transistors, mais en ayant moi-même étudié un peu la physique quantique, il ne faut pas s'attendre à ce que le silicium soit remplacé dans cette décennie pour un matériel plus performant. L'industrie se tourne de plus en plus vers le carbone comme le graphène ou le nanotube de carbone pour des raisons écologiques, mais aussi de performances. Cependant, c'est toute la façon de faire des transistors qui devra être revue et ça sera un énorme coût dans la recherche et développement. On est dans le creux des développements technologiques en raison des limites atteintes de ces dernières.
Super vidéo comme d'habitude. Je trouve que ces nouvelles cartes graphiques sont inutiles, les RTX de 4060 jusqu'à la 4090 sont plus que suffisantes... c'est simplement pour ce faire plus d'argents.
Merci ! Ce que tu me dis me rappelle les lancements de processeurs tous les ans. On s'est habitué à sauter les générations impaires d'Intel depuis quelques années
Bonne vidéo et surtout c'est bien de parler des limites atomique qui sont en train d'être atteint car j'ai l'impression que tout le monde se plein qu'il n'ait plus d'augmentation de perf brut alors que c'est une limite physique qu'il y a derrière, même si bien sur bcp de marketing mais bon Nvidia reste une entreprise commerciale...
Merci pour la vidéo, j'hésite à prendre une 4090 d'occasion. Je joue essentiellement à MSFS et le DLSS rend illisible les instruments de vol, du coup je suis obligé de désactiver cette fonctionnalité, en tout cas sur ma 3080.
C'est faux, le gain de performance de ne doit pas se faire en rasterisation, il doit se faire en fps. Comme pour tous produits du quotidien, ce que recherche l'utilisateur, c'est le rendement final. On se fou de savoir quelle est la puissance de la voiture, ce qui compte c'est son couple, sa vitesse et sa consommation... Évidement les créateurs de contenu vidéo ont besoins de toujours plus de puissance de rasterisation mais ce n'est pas le cas de l'utilisateur lambda .
C’est pas comparable… la qualité d’image ça compte aussi. Il y a beaucoup d’artefacts avec le frame gen. Il vaut mieux jouer en native que de jouer avec des techno ia plein d’artefacts et qui rajoutent de la latence surtout pour les fps
@@mk2b662 Alors pour les artefacts, il y a une nouvelle techno pour remédier à ce problème : neural rendering capabilities. Pour la latence, il y a aussi une nouvelle techno : reflex 2. Donc bon, on verra à la realase, mais a mon humble avis, on aura de bien meilleurs résultats avec cette dernière mouture, notamment sur du fps. De plus , qui s'intéresse aux artefacts en Fps pvp ? on s'en tape, car la plupart du temps, on n'a pas le temps de les voir. Et pour les fps non pvp du style cyberpunk77 , bon courage pour jouer en natif 4k ^^... enfin dire qu'il y a beaucoup d'artefact avec la frame gen c'est juste de la mauvaise foi, il y en a un peu certe et encore il faut bien chercher...
@@Inielboult75018 Il faut vivre avec son temps, on est à l'ère de l'IA , et cette dernière promet des résultats incomparables avec la puissance de calcul brute... En outre, le diamètre atomique de l'atome de cuivre est de 0.29 nm, donc il devient de + en + difficile de miniaturiser les transistors. Pour augmenter la rasterisation sur une même surface donnée, cela se fera obligatoirement aux prix de la consommation électrique . C'est pourquoi Nvidia a investi des milliards pour remédier à ce problème en passant par l'IA
Je suis désolé, mais tu ne peux pas dire que le gain de performance ne doit pas se faire en rasterisation quand littéralement tout les jeux utilisent la rasterisation. Même les jeux sous ray tracing utilise un peu de rasterisation. Un gain de performance en raster sera TOUJOURS un plus pour l'utilisateur lambda. Le gain de performance graĉe à l'IA (DLSS4) est surtout un outil. Un outil qui permet de masquer les faibles performance en donnant une sensation de fluidité. Mais ça ne change pas le fait qu'à l'heure actuelle, nos cartes sont trop faibles pour qu'on utilise le ray tracing dans nos jeux
@@Ravitas3 Certe , mais si tu préfères avoir une CG qui te donne 100fps grace a la rasteurisation pour 1Kw ou 100fps grâce a l'ia pour 250w c'est a toi de voir. Pour ma part mon choix est vite fait...
Les gens se plaignent des fake frames parce qu'elles ne sont pas réelles, mais n'oubliez pas les amis, aucune de ces images n'est réelle. Une image générée par une IA n'est pas moins réelle qu'une générée par un algorithme.
C'est surtout que le DLSS4 ne sera par supporté par tous les jeux, il faudra un peu de temps avant de pouvoir faire du fps x4 un peu partout. Il me semble qu'une minorité de jeux pourront en bénéficier
Votre remarque demontre votre incomprehention des bases de l'affichage. Pour faire court : les images "non IA" dependent ded action des joueurs au moment de leurs generation alors que celles de l'IA sont genéréd en fonctions des précedentes, independement des touches du joueur. Quel interet d'avoir un affichage fluide si la réacctivitée n'y est pas ? Ce genre de tech c'est ok que pour les jeux conteplatifs à la sable ou heavy rain. Autrement dit aux films interractifs et pas auxjeux dynamiques. Donc on paye pour ne pas avoir plus de réactivité mais pour en perdre
En soit, la 5070 FE est vendu 649€ quand la 4070 est sortie à 659€. A partir de là, on constate rapidement qu'on a déjà mieux pour moins cher. Pour le reste, il convient de rappeler que certaines générations n'apportaient rien de plus que de la puissance supplémentaire, ou l'ajout du RTX qui était presque inutilisable dans de bonnes conditions à sa sortie. Y'a beaucoup de faux débats, la tech logiciel autour des GPU est aussi importante que le GPU en lui même, et la RTX 5070 FE est le meilleur rapport performance/prix qu'on a en ce moment.
Merci pour cette vidéo bien didactique est claire. A mon NVidia ne convainc pas vraiment, ils prennent cette voie par manque de choix pour donner l'impression de continuer à innover. En pratique, le DLSS permettant de passer de 30 à 60 FPS, oui c'est utile. A 120 FPS, clairement beaucoup moins, sauf pour des ultra-technophiles qui, eux, vont être génés par la latence supplémentaire. Par ailleurs, autre problème peu abordé, le DLSS ne marche pas en VR, alors certe c'est une niche, mais c'est la niche qui a le plus désespérément besoin de puissance supplémentaire. Pour les autres, franchement la génération actuelle semble largement suffisante.
Le marketing actuel continue de surfer sur les "nombre de FPS" et non sur l'impression de "fluidité" Pire encore pour les consommateurs et joueurs... Les jeux qui ne sont plus optimisés et doivent utiliser "nativement" les nouvelles technos pour afficher un 30 FPS Depuis une décennie, au global, la performance se dégrade relativement...
quand je pense à l'époque où on nous disait que la gtx 1080ti était la première carte 4k60fps... depuis on sent qu'au gréé des techno inutile (dlss, fsr) ou trop gourmandes (ray tracing) on reste toujours au même point, et même pire car il arrive que même une 4090 n'arrive pas à faire du 4k60fps en natif sans ray tracing. On sent que les nouveau moteur et les pratiques des devs se sont habitués à gaspiller toute la puissance que les nouveaux GPU ont apportés et on commence à avoir des jeux qui ne fonctionne qu'avec ray tracing (star wars outlaws, indiana jones) bourré de bruits qui seront probablement un gros pas en arrière niveau qualité graphique
@@adarion2994 Mec, t'as vu ce que tu consommes comme courant pour ton petit caprice? Tu crois qu'on doit continuer comme ça? Réellement ? Tu veux un GPU de 15 cm de côté sans compter la carte? Tu veux claquer 1500 watts pour avoir ton petit pixel perfect en 4K à 200FPS ? Ce level de caprice chez les gamers... LA loi de moore, c'est comme une loi physique : ne la respecte pas et subis les conséquences. Mais tu peux aussi prier le Dieu des non-comprenants... Ou bien gueuler après les devs qui n'optimisent pas parce que au final, ce sont bien eux qui produisent des bouses qui rament sur un matériel plus que connu et dont on connait les limites par coeur. Le pire c'est que la situation actuelle est meilleure qu'elle ne l'a jamais été. En 25 ans de gaming, je n'ai jamais été aussi bien épaulé en 3D que par ma 4070TI en 1440P . Vous croyez que Stalker 1 tournait du feu de Dieu en 2007 ? ET bien NON! Absolument pas! Et il n'y avait pas de DLSS pour pouvoir y jouer correctement sans avoir à attendre la prochaine génération de GPU. Stalker 2, même studio, une guerre en plus: même optimisation complètement aux fraises, même jeu pas fini : et bien il est plus que jouable après seulement un patch. Mais bien sûr, on entend jamais parler du positif, on entend que les hystériques qui se roulent dans leur pisse de capricieux en prétendant que c'était mieux avant. Et bien NON, ce n'était pas mieux avant. Les jeux qui rament à la sortie, les bugs, les joueurs qui ne peuvent pas lancer tel ou tel jeu... Tout ça, c'était pire par le passé que ça ne l'est aujourd'hui. Mais à vous écouter, la situation empire et le pire, c'est que vous y croyez à cette connerie ALORS QU'ON A TOUTES LES PREUVES QUE NON ET BIEN AU CONTRAIRE. Bref : allez voir vos mamans, car le monde se fout de vos caprices et de votre compréhension toute relative des choses. Peut-être qu'elle peut quelque chose pour votre malheur. En fait, c'est comme pour le RT: d'un côté des blaireaux qui n'y connaissent rien et qui prennent leur putain de nombril pour le centre du monde et de l'autre, LES SEULS qui savent faire évoluer la 3D depuis presque 20 ans, à savoir : Nvidia. Et le RT (non imbécile, ce n'est pas inutile, c'est juste la suite logique de l'évolution en simulation 3D, si tu ne comprends pas ça, va lire au lieu de parler!) Qu'est-ce qui est le plus utile au joueur depuis 20 ans? Une carte graphique digne de ce nom conçue par des gens qui savent de quoi ils parlent et sont d'ailleurs presque les seuls au monde à savoir de quoi ils parlent... où bien une foule de capricieux qui ne VEULENT PAS COMPRENDRE QUE LA LOI DE MOORE EST FINIE ?
@@adarion2994 Oisiveté des devs et précipitation des actionnaires Le combo parfait Pour faire des jeux médiocres Jamais optimisés dont la qualité régresse
Je me permets un modeste conseil. Sois plus actif sur ta chaine youtube . Tu présentes bien, tu t'exprimes bien, et tu sais de quoi tu parles. Tu as vraiment le potentiel de monter ta chaine assez haut. Après si c'est par manque de temps à cause d'un autre taf, c'est dommage mais compréhensible. Si ce n'est pas le cas, ce serait cool d'avoir un peu plus de contenus de ta part.
C'est ma résolution de l'année ! Merci beaucoup pour ton message, j'apprécie vraiment
@@KangetsesPC 🤝
Excellente vidéo et des explications claires et intéressantes merci à toi 😀
@@KangetsesPC vraiment tu gere de fou continue ^^
Je suis parfaitement d’accord
Vous ne pouvez pas imaginer à quel point j'apprécie vos messages qui défilent ce matin depuis le réveil. Apprendre que mon travail et ma façon d'expliquer vous plaisent, c'est une motivation incroyable pour la suite.
Je vois encore beaucoup de choses améliorables dans cette vidéo et j'y travaillerai pour les prochaines.
Merci beaucoup pour vos commentaires !
Si seulement YT n'avait que des vidéos de cette qualité...
C'est précis, technique, synthétisé, vulgarisé, sans faute de grammaire, ni agression visuelle avec des "cut" toutes les 5 secondes...
Merci, pour la peine je m'abonne.
Mais du coup, poire ou pomme ? 🤣 Merci pour ta vidéo Kang !
Ooooh Flooo j'espère que tu as la forme ! Je choisis le verre parce que c'est fragile 🤣
Les Deux l'un n'enpeche pas l'autre
Jure flooo ici
pour toi : poire rectale
Salut Flo tu en penses quoi 😊
Pour avoir poncé le CES et le sujet ces derniers jours, je trouve ta vidéo extrêmement riche en informations, tout en restant très claire et très bien résumée. Chapeau bas ! C'est pas facile de rester accessible dans ce genre de domaine !
21k déjà ?? Ça m'étonne pas ! Continue les vidéos stp 🙏!
Ma réaction tous les jours
Tres intéressant, bien expliqué et agréable à écouter. Bonne continuation je m'abonne 😊
8:40 C'est faux le modèle transformer du DLSS4 (ray reconstruction/ super sampling) sera bien compatible pour les rtx 4000/3000/2000, c'est dans le blog officiel de présentation. Seulement le MFG x4 sera exclusif aux 5000 comme le FGx2 était exclusif aux 4000 (et encore je serai pas surpris que des mods sortent pour pour avoir le MFG sur toutes les rtx comme c'est arrivé pour le FGx2 du DLSS3)
Je devrais préciser : La fonctionnalité la plus interessante et la plus importante du DLSS 4 : MFG n’est pas rétro compatible. Donc le reste du DLSS4, c’est un peu vide quoi 😅
Super video ! Bien expliqué et agréable à suivre. Bravo ^^
Belle découverte ta chaine, c'est carré et pertinent, très bon start: c'est claire, net et précis. J'espère que tu va nous parler des techno AMD aussi.
N'hésite pas a faire un peu d'actu tech si tu a le temps, ca peut être intéressant d'avoir ton point de vu sur certain articles de videocardz.
Je sub et je pouce 👍
Je t'avais découvert sur TikTok (que j'ai désinstallé depuis). Quel plaisir de te retrouver sur YT. Ton contenu est très propre, bien construit et expliqué et j'aime bien ton état d'esprit.
Continue sur YT c'est vraiment top ce que tu fais.
Super vidéo , très intéressante à écouter j'ai compris certaine choses qui étaient encore peu claires cependant je ne sais pas si la majorité pense ça aussi mais je trouve que les musiques de fond choisies ne vont 1 : pas trop avec le ton que tu as dans ta vidéo et font un peu musique pub d'entrepreneur que l'on peut voir sur youtube . Ce que tu dis et la manière dont tu t'exprimes permet de se passer de musique de fond ou alors de prendre des musiques plus discrètes pour habiller simplement la vidéo . Bref hâte de voir tes prochaines videos ;)
J'aime bien tes vidéos ! Continue comme ça :) Hâte de voir ton évolution dans le futur
Très bien amené, clair, concis, pertinent, bref, du contenu de qualité comme il en faudrait plus sur RUclips. Bravo !
Très bonne vidéo ! J'ai vu la dernière vidéo de Jigfio et à un moment, il parle de la latence, et je le rejoins énormément sur ce point. Tout d'abord, en rasterisation ou avec simplement un upscale, plus on a de fps, plus la latence diminue, et c'est principalement ce que recherchent les joueurs, notamment les joueurs e-sport. L'objectif est d'avoir un maximum de fps pour obtenir la latence la plus faible possible. Or, avec le mult generation, on aura une latence de 34 ms pour 248 fps, ce qui correspond à la même latence que pour 71 fps. Le jeu sera plus fluide, car il y aura beaucoup plus de fps, mais les sensations en jeu (mouvement avec clavier et souris) seront celles d’un jeu à 71 fps. Il a affirmé avoir déjà ressenti cela avec le frame generation, où l'on parlait de 140 fps avec 35 ms pour le même cas. Il s'attend à ce que ce soit bien pire avec le mult generation.
Même sans dlss ou autres enfumage il y a frames generations , depuis au moins le début de la série 5000 . Le nombre de fps affiché n' est sûrement pas les fps réels et ça se voit à l' oeil sur les vidéos .
En jeu compétitif tu ne cherches pas à avoir un jeu ultra beau... quand la plupart des joueurs jouent en settings low, pour mieux voir, paradoxalement. Sans compter que s'ils voulaient compter sur le dlss, l'intégration est tellement complexe au vu du relativement peu de titres nous le proposant à l'heure d'aujourd'hui, que je doute que ça en vaille la peine. Non vraiment NVIDIA sortez vous les doigts du cul, le problème uno c'est vraiment l'intégration de vos techs !
@@SiouplaitMerci il y a frame generation si tu l'actives, et uniquement dans ce cas là. t'es genre un complotiste de l'informatique qui croit qu'Nvidia ajoute des images que t'as pas demandé ou c'est comment ?.
@@fabricejaouen378 tous le monde active frame gen sur led recentres cartes. D'ou son propos je suppose
Sans rentrer dans le débat..la réalité est que les 4090 sont hors de prix et ne sont quasi plus dispo en neuf…
Donc le péquin lambda comme moi qui fini une quarantaine de jeu par an sur steam, il va prendre ce qui sera dispo.
La 5090 n’est pas moins performante que le 4090… après si on veut jouer en mult c’est notre problème.
Franchement déjà mettre 2000 boules dans un gpu ça me casse les pieds mais je peux me le permettre à cause d’usage que j’en fait qui n’est pas pour le gaming only.
Simple et efficace
Vivement une video sur l'imput lag !
Merci
Avec des fausses frames, tu m'étonne que l'input lag va être monstreux.
3 frame IA pour une vraie, du coup ton curseur bouge pas pendant 3 frames.
toujours au top vraiment merci pour ces vidéos toujours autant qualitatives
Merci beaucoup ! Bon visionnage ☺
Merci c’était super bien expliqué 👍🏼
Franchement comme je l’ai vu dans un autre commentaire, c’est vraiment dommage que tu n’aies pas un rythme de publication plus régulier. Ça se voit que tu es passionné et que tu sais de quoi tu parles. Ce serait top d’avoir plus de vidéos sur l’actu tech ou les infos hardware. Ça apporterait un vrai plus, surtout par rapport à certains qui balancent plus de fausses infos qu’ils n’expliquent vraiment les choses.
Sinon, c’est du super boulot, tes vidéos sont agréables et faciles à suivre, j’espère vraiment que ta chaîne va continuer à grossir, parce qu’avec la qualité de ton contenu, ça ne peut que marcher.
Tu as très bien résumé la situation et les enjeux autour de ce "progrès" pour les consommateurs
Merci pour cette vidéo super bien expliqué comme d'habitude 😉
Merci à toi 😊🎉
Mec, ta chaîne a vraiment du potentiel, j’aime beaucoup ton contenu la !
T’as pas beaucoup d’abonnés et de vue, mais franchement ton contenu est super tu va faire que monter !
C’est pas Putaclic, c’est sérieux, tes factuel, et simple carré s’est top allez que du soutiens pour toi !!
Super video ! Pour l'input lag, faudra voir si le Reflex 2.0 fait réellement ses preuves :)
merci kang pour cette explication simplifiée et très claire
superbe vidéo je suis entrain de me construire un pc j'ai tout compris grâce à toi, tu expliques super bien ! Seul petit conseil : hèsite pas à refaire certaines phrases plusieurs fois pour les prononcer parfaitement, tu as parfois un petit peu de mal à articuler... mais c'est juste du perfectionnisme, continue comme ca !
Bonsoir, belle vidéo explicative et claire , merci !
Merci car on apprend des choses grâce à tes explications je m’abonne et hâte de suivre la suite !!!
Mervi d'avoir parlé de la loi de moore, quand je dis ça à mon entourage on me regarder comme un illuminé 👍
Lois moore et bientôt morte , techno a la limite de gravures avec les matériaux utilisés actuellement bonne journée
@azakyhoch1960 tout à si on voulait progresser dans cette voie les GPU devraient des parpaings donc une nouvelle voie est à prendre pour rester sur des tailles raisonnable
@@azakyhoch1960 Par pitié, cessez de parler comme ça et apprenez à faire des phrases!
@@traxyzoups HEIN ???
Bordel! Mais RELISEZ VOUS un peu avant de poster! Vous êtes tous des kassoss où quoi???
@gedeon_teuzemany ok Gédéon on donne un point de vue personne n'est obligé de lire nos messages loi de communication 😂
C'était clair, intéressant, documenté. Merci :)
Super vidéo explicative Kang, perso j'attend qu'AMD et NVIDIA sorte leur CG et que des benchs soient fait avant de changer mon setup
Compte sur moi pour les tester !
Hâte de voir tes prochaines, test on reste sur le qui-vive @@KangetsesPC! 🤩
J'ai vraiment tout compris pour le coup, merci à toi pour la vidéo et continue comme ça ! 😄
Je te découvre avec cette vidéo - bravo d'avoir réussi à vulgariser ce sujet et merci pour ce partage de connaissances. Un abo au passage :)
Excellente vidéo, qui remet un peu l’église au milieu du village.
Et si cela ne me gêne pas d’avoir des technos d’upscale et FG, la com de Nvidia volontairement trouble, elle n’est pas honnête.
Il était évident qu’on allait devoir faire « mieux avec pas plus », mais il faut aussi éduquer le consommateur comme tu le fait.
Et puis il reste des points importants en suspend, quid des autres usages ? Le jeu est certes une part importante de l’usage d’un GPU, mais qu’en est il des résultats en modélisation 3D, ou en encodage vidéo ?
Et enfin, mais ça c’est plus général, cela pose tout de même une question importante, celle du transfert de la responsabilité d’optimisation. Aujourd’hui ce sont les cartes qui « optimisent » les rendus, là où avant c’était les moteurs. Cela implique donc que seuls ceux qui ont les moyens d’acheter ces cartes pourront jouer correctement, là où avant c’est en achetant le jeu que tu étais assuré de jouer. Et ça me pose un soucis je l’avoue
Pas honnête?
Pourtant elle est hyper claire : ils vendent de l'IA. Il le dit clairement "impossible sans IA".
Bref, vous êtes vraiment rendus fragiles aujourd'hui, hein... Toujours un truc à redire.
Merci beaucoup, ça a répondu à beaucoup de questions que je me posais
Contenu clair, concis et bien expliqué. Beau boulot !
super vidéo explicative ca va ouvrir les yeux a certain !!
Bonsoir Kang 🫡, merci beaucoup pour toutes vos explications sur la carte 🙏👏👏
Merci pour le visionnage et le message 😊
Salut !
D'abord, merci pour cette vidéo, tu revient très clairement sur le débat en cours et tu expliques bien les choses ! Vraiment hyper intéressant sur l'IA. :)
Je me permets quelques critiques concernant cette polémique, car je ne suis pas d'accord sur tout. Concernant les test de Nvidia, je suis d'accord sur le fait qu'on ne peut pas comparer deux choses comme si elles avaient les mêmes caractéristique alors que ce n'est pas le cas, faisant de ce test un test mensonger par omission. En revanche, je ne suis pas d'accord pour dire que c'est incomparable ! Car cela compare quand même les capacités des deux gammes. Je reconnais en revanche que cela aurait été plus pertinents de présenter plusieurs test en fonction de différents protocole. Les voici : 1/ Rastérisation 2/ A techno égale (DLSS, Ray-tracing) 3/Avec les ajouts technos de la gamme 5000. Mais la réalité, c'est que la rastérisation.... On s'en fout. C'est finie cette époque, les résultats concrets passent désormais par les technos. AMD commence déjà à prendre cette voie.
Je suis 100% d'accord pour dire que le marketing de Nvidia est frauduleux, en revanche c'est faux de parler de "fake fps". Cette expression n'a absolument aucun sens. Déjà, parce que les technos s'appuient sur des ajouts hardware (on pense aux fameux Ray tracing core par exemple), en suite parce que, technos ou pas, il y a réellement un résultats visuels. Je suis d'accord que le DLSS peut créer des artefacts et autres et que aujourd'hui 144fps en DLSS est forcément un peu moins beau que 144fps en puissance brut. Mais déjà, plus le temps avance moins il est raisonnable et possible de créer de la puissance brut capable de faire tourner des jeux en 144fps à haute résolution mais en plus, la réalité, c'est que les artefacts sont quasiment imperceptible en pleine action et que le DLSS ne va cesser de s'améliorer et d'être pris en compte par les devs de JV. On le voit dans ta vidéo avec un expert qui trouve difficilement des failles visuels.
Les critiques autours du fait que Nvidia créer des "fake fps" parce qu'ils ne s’appuient plus sur de la puissance brut résulte d'une vision passéiste (relative à la loi de Moore, je pense) qui consiste à croire que l'évolution du JV et plus largement de la tech ne doit s'appuyer que sur du hardware. Nous arriverons, un jour ou l'autre, à la suprématie du software et ça, Nvidia l'a bien compris (aussi frauduleuse que soit l'entreprise). Je le redis, mais le temps de la puissance brut est terminé. Nous rentrons dans une nouvelle ère.
Ce que nous devrions d'avantage dénoncer, c'est le fonctionnement bassement mercantile de la direction de Nvidia (qui est évidemment concomitant à ses velléités capitalistique, en tant qu'entreprise capitaliste). Les 5000 vont sûrement être un gamme qui va le plus révolutionner le JV et la manière dont on créer des jeux, mais c'est un problème que ces innovations soit destinées à faire du profit plutôt qu'à faire évoluer le progrès humain.
Merci encore pour la vidéo cependant, c'est clair, concis et intéressant !
Enfin de la vraie compréhension et pas à l'arrache.
Merci d'être là. Ton com dans cet océan de niaiserie, c'est presque de la grande littérature. 😀
Bonjour, bonnes explications, n'étant plus tout jeune (mais ce n'est pas pour ça que je ne suis plus capable de jouer 😄), j'avoue que j'étais un peu perdu dans le monde des cartes graphiques, et maintenant j'y vois bien plus clair. En gros, vu que l'on arrive à une limite physique, on n'a pas vraiment plus le choix, la solution est le sofware. En espérant que les cartes graphiques seront toutes aptes à gérer cet IA sans trop "pomper" sur le processeur que l'on devrait aussi changer...
mais c est incroyable comment c est clair , j avais pas compris grand chose pendant la conv mais la nickel , merci chef T.T
j'aurais imaginé une chose pour réduire le cout de fabrication des carte graphique, vu qu'on ne peut plus réduire la taille des transistors et si on veut plus de coeurs par la suite ce qui va donc augmenter la taille du proc sur les plaques de silicium et augmenter le gaspillage de matière, pourquoi pas séparer les coeurs shaders, RT, IA sur 3 des processeurs différents ? qu'on réunira après sur un même PCB, ce qui pourrait nous faire imaginer ensuite des carte graphique avec des versions sans processeur IA ou sans processeur RT par exemple, on aurait des RTX 6090/80/70 et leur déclinaisons GTX 6090/80/70 pour 2x moins chère mais les mêmes perf pour la rasterisation. ou alors il faut créer un nouveaux procédés d'impression des proc sur des plaques de silicium carré et pas rond pour plus qu'il y est de gaspillage dans un premier temps.
Je m’abonne analyse pointue et questionnement exacte sur nos attentes merci
comme les autres commentaires, je trouve cette video de vulgarisation presque parfaite. +1 abonné
J'ai déjà vu tes shorts,je m'abonne si ça peut te motiver à développer ta chaine :) Au sujet des RTX j'étais enthousiaste lors de l'annonce mais avec le recule j'attends de voir car le 30-->200fps en activant toutes les technos à fond ça me semble trop beau pour être vrai surtout quand tu vois la latence qu'annonce nvidia c'est faiblement réduit par rapport à la gen précédent.. je pense que les joueurs ne pousseront pas tous les curseurs à fond donc content de voir que tu ne te fais pas avoir par le marketing! J'attends de voir aussi les annonces d'AMD au sujet de la RX 9070XT si le positionnement tarifaire est intéressant ça peux être une alternative, surtout qu'apparemment ils envisagent de faire machine arrière et de rendre le fsr4 compatible avec les cartes de la génération précédent.. si vous avez une 7900xtx ne la foutez pas sur leboncoin un conseil!
Merci pour ces explications qui devraient permettres aux "dinosaures de la tech" qui ne comprennent pas les choix d'évolution d'NVIDIA vers l'IA, qui a bien compris que l'augmentation de la puissance de calcul pour du rendu en rasterisation est mort avec la loi de Moore. Tant mieux si l'IA permet de tripler les FPS !!! vrais ou fausses images on sera bientôt fixé sur le résultats final
Très bonne analyse 👍 les gains vont être vite vu 5 à 6% sur toutes les cartes sauf la 5090 33% sur leurs aînés respectifs
Je monte dans le bus ! Merci pour tes vidéos 😊
@@FC-qr9te Je t’accompagne en fond alors 😋
quand on vois la taille du PCB qui fait la moitié de la taille du dissipateur n'est t'il pas possible d'en faire une plus grosse? (peux être par ce que ça demanderait trop de jus pour tout alimenté?)
Tu perds ton temps avec des questions comme ça. Temps qui serait précieux pour aller lire un peu sur le sujet.
Désolé petit chou, donne moi ton paypal je vais rembourser ton temps perdu ❤
Du coup nos CG pourront généré des images via prompt ? logiquement ?
Elles le peuvent déjà depuis longtemps avec stable diffusion...
Je ne vois pas en quoi la ggdr7 permettrait le DLSS4.
La 4090 a une bande passante mémoire bien plus grande que la 5070 par exemple.
Ce n’est pas ce qu’il a dit 😂
Il y a tout simplement un plus grand nombre de modules logiciels qui utilisent simultanément la mémoire, les anciennes technos continuent à en avoir besoin , elles ne sont pas remplacées mais on ajoute d'autres besoins en bande passante. du coup il est nécessaire de l'augmenter
T'as oublié le point d'interrogation ?
Tout simplement parce qu'il se trompe dans cette vidéo... la quantité de AI cores et la GDDR7 ne sont là que pour permettre un MFG de qualité (on l'espère en tout cas...).
MAIS le DLSS 4 est compatible avec toutes les RTX.
Bonjour , jaurais une question car ji connais trop rien , j'ai une 3070 , vis a vis d'une 5070 y a une augmentation ?
oui
La 3070 beneficiera du Dlss 4 mais pas du multi frame generation. Mais meme sans l'IA il y a quand meme un large gap entre une 3070 et une 5070. Ce qui est dommage c'est les 12Go seulement de Vram. Si tu peux la 5070Ti sera d'avantage future proof. Pour ma part je vais passer d'une 3080 a une 5080.
@@maxime_7165 OK , je viserai une ti alors . Les fps je m'en fou un peu mon écran bloqué à 144 ce qui est largement suffisant mais je voulais juste plus de puissance de calculs donc si la ti vaut plus le coup banko
J'ai découvert ta chaîne et apprécie énormément ta vidéo, tu as de l'avenir dans le RUclips Game Français.
Bonjour, Merci pour cette vidéo, je me permet de vous poser une question qui me dérange et qui me rends malade si vous permuter, Jai une ASUS Ws X299 Sage/10G avec une carte RTX 3090, 128 gb DDR 4 et je fais du montage vidéo avec Davinic Resolve Studio, ainsi avec Adobe première pro au par-avant, mais Ca crach tout le temps, une fois lors de l'export ou pendant le montage, malgré l'optimisation de Davinci, ça plante, et pourtant j'ai le dernier Bios, moi j'en suis sur c'est un paramétrage qu'il faut ajuster dans le Bios afin d'optimiser la carte mère, vu votre expérience, je pense que vous pouvez m'aider et m'orienter dans ce sujet SVP, un grand merci. meilleures salutations. je vais m'aboner à votre chaine, c'est cool.
Gratos?
Bein y a google, non? Y a les forums dédiés aussi , non?
T'as essayé au moins avant de considérer que les youtubeurs étaient à ton service?
J’ai appris qqch et je trouve le travail sur cette vidéo excellemment bien réalisé, je m’abonne.
Très bonne vidéo. Mais j’aurais un point à préciser : le modèle transformer n’est pas réservé aux RTX5000, toutes les RTX vont y avoir droit pour les DLSS Super Resolution.. La seule exclu 5000, c’est le MFG.
NON. Il y a le neural rendering aussi.
@@gedeon_teuzemany tu es sûr à 100% que c'est une exclu RTX 5000 ? Je ne trouve pas la réponse .. il y a un article en anglais sur le site de nvidia qui en parle comme un outil SDK développeurs, mais le doute plane quand même beaucoup sur la rétro compatibilité. Rien n'est précisé..
Pour le moment rien de confirmé pour le neural rendering exclu 5000. D’autant plus que ça a été présenté en 2023 sur des 4000, notamment la 4090.
"la 5080 ne prends que 40€ par rapport à la 4080, c'est négligeable" Ouais et la 4080 par rapport à la 3080 ? En faite vous vous êtes pris une douille en amont et maintenant vous validez les prix actuels.
C'est une bonne nouvelle, je suis un joueur et eu utilisateur d'IA local pour mon taff. J'ai acheter une 3090 justement pour sa 25Go de VRam pour l'IA. ET voir que les prochaines cartes sont booster pour l'IA est vraiment une bonne chose. Mettre ce prix uniquement pour jouer, c'est hors de question.
Superbe vidéo,
J'ai une rtx 4080 super et je viens de regarder sur le site de NVIDIA, en fait si je comprend bien, pour lke DLSS 4 , on aura juste pas la génération multi-images avec DLSS, EN REVANCHE on aura droit à la nouvelle génération d’images avec DLSS (simple et non multi), à la nouvelle reconstruction de rayons avec DLSS, à la super résolution avec DLSS et au nouveau DLAA ?
3:03 une des solutions pourrait être de commencer à transitioner sur une architecture plus efficace comme le Risc-v/. Arm, surtout aux niveaux des consoles qui ont des configurations fixes donc ça devrait pas être trop violent pour les devs
Risc-v est open source, unix et linux le sont aussi donc ils ont qu'à baser leurs futurs os là dessus pour faire plus rapide
Merci pour cette vidéo très claire ! On comprend beaucoup mieux les choses maintenant ! Le DLSS4 a l’air prometteur mais combien de jeux seront compatibles au lancement de ces cartes et d’ci la fin de l’année 2025 🤔
Salut j’ai une question le dlls 4 et compatible pour la les rtx 4000
Ceci n'est pas une question mais un manque de respect.
Pas de verbe, pas de ponctuation... tu obliges ton interlocuteur à te relire pour te comprendre alors que tu as eu le culot de ne pas te relire pour te corriger.
Tu mérites que personne ne te réponde, d'autant que anyway, ta question est bonne pour google. Si tu veux t'exprimer comme un goret sans instruction, il y a les moteurs de recherche pour ça.
Oui, mais pas le Multi Frame Generation. Le DLSS 4 changeant de modèle, donc tu auras moins d'artefact visuels, plus de qualité (et surtout moins, voire plus du tout, de ghosting), une consommation de vram légèrement réduite et une latence améliorée, mais tu ne pourras pas bénéficier du MFG, seulement du Frame generation classique.
Alors j'ai une carte de 2019 donc il faut que je prenne pas une rtx 50 ? (Je veux me mettre à jour) Pour beaucoup de jeux surtout les gros pour jeux avec tout au max.
très bonne vidéo, je pense que ma 4070 ti a encore de belle journée devant elle 😁
Perso je vais prendre la 5070 ti en échange de ma 4070 ti, pas pour le gaming mais surtout pour l'AI. 640 AI TOPS contre 1406 c'est pas négligeable + les 4go de VRAM en plus.
NVidia a annoncé que le réseau transformer sera compatible avec tous les GPU précédents (jusqu' aux 20xx). La mémoire G7 est indispensable pour le MFG, pas pour le transformer.
La différence actuellement mesurée d'input lag (sur Cyberpunk il me semble) passe de 51ms à 57ms quand on passe du frame gen classique au 4x (d'ailleurs ce 4x c'est 3 frames générées par IA). Je pense que ce 4x c'est pour ceux qui ont un écran 240hz minimum et qui veulent avoir un max de fps dessus.
Les gens crient aux "fake frames" mais en réalité ça apporte une vraie fluidité, et avec les updates réguliers, les artefacts sont de moins en moins visibles. Aujourd'hui sur Witcher 3, les artefacts sont imperceptibles, alors qu'ils l'étaient sur Horizon FW, ou sur Ratchet&Clank à leur sortie (je n'ai pas retesté depuis)
NVIDIA ont clairement menti sur la puissance de la RTX5070 12Gb en disant qu'elle serait aussi puissante que la RTX4090 24Gb ce qui est totalement faux . (Sachant qu'ils joue sur les mots , ce serait grâce aux Software qu'elles seraient aussi puissante , mais en performance brut sans les soft c'est de la daube).
Ou alors ils disent en même temps que les software sur RTX5000 ne seront donc pas compatible avec les 4000/S ... Ce qui serait donc honteux non ??
Aller je commence le visionnage de cette vidéo et je m'abonne ! En espérant qu'on ait la même passion > la technologie ! 😁💯
PS: Attention la première génération en GDDR7 n'est pas si incroyable comparé à la GDDR6/6X . D'ailleurs on peu facilement ce rendre compte que la GDDR6X étaient bien plus intéressante niveau conso/perf que la première génération en GDDR7. 😉
Pour info la 5070 12Gb a donc 192bits (ce qui va énormément limiter la vitesse de la bande passante de la mémoire donc de la GDDR7) , on va donc obtenir > 672 GB/s pour le total de la même (le total de la vitesse de la bande passante) , sachant qu'on aurait dû avoir encore plus avec le passage en PCIe 5.0 ... Ce qui n'a pas l'air d'être le cas on ne vois quasiment pas la différence entre le PCIe 4.0x16 et le PCIe 5.0x16 .
(On aura des puces VRAM en GDDR7 @2333Mhz , pour rappel la GDDR6X était excellente car des fréquences bien plus faible (6X @1500Mhz max) pour une meilleure conso ... Mais c'est la aussi qu'on peu voir le gain même si c'est un peu trompeur on aura donc 28 000Mhz sur 12Gb de GDDR7 en 192 bits contre > 21 000Mhz pour 12Gb en 192 bits pour la RTX4070 classique (sachant que la fée GDDR6X était @1313Mhz par puce) et la bande passante mémoire @504GB/s .... Donc en réalité on va donc gagné à peine 7000Mhz sur la 5070 comparer a la 4070 . Et donc on passe de 504Gb/s sur la 4070 à 672Gb/s sur la 5070 donc disons un gain d'environ 12% pour la 5070 (+164 GB/s à peu près) ...
Maintenant vous voyez ou je veux en venir ? C'est physiquement impossible que la RTX5070 12Gb soit aussi performante que la RTX4090 24Gb . Elle sera juste 15% (aller on va dire comme pour toute les autres une moyenne de 25% de performance supplémentaire brut) que la RTX4070 (j'ai même pas pris la peine de comparer avec les autres variante de la 4070 Ti/TiS etc) .
Conclusion si la RTX5070 12Gb est à peine 20 à 30% plus performante que l'ancienne RTX4070 (en GDDR6X car elle existe en non X , mais c'est kiff kiff car la GDDR6 standard monte @2400Mhz voir un peu plus selon les gammes) .
Je voulais prendre un autre exemple comme la RX7700XT 12Gb qui sur le papier est la concurrente direct de la RTX4070Ti 12Gb (sachant que pour la VRAM c'est identique sur la 4070 et la 4070Ti > vitesse bande passante mémoire de 504GB/s) .
>> RX7700XT 12Gb > GDDR6 standard @2250Mhz par puce soit 18 000Mhz au total) sur un bus identique 192bits > vue que c'est pas de la GDDR6X (un peu plus rapide que la 6 standard) on obtient donc > 432Gb/s pour la vitesse bande passante mémoire contre 504Gb/s pour les 4070/4070Ti soit a peine 72Gb/s en moins (et pour les fréquences globale > 18K contre 21k MHz donc 3000Mhz d'écart (soit 3Gb/s d'écart) .
Pour résumer faut savoir que SK-Hynix par exemple sur leurs site officiel ont annoncé que la GDDR7 serait 3 fois plus rapide/performante que la GDDR6 standard... On ce rend compte que ce ne sera pas du coup 3 fois mais seulement 1.5 fois grand max pour le moment , car c'est Samsung le leaders sur ce type de puce et eux même ont dit que la nouvelle génération en GDDR7 effectivement serait 3 voir 4 fois plus rapide mais qu'ils en avaient pas encore sortie (ce serait donc en cours de production et ils ont prévu de la GDDR7 de meilleurs qualité sur d'autres gamme qu'on à pas encore vue comme une probable variante de la 5080 16Gb avec 24Gb au lieu de 16Gb). En bref la technologie en GDDR7 n'est pas encore abouti . Et si NVIDIA le font c'est uniquement parce-qu'ils ont acheter l'exclusivité sur la première génération en GDDR7 (ils avaient fait pareil avec la GDDR6X d'ailleurs , quand on ne peu pas produire pour tout le monde et bien ce sera le fabricant qui sort le plus gros chèque qui sera servi en premier) .
Donc j'aimerais qu'on m'explique ?? Elle est où la puissance incroyable promis par SK-HYNIX et Cie de la GDDR7 ? Car pour le moment c'est pas ultra stupéfiants quand on regarde en détail les specs des RTX5070/5070Ti/5080/5090/5090D ... (De plus vous verrez que les test afficher sur le site de SK-HYNIX c'était sur un BUS de 384bits , donc attention aux pièges marketing) .
"IMPOSSIBLE SANS IA"
Clairement dit et répété pendant toute la présentation du CES.
Tu devrais aller apprendre la définition du verbe "mentir".
Et NON, il n'y a rien de honteux dans le fait qu'une ancienne techno ne soit pas compatible avec une nouvelle techno: est-ce que ta Twingo peut se recharger comme une ZOE???
Vous êtes VRAIMENT chiants, ne rêvez pas, hein: rien d'autre ne ressort des paroles des ignorants capricieux.
La loi de Moore tend à être dépassé mais elle reste valabe sur de nombreux autres composants.
Pour les gens qui font de l'IA sur leurs infrastructures, la série 5 est un plus énorme. La vitesse de transfert est essentiel. ET la nouvelle génération pour l'IA est TOP.
J'utilise aujourd'hui des RTX4090/4080/4050 et des Jetson Nano.
Le blackwell est donc un plus.
Concernant le marché, l'IA sur le SAAS (cloud) coute de 3 à 10 fois plus cher que sur sa machine, et l'impact RSE (écologique) des datacenters et leurs conso en énergie devient un probleme. Donc transférer le calcul vers les postes clients fait que le marché du gaming va perdre de l'importance pour NVIdia en faveur de l'IA domestique.
Et puis avec une 4090 on flirte avec le max en rendu pour le gaming....
Vous aviez raison sur l'impact conso des tranformers qui génèrent énormément plus d'inférences (mais ENORMEMENT). Si je dis cela c'est que j'utilise des CNN, transformers, RNN, etc sur des RTX4090, donc Nvidia a changé son algo d'augmentation du FPS pour l'IA. Par contre avec ou sans série 5 hors génération d'image pour le gaming, on peut faire du RNN, CNN, Transformers, etc...
Chouette format je m'abonne
la rasterization est finit depuis l'epoque gtx 1080 ti , apres cette carte nvidia n'avait plus le choix que de relancé la methode de creation de contenue 3D et ce pour pouvoir vendre des cartes a nouveau et commencé une autre ére de développement graphique , mais le probléme est qu'nvdia ne c'est pas arreter la , maintenant chaque lancement on des architecture nouvelle rendant la précédente toute obsolète
hello, merci pour ton contenu. J'ai reçu pour Noel une 4070 super, je peux la renvoyer et me faire rembourser pour prendre une 5070. Tu penses que c'est un bon deal ou pas ? :D
Échec, la loi de Moore n'est pas une hypothèse, c'est une directive de l’exécutif général d'Intel. Elle a seulement été abrogée lors d'un de leurs conseil d'entreprise.
Très bonne vidéo, mais petit rappel concernant le "mensonge historique". En 2022, la vidéo de présentation officielle du DLSS 3 mentait déjà quant au gain de performance, avec de mémoire une vidéo de Cyberpunk qui faisait passer le jeu de 25 fps à 125 fps. Et ce n'est pas un mensonge en soit, c'est vrai. Sauf qu'on sait aujourd'hui, tout le monde est d'accord avec ça, qu'il faut un minimum de 60 fps brut pour que l'input lag soit "ok" (personnellement je n'aime pas parler des chiffres sur ce sujet, la seule manière de comprendre c'est l'expérimenter.. et pour ma part, je trouve la sensation horrible. La sensation que la souris lag quand on fait tourner la caméra. Suffisamment en tout cas pour que ça paraisse chelou (difficile de l'exprimer avec des mots, encore une fois il faut l'expérimenter, et tout le monde n'y sera pas sensible de la même manière).
Et pour finir, je fais partie de la catégorie de personnes qui ne demandent rien de mieux que 60 fps fixe. Pourquoi est-ce que j'irais activer des fake frames pour doubler ces fps si je suis impeccablement satisfait de 60 fps ? Et qu'en plus je perds en latence... non merci :)
Je rajouterai quand même que j'ai hâte de tester le DLSS 4 sans FG, les améliorations en terme de ghosting et de netteté ont l'air au top ! Heureusement, je n'aurai pas besoin de changer mon laptop pour en profiter (avec une 4080 ça m'aurait fait mal qu'il soit déjà obsolète à ce niveau)
Très bonne video c'est rafraichissant! ont ne peut que etre d'accord. tu ne dit que des faits que peu comprennent, merci.
Si on compare la production de deux agriculteurs un qui travaille l'un à la main et l'autre qui travaille au tracteur, compare t-on la même chose ?
On compare le rendement point barre. Et pour les cg ça sera la même chose. Une toute petite minorité qui se touche sur la puissance pure, et la masse qui va juste kiffer jour avec plus de fps.
QUEL PUTAIN DE RAPPORT ???
J'aurai VRAIMENT tout lu comme conneries sur le sujet... Les Français ne s'épargnent plus la moindre connerie. C'est open bar pour tous à l'asile!
@@gedeon_teuzemany bah ton commentaire est un parfait exemple des excès de réseaux sociaux. Déjà tu dis les français en rapport avec un seul message, de plus tu n'apporte aucun arguments tu te contente juste de remuer le rien avec du vide. Donc soit t'es un bot pour agriculture, soit faut que tu stop un peu les réseaux la. T'es atteind.
@@kazkillza 👌👌🤣🤣😂😂
Super vidéo bien expliqué je comprends mieux maintenant. Je vais sagement attendre les bench et surtout la latence de la 5070 pour l’instant ma 3080 tourne au top !
Les FPS, y a que ça qui vous fait bander dans une CG ?
Très bonne vidéo vous avez un vrai talent merci 👍
Salut, J'aimerai savoir si ça vaut le coup de passer d'une 7900xtx à une Rtx 5080 ? Merci
LOL!
Ouais, vas-y: fonce! T'as pas vu les tests? Tout le monde est unanime: c'est une tuerie!
Sérieusement: vous avez des assistants pour préparer vos questions, où vous les trouvez vous-même?
@gedeon_teuzemany t'es obliger d'être désobligeant c'est fou ça.
Superbe vidéo et perso pour ma part vu ce que fait Nvidia je pense que j'irais probablement chez la AMD, vu qu'ils cherchent plus de perf "brut" parce déjà que je suis pas fan du DLSS alors le frame gen franchement j'aime pas du tout. Si je joue en 4k c'est pour avoir une image nette et bien définie et non pas quelque chose de flou avec de potentiels artéfacts et en plus de la latence lol !
Si l'enfant capricieux que tu es pouvait seulement comprendre les mots quand on lui parle, tu ne serais pas là à être ridicule devant tout le monde.
LA LOI DE MOORE C'EST FINI : TOI COMPRENDRE?
Et AMD ne fera pas de miracles si Nvidia n'en fait pas (et ça c'était ON NE PEUT PLUS FACILE à deviner, hein... il suffit d'observer leur concurrence depuis des années, bref!)
Vous êtes devenus insupportables avec vos petits nombrils de stars ignorantes et non-comprenantes. Vous en avez au moins un petit peu conscience où pas?
Déjà que vous vous faites sérieusement enkuler avec le 4K qu'on vous a sorti trop tôt, et maintenant, ça veut une centrale nucléaire parce que ça ne supporte pas un peu de flou sur une technologie prometteuse qui débute...
Quel public de merde, sincèrement! Vous rouler dans votre pisse devant tout le monde ne sert à rien, Nvidia n'est pas ta mère et même elle ne peut rien pour toi dans ce cas présent.
Alors bonne chance à toi avec AMD qui JUSTEMENT fait lui aussi le choix des IA parce que anyway: LE LOI DE MOORE C'EST FINI!
Mets toi ça dans le crâne, de toutes façons il n'y a plus de place dans ton nombril.
@@gedeon_teuzemany Tu veux pas aller boire une verveine ? T'as l'air bien tendu.
Merci pour cette vidéo, elle est vraiment top
Par contre j'ai une question.
Je joue en 4k
Pour jouer aux jeux avec tous les paramètres à fond, et être tranquille dans le futur, dois je me tourner vers la 5090, ou bien la 5080 suffit ?
A savoir qu'actuellement j'ai une 3080 qui commence à montrer ses limites
Merci
1/ Pourquoi jouer en 4K? Envisages-tu de passer au 8K quand ça va sortir?
2/ Pour jouer avec les paramètres à fond dans tous les jeux et espérer dépasser les 60 FPS, il faut éviter le 4K car les CPU ne suivent pas la puissance des GPU qui le permettent.
3/ Une 5090 est clairement déconseillée tout comme la 4090 parce que le prix est lunaire. Tu ne verras pas un seul influenceur te dire le contraire. Et donc j'en reviens à ma question n°1 : pourquoi jouer en 4K ?
Juste un rappel : pour passer du 720P au 1080P, nous avons doublé le nombre de pixels à traiter. Pour passer du 1080P au 4K, nous avons quadruplé les pixels. Crois-tu qu'au moment ou la loi de Moore trouve le mur qu'elle était sensé se prendre un jour, vouloir quadrupler la puissance nécessaire pour faire tourner des jeux soit une bonne idée? Sachant qu'on est partis pour la même CONNERIE avec le 8K et que les gens n'ont toujours pas compris ce que je viens de mettre en avant...
Pensez bien à ce que vous faites. Les marchands d'écrans vous ont fait littéralement péter les plombs.
A bon entendeur.
@@gedeon_teuzemany Je joue en 4k car j'ai un écran samsung ultrawide.
Mais comparé à la 3080, et même la 4080, le gap de puissance sera vraiment réel avec la 5080 ?
Les config "futur proof" n'existent pas vraiment dans le sens où on ne sait pas ce qui nous attend dans 3 ans .. mais force est de constater que plus c'est cher, plus ça dure dans le temps.
Mon avis: tu devrais tester le frame generation et le multi frame gen avec le logiciel *Lossless* *Scaling* . Parce que d'une personne à une autre, le ressenti est plus ou moins bon (pour ma part, je déteste, l'impression de latence ne me convient pas du tout, et je n'active JAMAIS le frame gen sur ma 4080)
Et pour répondre plus précisément à ta question, il va falloir attendre les tests et les benchmark.. mais la 5090 sera quand même hors de prix. Une 5080 fera le job, d'autant plus si tu "supportes" le MFG.
Thanks très bon résumé 😮
Tant que ça fait chuter massivement le prix des autres cartes surtout celles des séries 40 🤌🏾 , j’attendrai un petit moment avant d’aller sur les nouvelles 6:13
Video très interessente merci perso j'attend de pouvoir preco ma 5090 😊
10:22 Je suis désolé mais tu te trompes sur la question de la rétrocompatibilité .. Le DLSS 4 hors MFG est bien compatible avec TOUTES les RTX. 20. 30. 40. (sauf FG, uniquement 40 bien sûr).
"DLSS Override for Model Presets - Enables the latest Frame Generation model for GeForce RTX 50 Series and GeForce RTX 40 Series users, and the transformer model for Super Resolution and Ray Reconstruction for all GeForce RTX users, when DLSS is ON in-game"
"With the launch of DLSS 4 alongside GeForce RTX 50 Series GPUs, *all* *GeForce* *RTX* desktop and laptop gamers will receive upgrades, making their games and apps even better." (source : site officiel nvidia)
Tu n'inclus pas Intel dans les fabricants de CG ?
Ils partent de loin mais c'est quand même pas n'importe qui ?
Excellente vidéo explicative mais quand n’est-il dû fameux plafond de verre comme quoi les générations de cartes graphique auraient atteint un plafond qu’il ne peuvent plus dépasser du coup ce plafond peut-être dépasser par le softwares (la vente de FPS ) ?
Regardes la vidéo. Et si c'est déjà fait, dans ce cas tapes dans google "tuto comment comprendre une vidéo".
🙄
@gedeon_teuzemany faut vraiment que tu te détende t'es quel genre de cancer toi sérieux ?
Désolé pour le troll, mais là...
On fini par payer une tech au lieu de payer des perfs brut.Enfin bon, jusqu’ici que du marketing et cette année on compte même pas sur amd qui s’est malheureusement ramassé comme pas possible… ça en devient triste les nouveautés cpu / gpu chaque années 😕
attention le dlss 4 sera dispo sur les "oldgen" c'est uniquement le frame generation qui sera dispo sur les 5000 (de se qui est dlss en tout cas tout les nouvelle tech lier au rt a mon avis c pareil)
Le modèle transformeurs du DLSS 4 sera compatible sur les génération précédente jusqu'au 2000 c'est le mult génération c'est uniquement sur les 5000
@@lvk1562merci de la précision dans ce cas, n’empêche que ça reste vendre une tech et pas un produit 😕
@@quentinbuys5752bien vu, merci de la précision
Au contraire, exactement comme j'en ai rien à branler des défauts des lentilles au cinéma, tout comme les capteurs d'ailleurs, qui cumubulés donnent des déformations de bord d'image, du flou de mouvement, des couleurs pas forcément toujours nettes, des problèmes de profondeur de champ, ben dans les jeux vidéos je suis totalement pour avoir des images qui soient légèrement moins bonnes que celles générées en raster+RT, et ça sera le cas de quasiment tout le monde très rapidement.
Nuancé, technique, des comparaisons intéressantes, des explications des deux opinions tranchées et des explications autant sur le software que sur le hardware ; ça fait du bien d'écouter quelqu'un qui reste dans l'objectivité. J'ai une GTX1070, pas du tout attaché aux graphismes et cette nouvelle génération semble prometteuse. De ce que je constate, Nvidia cherche surtout à créer un bas de gamme et un milieu de gamme abordable pour quelqu'un qui joue de temps en temps et qu'il n'a pas envie de mettre 800$ sur une carte et ceci est un choix marketing intelligence et à l'écoute. Nintendo a fait pareil avec la Switch et parait vouloir faire pareil avec la seconde.
Je n'ai pas le DLSS sur la GTX1070 et je ne peux pas m'avancer. Cependant, sur des vidéos RUclips, j'avais du mal à voir les aberrations visuelles sur le DLSS 3.0 avec un oeil attentif. Je ne pense pas qu'en 4.0, en pleine action où plusieurs choses se passent en même temps, que les aberrations visuelles soient flagrantes. Comme tu l'as dit au début, on a atteint ou on est à la limite de Moore. Il y a des matériaux intéressants pour remplacer le silicium utilisé pour les transistors, mais en ayant moi-même étudié un peu la physique quantique, il ne faut pas s'attendre à ce que le silicium soit remplacé dans cette décennie pour un matériel plus performant. L'industrie se tourne de plus en plus vers le carbone comme le graphène ou le nanotube de carbone pour des raisons écologiques, mais aussi de performances. Cependant, c'est toute la façon de faire des transistors qui devra être revue et ça sera un énorme coût dans la recherche et développement. On est dans le creux des développements technologiques en raison des limites atteintes de ces dernières.
Merci pour ta vidéo Kang 👍
Très bonne vidéo.
De mon point de vue ces RTX empruntent le bon chemin.
La rasterisation est morte, maintenant il faut que les mentalités s’adaptent.
carté graphique ?
Merci pour ces éclaircissements. Moi même a la sortie de la conf . Je me dit Whoua . Bon 2 h après je me suis dit bizarre . Et là je comprend mieux .
Super vidéo comme d'habitude.
Je trouve que ces nouvelles cartes graphiques sont inutiles, les RTX de 4060 jusqu'à la 4090 sont plus que suffisantes... c'est simplement pour ce faire plus d'argents.
Non. C'est pour l'ia. Pas pour les joueurs.
Merci ! Ce que tu me dis me rappelle les lancements de processeurs tous les ans. On s'est habitué à sauter les générations impaires d'Intel depuis quelques années
@@KangetsesPC Pas faux, c'est l'habitude des versions "refresh" sur les GPU comme les CPU
Tu... trouves? Depuis quand tu es chercheur?
Ce que tu dis n'a AUCUN sens. (et sinon, OUI les entreprises essayent de faire de l'argent. 🙄)
Bonne vidéo et surtout c'est bien de parler des limites atomique qui sont en train d'être atteint car j'ai l'impression que tout le monde se plein qu'il n'ait plus d'augmentation de perf brut alors que c'est une limite physique qu'il y a derrière, même si bien sur bcp de marketing mais bon Nvidia reste une entreprise commerciale...
Merci pour la vidéo, j'hésite à prendre une 4090 d'occasion.
Je joue essentiellement à MSFS et le DLSS rend illisible les instruments de vol, du coup je suis obligé de désactiver cette fonctionnalité, en tout cas sur ma 3080.
C'est faux, le gain de performance de ne doit pas se faire en rasterisation, il doit se faire en fps. Comme pour tous produits du quotidien, ce que recherche l'utilisateur, c'est le rendement final. On se fou de savoir quelle est la puissance de la voiture, ce qui compte c'est son couple, sa vitesse et sa consommation... Évidement les créateurs de contenu vidéo ont besoins de toujours plus de puissance de rasterisation mais ce n'est pas le cas de l'utilisateur lambda .
C’est pas comparable… la qualité d’image ça compte aussi.
Il y a beaucoup d’artefacts avec le frame gen.
Il vaut mieux jouer en native que de jouer avec des techno ia plein d’artefacts et qui rajoutent de la latence surtout pour les fps
@@mk2b662 Alors pour les artefacts, il y a une nouvelle techno pour remédier à ce problème : neural rendering capabilities.
Pour la latence, il y a aussi une nouvelle techno : reflex 2.
Donc bon, on verra à la realase, mais a mon humble avis, on aura de bien meilleurs résultats avec cette dernière mouture, notamment sur du fps.
De plus , qui s'intéresse aux artefacts en Fps pvp ? on s'en tape, car la plupart du temps, on n'a pas le temps de les voir. Et pour les fps non pvp du style cyberpunk77 , bon courage pour jouer en natif 4k ^^... enfin dire qu'il y a beaucoup d'artefact avec la frame gen c'est juste de la mauvaise foi, il y en a un peu certe et encore il faut bien chercher...
@@Inielboult75018 Il faut vivre avec son temps, on est à l'ère de l'IA , et cette dernière promet des résultats incomparables avec la puissance de calcul brute...
En outre, le diamètre atomique de l'atome de cuivre est de 0.29 nm, donc il devient de + en + difficile de miniaturiser les transistors. Pour augmenter la rasterisation sur une même surface donnée, cela se fera obligatoirement aux prix de la consommation électrique . C'est pourquoi Nvidia a investi des milliards pour remédier à ce problème en passant par l'IA
Je suis désolé, mais tu ne peux pas dire que le gain de performance ne doit pas se faire en rasterisation quand littéralement tout les jeux utilisent la rasterisation. Même les jeux sous ray tracing utilise un peu de rasterisation. Un gain de performance en raster sera TOUJOURS un plus pour l'utilisateur lambda.
Le gain de performance graĉe à l'IA (DLSS4) est surtout un outil. Un outil qui permet de masquer les faibles performance en donnant une sensation de fluidité. Mais ça ne change pas le fait qu'à l'heure actuelle, nos cartes sont trop faibles pour qu'on utilise le ray tracing dans nos jeux
@@Ravitas3 Certe , mais si tu préfères avoir une CG qui te donne 100fps grace a la rasteurisation pour 1Kw ou 100fps grâce a l'ia pour 250w c'est a toi de voir. Pour ma part mon choix est vite fait...
Les gens se plaignent des fake frames parce qu'elles ne sont pas réelles, mais n'oubliez pas les amis, aucune de ces images n'est réelle. Une image générée par une IA n'est pas moins réelle qu'une générée par un algorithme.
C'est surtout que le DLSS4 ne sera par supporté par tous les jeux, il faudra un peu de temps avant de pouvoir faire du fps x4 un peu partout. Il me semble qu'une minorité de jeux pourront en bénéficier
Parce qu'une IA n'est pas basée sur un , ou des , algorithmes ? tu sais au moins ce que c'est qu'un algo ?
Votre remarque demontre votre incomprehention des bases de l'affichage.
Pour faire court : les images "non IA" dependent ded action des joueurs au moment de leurs generation alors que celles de l'IA sont genéréd en fonctions des précedentes, independement des touches du joueur.
Quel interet d'avoir un affichage fluide si la réacctivitée n'y est pas ?
Ce genre de tech c'est ok que pour les jeux conteplatifs à la sable ou heavy rain.
Autrement dit aux films interractifs et pas auxjeux dynamiques.
Donc on paye pour ne pas avoir plus de réactivité mais pour en perdre
Alors toi t'es hyper intelligent, WOW 😮
@ C'était précisément mon propos hein...
En soit, la 5070 FE est vendu 649€ quand la 4070 est sortie à 659€. A partir de là, on constate rapidement qu'on a déjà mieux pour moins cher. Pour le reste, il convient de rappeler que certaines générations n'apportaient rien de plus que de la puissance supplémentaire, ou l'ajout du RTX qui était presque inutilisable dans de bonnes conditions à sa sortie.
Y'a beaucoup de faux débats, la tech logiciel autour des GPU est aussi importante que le GPU en lui même, et la RTX 5070 FE est le meilleur rapport performance/prix qu'on a en ce moment.
Merci pour cette vidéo bien didactique est claire. A mon NVidia ne convainc pas vraiment, ils prennent cette voie par manque de choix pour donner l'impression de continuer à innover. En pratique, le DLSS permettant de passer de 30 à 60 FPS, oui c'est utile. A 120 FPS, clairement beaucoup moins, sauf pour des ultra-technophiles qui, eux, vont être génés par la latence supplémentaire.
Par ailleurs, autre problème peu abordé, le DLSS ne marche pas en VR, alors certe c'est une niche, mais c'est la niche qui a le plus désespérément besoin de puissance supplémentaire. Pour les autres, franchement la génération actuelle semble largement suffisante.
Donc si je comprends bien le dlss serais enfin correct parce que la qualité seras suffisamment bient vers environ le dlss 5 ou le dlss 6
Le marketing actuel continue de surfer sur les "nombre de FPS" et non sur l'impression de "fluidité"
Pire encore pour les consommateurs et joueurs...
Les jeux qui ne sont plus optimisés et doivent utiliser "nativement" les nouvelles technos pour afficher un 30 FPS
Depuis une décennie, au global, la performance se dégrade relativement...
quand je pense à l'époque où on nous disait que la gtx 1080ti était la première carte 4k60fps... depuis on sent qu'au gréé des techno inutile (dlss, fsr) ou trop gourmandes (ray tracing) on reste toujours au même point, et même pire car il arrive que même une 4090 n'arrive pas à faire du 4k60fps en natif sans ray tracing. On sent que les nouveau moteur et les pratiques des devs se sont habitués à gaspiller toute la puissance que les nouveaux GPU ont apportés et on commence à avoir des jeux qui ne fonctionne qu'avec ray tracing (star wars outlaws, indiana jones) bourré de bruits qui seront probablement un gros pas en arrière niveau qualité graphique
Qu'est-ce qu'il ne faut pas lire comme conneries...
Les gamers sont de plus en plus nuls.
@@adarion2994 "la 4090 gnagnagna..."
ELLE EST CPU BOTTLENECK, alors gueulez après les CPU au lieu de baver dans le vent!
@@adarion2994 Mec, t'as vu ce que tu consommes comme courant pour ton petit caprice? Tu crois qu'on doit continuer comme ça? Réellement ? Tu veux un GPU de 15 cm de côté sans compter la carte? Tu veux claquer 1500 watts pour avoir ton petit pixel perfect en 4K à 200FPS ?
Ce level de caprice chez les gamers... LA loi de moore, c'est comme une loi physique : ne la respecte pas et subis les conséquences.
Mais tu peux aussi prier le Dieu des non-comprenants...
Ou bien gueuler après les devs qui n'optimisent pas parce que au final, ce sont bien eux qui produisent des bouses qui rament sur un matériel plus que connu et dont on connait les limites par coeur.
Le pire c'est que la situation actuelle est meilleure qu'elle ne l'a jamais été. En 25 ans de gaming, je n'ai jamais été aussi bien épaulé en 3D que par ma 4070TI en 1440P .
Vous croyez que Stalker 1 tournait du feu de Dieu en 2007 ? ET bien NON! Absolument pas! Et il n'y avait pas de DLSS pour pouvoir y jouer correctement sans avoir à attendre la prochaine génération de GPU.
Stalker 2, même studio, une guerre en plus: même optimisation complètement aux fraises, même jeu pas fini : et bien il est plus que jouable après seulement un patch.
Mais bien sûr, on entend jamais parler du positif, on entend que les hystériques qui se roulent dans leur pisse de capricieux en prétendant que c'était mieux avant.
Et bien NON, ce n'était pas mieux avant. Les jeux qui rament à la sortie, les bugs, les joueurs qui ne peuvent pas lancer tel ou tel jeu... Tout ça, c'était pire par le passé que ça ne l'est aujourd'hui. Mais à vous écouter, la situation empire et le pire, c'est que vous y croyez à cette connerie ALORS QU'ON A TOUTES LES PREUVES QUE NON ET BIEN AU CONTRAIRE.
Bref : allez voir vos mamans, car le monde se fout de vos caprices et de votre compréhension toute relative des choses. Peut-être qu'elle peut quelque chose pour votre malheur.
En fait, c'est comme pour le RT: d'un côté des blaireaux qui n'y connaissent rien et qui prennent leur putain de nombril pour le centre du monde et de l'autre, LES SEULS qui savent faire évoluer la 3D depuis presque 20 ans, à savoir : Nvidia. Et le RT (non imbécile, ce n'est pas inutile, c'est juste la suite logique de l'évolution en simulation 3D, si tu ne comprends pas ça, va lire au lieu de parler!)
Qu'est-ce qui est le plus utile au joueur depuis 20 ans? Une carte graphique digne de ce nom conçue par des gens qui savent de quoi ils parlent et sont d'ailleurs presque les seuls au monde à savoir de quoi ils parlent... où bien une foule de capricieux qui ne VEULENT PAS COMPRENDRE QUE LA LOI DE MOORE EST FINIE ?
@@adarion2994 Oisiveté des devs et précipitation des actionnaires
Le combo parfait
Pour faire des jeux médiocres
Jamais optimisés dont la qualité régresse
Tu as belle élocution continue comme ça.