Plus on a de VRAM plus on est content en VR. C’est l’un des critères si ça n’est le critère le plus important. Avec 32 go on sera servi. Par contre à 2349€ ça pique grave 😵💫
@@zorrodelavega8102 2390e tu peut rajouter 1000e à mon avis c est le prix que préconise nvidia mais les revendeur vont fair comme il veulent et les leak parle de 3400e 😱🥶🤢
Je consomme 23Mb avec ma 4090 en VR et le pimax cristal light sur DCS , en fait plus je la charge plus c’est fluide , je perds en fps mais c’est plus stable donc plus fluide. La limite ce n’est pas le GPU c’est le CPU en règle général et je pense qu’avec les série 50 l’écart va se creuser
Salut pour de la vr avec le nouveau pimax super qui va sortir il y a t il un gro intérêt de prendre la 5090 que la 5080 car plusieur personne dise que pour le jeux c est la 80 qui faut la 90 est pour les professionnels pas les gammer merci
@@anthomaynard la 5090 offrira des performances nettement supérieures à la 5080. Pour du gaming pur, aucun intérêt la 5090. Sauf pour la VR. Ceci dit, la 5080 sera certainement suffisante pour un prix plus correct. Faut attendre pour voir.
Bonsoir, merci pour toute cette analyse mais avec tout cela on ne parle pas de processeur. Ces nouvelles cartes ont besoin d'un processeur spécifique à minima i7 ou i9 ou ça n'a rien a voir ? Ma question est : je suis sur un i7-13700, c'est suffisant ou pas pour une 5080 ou 5090 ? Ou j'optimise encore plus en passant sur un i9 ?
Aucun intérêt de changer dans l'immédiat avec un i7-13700 pour ma part. Actuellement avec une 4090 ultra il y une différence de +1.7% entre le i7-13700 et le i9-14900 donc bon je changerai rien à ce niveau là. L'alimentation par contre attention... Cf mon commentaire du dessous
salut, toute ces fps c'est de la poudre de perlimpinpin voir ma réponse à @skorpion7319 donc le cpu ne calcule pas une grande partie de ces image et c'est bien là le problème, même si dans un sens un petit cpu permet d'avoir un jeu fluide, ce n'est pas pour cela qu'il sera réactif, au clavier souris ou a la manette. sinon cela fait 2 génération que AMD est bien devant en terme de CPU pour le gaming, Intel est complètement a la ramasse. ton 13700 devrais avoir encore du temps devant lui, c'est quand même un très bon CPU et si tu a une RTX40 , je te conseille plutôt d'acheter un bon écran cette années plutôt que de nourrir le monstre Nvidia qui continue tout les 2 ans de nous la glissé de plus en plus ....loin....
les prix on était annoncer et sont public sur le site de nvidia mais c'est les Founder edition pas les model custom, msi , asus , gigabytes ect, qui seront beaucoup plus cher. sinon cette génération est la pire depuis 10 ans. faut vraiment avoir une vielle carte graphique pour changer car les chiffre sont complètement faux et pour la VR c'est seulement de la puissance brut qu'il faut, ce qui n'avance quasiment pas entre la serie 50 et la 40. comme pour les RTX40, nvidia vend sont frame generation et ce sont des fausse image crée par les GPU qui sont interpolé entre les vrai image calculé, donc la latence ne baisse pas , le ressentie est le même mais l'image a l'écran est plus fluide ( il y a plus d'fps mais une partie sont "fausse" et généré par IA et afficher par le GPU sans passé par le CPU donc il n'y a pas d'input pris en compte), c'est de la fumisterie et seulement utile pour jouer a cyberpunk en pathtracing. j'ai une 4090 watercoolé donc je sais de quoi je parle x) la vérité c'est que la 5090 est seulement 30% plus performante comparais a la 4090, pour 500€ de plus, c'est le pire gap générationnel depuis l’existence des RTX. leurs graphique comme il y a 2 ans avec les RTX40 sont avec dlss performance ET Frame generation. tout ça pour faire croire a une révolution au yeux du grand public qui ne comprend pas comment ça marche car normalement , plus de fps = un jeux plus réactif. avec cette technologie ce rapport n'existe plus et désolé si je me répète mais c'est impossible a implémenté en VR car une latence faible est Indispensable, c'est pour ça qu'on ne vois pas de raytracing en VR aussi car ça ralentie les calcul et indue de la latence, ce qui donnerai la gerbe. voilà j'espère que c'était intelligible, la bise. ps: j'oubliais de précisé que cette hausse des fps avec les RTX50 est du fait qu'il inaugure une feature appelé multi frame generation qui permet de glissé jusqu’à 3 image généré par IA entre 2 image calculé "normalement" et donc augmente drastiquement le nombre d'fps comparé au RTX40 qui génère qu'une "fausse" image entre 2 "vrai" image. et si vous avez tous compris, ce n'est pas pour ça que le jeu sera plus agréable a joué, ça sera juste plus fluide a l’œil et attention au artefact dû a cette technologie... et pour finir cela ne fonctionne pas au niveau des drivers mais le jeu doit incorporé cette technologie.
@@Mrzeseb13 tu as raison après tu oublie le reflex 2.0 si cela fonctionne en vr plus de fps et moins de latence sa pourrais être simpa et pence tu qu on pourras acheter des funder édition psk je viens de vendre ma 4090 assus rog oc 1800e si je rajoute 500e sa va mais si je doit me taper les re vendeur a 3000 je partirais sur la 80 … triste 😞
Pour le modèle 5080 il est annoncé à 360 watts et pour la 5090, on sera à pas moins de 575 watts... Un calcul simple a la louche : (TDP CPU + TDP GPU)X2 = puissance alimentation nécessaire Hypothèse chiffre 105(CPU en moyenne)+360 (5080)= 930watts ce qui veut dire qu'il faut une alimentation 1000watts pour être bien. Dans le cas de la 5090 ça fait un peu mal avec au bas mot 1400w. Une alimentation 1500w c'est environ 400€ aujourd'hui. EDF doit être ravi de l'annonce NVIDIA 😂
@ perso, j’avais dimensionné mon alimentation à 1000w pour envisager une consommation similaire à la 4090. Ça sera insuffisant pour la 5090. Cependant, il y a une autre problématique que va poser la 5090. Le câble 12HPWR pouvait déjà être le maillon faible et surchauffer avec la 4090. Alors avec la 5090, va falloir surveiller que ça ne crame pas. De nouvelles alimentations arrivent pour mieux gérer ça apparemment. Donc la 5080 sera certainement mon futur choix. Par précaution aussi sur ce point. Si elle est aussi performante que la 4090, le DLSS 4 pourrait bien être utile en VR. Et pour MSFS 2024, ça pourrait être un atout. Pour MSFS 2020, on ne passera pas au DLSS 4 mais avec une performance similaire à la 4090, ça sera excellent.
@@gilchecksix je veux pas être tatillon mais le voltage c'est la carte elle même qui le gêre, l'alim envoi juste une bonne dose de watts. comme avec n'importe qu'elle gpu il faut calculé la puissance max de ses composant et arriver a 80% des watts max de l'alim que vous devez choisir. pour être dans la meilleurs plage de rendement et consommé le moins possible a la prise. avec une gros cpu intel qui est avide de watts, qui peux monter a plus de 200W .... c'est zinzin, et une 4090 ou une 5090, une alim de 1000W est un choix avisé. personellement c'est ce que j'ai une bequiet 1000W titanium, silencieux comme un rat mort sous le bureau mais sans les odeur =) j'espere que vous lirais mon éxplication dans les autre commentaire a propos du frame generation et pourquoi il est impossible de l'utilisé en VR. les RTX50 n'utilise pas éxactement le même connecteurs, il a été revue ne vous inquieté pas la dessus même si en réalité les personne qui ont cramé leurs port/gpu, l'ont surtout mal branché ou mis en tension, je veux dire par là trop tordu. d'ailleurs a ce sujet le mieux est d'avoir un cable unique qui va de l'alim au GPU comme be quiet et tant d'autre marque le font au lieux d'utilisé un adaptateurs avec 4 PCIe. bonne continuation !
J ai entendu que le DLSS4 sera dispo à partir des 2000 ( et sur plusieurs vidéo ) mais quand j y repense, le DLSS3 était dispo qu à partir des 4000, donc en effet je vois pas comment le DLSS4 pourrait l être. Partout ca raconte DLSS4 ok à partir des 2000 mais ce qui sera exclusif aux 5000 c est la multi frame gen.
alors oui et non, le multi frame gen sera exclu au RTX50 mais étant donné que c'est vraiment nul comme feature on a rien a leurs envié car toute les nouveauté du DLSS 4.0 seront la pour les RTX40 même l'amélioration de qualité du frame gen classique, le nouveau moteur du dlss et du ray reconstruction seront eux "compatible" jusqu'au RTX20. les RTX et surtout les 40xx vont avoir un super buff ce 30 janvier, je me langui. en réalité (et c'est fait exprès de la part de nvidia pour vous faire acheté des GPU) il sont très flou sur ce sujet et sur les dénomination, si vous avez jouer a un jeu récent ou même si vous êtes comme moi et changer les dll du dlss dans vos jeux préféré a chaque mise a jour (dispo sur techpowerup), vous bénificié des dernières avancer du DLSS peu importe la génération de votre carte, d'ailleurs le 3.8.1 fait gagné quelque FPS et est vraiment meilleurs au niveau du ghosting et de la stabilité temporel. ce qu'il appel DLSS 3.0 c'était le frame gen mais c'est aussi le super sampling, aussi appelé upscaler qui avance et ce bonifie. la ici le DLSS 4.0 c'est le multi frame gen mais surtout un dlss (upscaler) qui est basé sur une nouvelle IA et qui va vraiment gagné en qualité d'image. le dlss de base a évolué pendant 6 ans et c'est plus ou moins sont dernier mois a vivre. désolé si je fait un pavé mais il ne faut pas oublié que DLSS veux dire deep learning super sampling et que ça fait 2 génération qu'il nomme du frame generation avec cette dénomination... vraiment nvidia ne vous veux aucun bien, juste votre argent.
@@Alicia-bt6kc En termes de FPS purs oui mais la VRAM de la 5070 est trop faible pour la 4K. Elle se limitera donc à la 1080p et à la 1440p. Donc pour la VR, ça ne sera pas un bon choix. Par contre, sur écran, ça sera une tuerie à un prix raisonnable. Si je ne faisais pas de VR, je foncerais dessus. Si le DLSS 4 est exploitable, et ça dépendra des jeux, cette carte représentera le meilleur rapport qualité-prix jamais sorti pour une carte entrée de gamme. Mais j’insiste, cela n’est valable que si le jeu est compatible DLSS 4.
@@gilchecksix oui et ecnore c'est une équivalence factice dans la msure ou la 4090 est ban du dlss4 car si ils l'activent sur la 4090 et exploserait la 5070, il s'agit simplement d'écouler les 40 pour vendre à nouveau du GPU Blackwell. en terme de perf brute pour la VR on va etre un peu limitée le gap est là mais pas ouf surtout en upgradant d'une RTX30
Les 16 go de RAM de la 5080 ne seront ils pas un peu juste pour la VR ? Une 5080 TI à suivre...?
16 Go de VRAM est suffisant. C'est toujours mieux d'avoir plus mais c'est ce que j'ai sur ma carte et ça fait le job.
Plus on a de VRAM plus on est content en VR. C’est l’un des critères si ça n’est le critère le plus important. Avec 32 go on sera servi. Par contre à 2349€ ça pique grave 😵💫
@@zorrodelavega8102 2390e tu peut rajouter 1000e à mon avis c est le prix que préconise nvidia mais les revendeur vont fair comme il veulent et les leak parle de 3400e 😱🥶🤢
Je consomme 23Mb avec ma 4090 en VR et le pimax cristal light sur DCS , en fait plus je la charge plus c’est fluide , je perds en fps mais c’est plus stable donc plus fluide. La limite ce n’est pas le GPU c’est le CPU en règle général et je pense qu’avec les série 50 l’écart va se creuser
Salut pour de la vr avec le nouveau pimax super qui va sortir il y a t il un gro intérêt de prendre la 5090 que la 5080 car plusieur personne dise que pour le jeux c est la 80 qui faut la 90 est pour les professionnels pas les gammer merci
@@anthomaynard la 5090 offrira des performances nettement supérieures à la 5080. Pour du gaming pur, aucun intérêt la 5090. Sauf pour la VR. Ceci dit, la 5080 sera certainement suffisante pour un prix plus correct. Faut attendre pour voir.
Bonsoir, merci pour toute cette analyse mais avec tout cela on ne parle pas de processeur. Ces nouvelles cartes ont besoin d'un processeur spécifique à minima i7 ou i9 ou ça n'a rien a voir ? Ma question est : je suis sur un i7-13700, c'est suffisant ou pas pour une 5080 ou 5090 ? Ou j'optimise encore plus en passant sur un i9 ?
Aucun intérêt de changer dans l'immédiat avec un i7-13700 pour ma part. Actuellement avec une 4090 ultra il y une différence de +1.7% entre le i7-13700 et le i9-14900 donc bon je changerai rien à ce niveau là. L'alimentation par contre attention... Cf mon commentaire du dessous
@@Dji_cmerci pour ton retour, je vais regarder cela effectivement
salut, toute ces fps c'est de la poudre de perlimpinpin voir ma réponse à @skorpion7319
donc le cpu ne calcule pas une grande partie de ces image et c'est bien là le problème,
même si dans un sens un petit cpu permet d'avoir un jeu fluide, ce n'est pas pour cela qu'il sera réactif, au clavier souris ou a la manette.
sinon cela fait 2 génération que AMD est bien devant en terme de CPU pour le gaming, Intel est complètement a la ramasse.
ton 13700 devrais avoir encore du temps devant lui, c'est quand même un très bon CPU et si tu a une RTX40 , je te conseille plutôt d'acheter un bon écran cette années plutôt que de nourrir le monstre Nvidia qui continue tout les 2 ans de nous la glissé de plus en plus ....loin....
Pour l instant j ai pas vu 2 youtubeurs annonçant les mêmes prix ! Je pense que celui ci est + proche de la vérité.
les prix on était annoncer et sont public sur le site de nvidia mais c'est les Founder edition pas les model custom, msi , asus , gigabytes ect, qui seront beaucoup plus cher.
sinon cette génération est la pire depuis 10 ans.
faut vraiment avoir une vielle carte graphique pour changer car les chiffre sont complètement faux et pour la VR c'est seulement de la puissance brut qu'il faut, ce qui n'avance quasiment pas entre la serie 50 et la 40.
comme pour les RTX40, nvidia vend sont frame generation et ce sont des fausse image crée par les GPU qui sont interpolé entre les vrai image calculé, donc la latence ne baisse pas , le ressentie est le même mais l'image a l'écran est plus fluide ( il y a plus d'fps mais une partie sont "fausse" et généré par IA et afficher par le GPU sans passé par le CPU donc il n'y a pas d'input pris en compte), c'est de la fumisterie et seulement utile pour jouer a cyberpunk en pathtracing.
j'ai une 4090 watercoolé donc je sais de quoi je parle x)
la vérité c'est que la 5090 est seulement 30% plus performante comparais a la 4090, pour 500€ de plus, c'est le pire gap générationnel depuis l’existence des RTX.
leurs graphique comme il y a 2 ans avec les RTX40 sont avec dlss performance ET Frame generation. tout ça pour faire croire a une révolution au yeux du grand public qui ne comprend pas comment ça marche car normalement , plus de fps = un jeux plus réactif. avec cette technologie ce rapport n'existe plus et désolé si je me répète mais c'est impossible a implémenté en VR car une latence faible est Indispensable, c'est pour ça qu'on ne vois pas de raytracing en VR aussi car ça ralentie les calcul et indue de la latence, ce qui donnerai la gerbe.
voilà j'espère que c'était intelligible, la bise.
ps: j'oubliais de précisé que cette hausse des fps avec les RTX50 est du fait qu'il inaugure une feature appelé multi frame generation qui permet de glissé jusqu’à 3 image généré par IA entre 2 image calculé "normalement" et donc augmente drastiquement le nombre d'fps comparé au RTX40 qui génère qu'une "fausse" image entre 2 "vrai" image.
et si vous avez tous compris, ce n'est pas pour ça que le jeu sera plus agréable a joué, ça sera juste plus fluide a l’œil et attention au artefact dû a cette technologie...
et pour finir cela ne fonctionne pas au niveau des drivers mais le jeu doit incorporé cette technologie.
@@Mrzeseb13 tu as raison après tu oublie le reflex 2.0 si cela fonctionne en vr plus de fps et moins de latence sa pourrais être simpa et pence tu qu on pourras acheter des funder édition psk je viens de vendre ma 4090 assus rog oc 1800e si je rajoute 500e sa va mais si je doit me taper les re vendeur a 3000 je partirais sur la 80 … triste 😞
@anthomaynard tu comprends rien a rien , j'espère que tu te feras entuber
Tu t emmerde pas en vol ? 😂
Il faudra penser à changer les alimentations car les TDP annoncés sont complètement délirants
ça parle d'une nouvelle norme ATX 3.1 pour supporter les haut voltages des 5090 et même 5080.
Pour le modèle 5080 il est annoncé à 360 watts et pour la 5090, on sera à pas moins de 575 watts...
Un calcul simple a la louche : (TDP CPU + TDP GPU)X2 = puissance alimentation nécessaire
Hypothèse chiffre 105(CPU en moyenne)+360 (5080)= 930watts ce qui veut dire qu'il faut une alimentation 1000watts pour être bien. Dans le cas de la 5090 ça fait un peu mal avec au bas mot 1400w.
Une alimentation 1500w c'est environ 400€ aujourd'hui. EDF doit être ravi de l'annonce NVIDIA 😂
@ perso, j’avais dimensionné mon alimentation à 1000w pour envisager une consommation similaire à la 4090. Ça sera insuffisant pour la 5090. Cependant, il y a une autre problématique que va poser la 5090. Le câble 12HPWR pouvait déjà être le maillon faible et surchauffer avec la 4090. Alors avec la 5090, va falloir surveiller que ça ne crame pas. De nouvelles alimentations arrivent pour mieux gérer ça apparemment.
Donc la 5080 sera certainement mon futur choix. Par précaution aussi sur ce point. Si elle est aussi performante que la 4090, le DLSS 4 pourrait bien être utile en VR.
Et pour MSFS 2024, ça pourrait être un atout. Pour MSFS 2020, on ne passera pas au DLSS 4 mais avec une performance similaire à la 4090, ça sera excellent.
@@gilchecksix je veux pas être tatillon mais le voltage c'est la carte elle même qui le gêre, l'alim envoi juste une bonne dose de watts.
comme avec n'importe qu'elle gpu il faut calculé la puissance max de ses composant et arriver a 80% des watts max de l'alim que vous devez choisir.
pour être dans la meilleurs plage de rendement et consommé le moins possible a la prise.
avec une gros cpu intel qui est avide de watts, qui peux monter a plus de 200W .... c'est zinzin, et une 4090 ou une 5090, une alim de 1000W est un choix avisé.
personellement c'est ce que j'ai une bequiet 1000W titanium, silencieux comme un rat mort sous le bureau mais sans les odeur =)
j'espere que vous lirais mon éxplication dans les autre commentaire a propos du frame generation et pourquoi il est impossible de l'utilisé en VR.
les RTX50 n'utilise pas éxactement le même connecteurs, il a été revue ne vous inquieté pas la dessus même si en réalité les personne qui ont cramé leurs port/gpu, l'ont surtout mal branché ou mis en tension, je veux dire par là trop tordu. d'ailleurs a ce sujet le mieux est d'avoir un cable unique qui va de l'alim au GPU comme be quiet et tant d'autre marque le font au lieux d'utilisé un adaptateurs avec 4 PCIe.
bonne continuation !
@ je l’espère. On verra bien avec le temps.
Le match intéressant sera 5080 VS 4090, sachant que le DLSS4 ne sera dispo que sur les 50.
@@rkltck4449 oui je pense que ça sera LE match à surveiller de près.
J ai entendu que le DLSS4 sera dispo à partir des 2000 ( et sur plusieurs vidéo ) mais quand j y repense, le DLSS3 était dispo qu à partir des 4000, donc en effet je vois pas comment le DLSS4 pourrait l être.
Partout ca raconte DLSS4 ok à partir des 2000 mais ce qui sera exclusif aux 5000 c est la multi frame gen.
@@skorpion7319 Faut pas rêver, le DLSS 4 ne sera dispo que pour les RTX 5000.
alors oui et non, le multi frame gen sera exclu au RTX50 mais étant donné que c'est vraiment nul comme feature on a rien a leurs envié car toute les nouveauté du DLSS 4.0 seront la pour les RTX40 même l'amélioration de qualité du frame gen classique, le nouveau moteur du dlss et du ray reconstruction seront eux "compatible" jusqu'au RTX20.
les RTX et surtout les 40xx vont avoir un super buff ce 30 janvier, je me langui.
en réalité (et c'est fait exprès de la part de nvidia pour vous faire acheté des GPU) il sont très flou sur ce sujet et sur les dénomination, si vous avez jouer a un jeu récent ou même si vous êtes comme moi et changer les dll du dlss dans vos jeux préféré a chaque mise a jour (dispo sur techpowerup), vous bénificié des dernières avancer du DLSS peu importe la génération de votre carte, d'ailleurs le 3.8.1 fait gagné quelque FPS et est vraiment meilleurs au niveau du ghosting et de la stabilité temporel.
ce qu'il appel DLSS 3.0 c'était le frame gen mais c'est aussi le super sampling, aussi appelé upscaler qui avance et ce bonifie.
la ici le DLSS 4.0 c'est le multi frame gen mais surtout un dlss (upscaler) qui est basé sur une nouvelle IA et qui va vraiment gagné en qualité d'image.
le dlss de base a évolué pendant 6 ans et c'est plus ou moins sont dernier mois a vivre.
désolé si je fait un pavé mais il ne faut pas oublié que DLSS veux dire deep learning super sampling et que ça fait 2 génération qu'il nomme du frame generation avec cette dénomination...
vraiment nvidia ne vous veux aucun bien, juste votre argent.
Certain annonce que la 5070 a une puissance équivalente à une 4090 ça laisse perplexe
@@Alicia-bt6kc En termes de FPS purs oui mais la VRAM de la 5070 est trop faible pour la 4K. Elle se limitera donc à la 1080p et à la 1440p. Donc pour la VR, ça ne sera pas un bon choix.
Par contre, sur écran, ça sera une tuerie à un prix raisonnable.
Si je ne faisais pas de VR, je foncerais dessus. Si le DLSS 4 est exploitable, et ça dépendra des jeux, cette carte représentera le meilleur rapport qualité-prix jamais sorti pour une carte entrée de gamme.
Mais j’insiste, cela n’est valable que si le jeu est compatible DLSS 4.
@@gilchecksix oui et ecnore c'est une équivalence factice dans la msure ou la 4090 est ban du dlss4 car si ils l'activent sur la 4090 et exploserait la 5070, il s'agit simplement d'écouler les 40 pour vendre à nouveau du GPU Blackwell. en terme de perf brute pour la VR on va etre un peu limitée le gap est là mais pas ouf surtout en upgradant d'une RTX30
@@Karrera80 Moi je pense qu'il y aura quand un gap de FPS en VR. A voir.
Prends un flacon jet pas un vieux coucou .sans déc les dépenses d électricité...... lamentable