Ich finde es unfassbar gut das du nicht wie viele andere Tester wie LTT sehr detailierte reviews über die reine Leistung machst sondern Effizienz, Powertarget und Sinnhaftigkeit in deine Reviews mit einbaust. Die Karte klingt fast schon so als wäre sie in 2-3 Jahren bei niedrigerem Preis DAS GO TO Modell für Gamer wie es die 1080 und 1080ti lange Zeit anhand Preis für Leistung waren (Natürlich bei 70% PT)
Finde ich echt nice, dass du dich mit Igor trotz der Vergangenheit noch scheinbar versöhnen konntest :). Finde das echt top, weil ihr beide echt coole Technik-RUclipsr seid!
@@A6Armin unnötiger kindischer beef von 2 experten. haben beide sicherlich längs begraben, weil gemeinsam erreicht man mehr und man wird auch älter... immerhin haben beide die gleichen interessen und man kann beiden nicht vorwerfen, das sie gut sind indem was sie tun
@@heiligesblechel Solche Leute kann ich ja gar nicht ab. Wenn man fragt "was ist denn" als Antwort "ach, nicht wichtig" zu geben ist an kindischer Lächerlichkeit kaum zu überbieten .
Die Power Limit Analyse ist Gold wert, besonders wenn man viele machine learning runs vor hat. Echt top, dass du sowas bereits im ersten Video bringst!
Ich versteh den Kommentar nicht. Er hat doch hier bewiesen, dass die Karte im täglichen Gebrauch deutlich energiesparender ist als eine 3090ti, oder habe ich nicht richtig aufgepasst? Wenn er das PD nun so tief gesetzt hätte, dass die Performance mit der 3090ti gleich ist, würde sie das wahrscheinlich mit der Hälfte der Leistungsaufnahme packen. Also ist sie doch eigentlich eine extrem sparsame Karte im Gaming-Alltag.
Großartige Arbeit Roman! Die Effizienzkurve ist mega spannend und auch die neue messtechnologie Dass die Karte miit ca 320w fast genauso gut läuft macht mir Hoffnung für die echte 4080, bin gespannt wie die läuft
@@MicroageHD Jepp, habe ich auch gerade gesehen. Insbesondere die "Möchtegern" 4080 (12 GB) ist ein Schlag ins Gesicht. Die kommt ohne eingefügte Fakebilder (Dank DLSS 3.0) in "A Plague Tale: Requiem" mit Ach und Krach über eine 3080. Und selbst zwischen der 4080 16 GB und der 4090 liegen einfach mal Welten! Nach der Euphorie um die teure 4090 werden die 4080er wohl ne herbe Enttäuschung. Insbesondere unter der Berücksichtigung des immer noch amtlichen Preises dieser Karten. Ich frage mich ernsthaft, wie da noch eine 4070 abschneiden soll, mit höchstwahrscheinlich gerade einmal 10 GB Speicher und der Performance - im Idealfall - einer 3070 Ti. Ohne die eingefügten Bilder via DLSS 3.0 (Frame Generation) hat die quasi kaum eine Daseinberechtigung bei einem Preispunkt von wahrscheinlich um die 800,-€ (!!!).
Also dieser Test schlägt dem Fass wirklich den Boden aus, nachdem wir ja mit deutlichen Performance gewinnen vor 2 Jahren in die Grafikkarten Abzocke 2020 und 2021 geschickt worden sind, ist das jetzt sogar ein phänomenaler Leistungssprung im Verhältnis zum Preis. Das erklärt auch die nun "rasant sinkenden Preise" bei allen 3080, 3090 und 3080ti/3090ti modellen. Ich bin nun noch mehr auf die AMD RX 7000er Serie gespannt ob man hier mithalten kann. Toller Review Roman.
Die Preise gehen seit 5 Monaten in den Keller wegen dem Crypto verfall, womit auch die Scalper wegfallen, der Absurden Welle an Gebrauchten Karten die auf den Markt schwemmen, drücken bereits massiv die Preise und bei allen, sei es Händler, Großhändler, oder Boardpartnern, haben alle Prallgefüllte Lager, Typisches Angebot und Nachfrage Szenario. Es ist kaum Nachfrage da, aber das Angebot ist so groß wie noch nie. Ist nichts anderes wie damals vor 2018 mit dem Crypto das für Überteuerte Karten sorgte und im Jan 2018 das dann wegen dem Verfall völlig ins Bodenlose fiel. Das ist und war auch der einzige Preistreiber in der ganzen Sache, der nun weg ist, das ganze wird auch die neuen Karten mit voller härte Treffen, alleine schon aus dem Grund, weil die Produktionskapazitäten 2021 eingekauft hatten weil die dachten, es geht munter weiter so, haben sich nun aber Verkalkuliert und haben jetzt die Kapazitäten am Hals und wissen nicht wohin damit. Dazu gesellt sich dann auch noch das Problem, das Intel als Dritter Akteur dazu auch noch kommt und das ganze nur noch schlimmer macht. Ende vom Lied, es gibt grade eine Tsunami an Grafikkarten, die den Markt völlig überschwemmt.
Welche sinkenden Preise? Bei Nvidia hast du eigentlich nie wirklich sinkende Preise... wenn dann bei AMD und eventuell noch bei Intel aber doch nicht bei Nvidia... Soweit ich gelesen habe sollen die AMD Karten (deutlich) günstiger sein aber auch durchaus einen (ordentlichen) Leistungsprung hinlegen auch wenn diese wohl nicht die 4090 erreichen werden... Ich werde mir wohl entweder eine RTX 4080 (die kleinere Version) oder falls AMD Preis/Leistung etwas besseres bietet (was ich wirklich hoffe) werde ich tatsächlich zum ersten mal in meinem Leben eine AMD PCIe Grafikkarte kaufen... Ich sehe es nicht mehr ein überteuerte Karten zu kaufen und bleibe trotz 4k Gaming im mittleren bis oberen Bereich im punkto Preis.
Im Gegensatz zu den AMD Kartenpreisen sinken die RTX eigentlich eher weniger rasant find ich. Auch wenn man Preisleistungstechnisch schaut, ist die 6900XT derzeit Meilenweit vor der 4090. Natürlich ist der Anstieg an Leistung super, aber man muss im Hinterkopf behalten, das die hohen Preisen von nV deswegen gesetzt sind, weil man die 30xx nich verbrennen will-
@@m4d-m4x Schau dir den Preisverfall der 6000 und 3000 Karten an, das passiert alles wegen den bereits genannten Gründen und das wird den neuen Karten ebenso Passieren. die dabei angesetzte Mond UVP von Nvidia wird daran nichts ändern, weil der Markt das Aktuell nicht hergibt. Nach der Early Adopter Phase, wird der Preis ordentlich in den Keller wumpern. Ist alles so schon mal passiert und passiert aktuell nur in einem noch größeren Ausmaße.
Welche sinkenden Preise? 😅 Die RTX 3080 ist teurer als vor 2-3 Monaten. Die 3080 ti ist eh ganz komisch mit den preisen gewesen im Vergleich zur 3090. Das der Preis der 3090 gesunken ist, war auch höchste Zeit. Wenn man künstlich utopische UVPs setzt und dann so tut, als wäre die Karte nun günstig / ein Schnäppchen…herrlich. Hoffen wir mal, dass AMD eine richtige Überraschung raus haut. Speziell bei Features und Treiber / Software, damit Nvidia mal wieder zu Sinnen kommt…wobei ich das bezweifle
Wirklich eine tolle Karte. Ich glaube letztes Jahr wäre ich noch so beklopft gewesen und hätte sogar diesen Preis bezahlt. Aber ich freue mich für alle die es sich noch erlauben können. Achja, wirklich auch wieder ein tolles Video. Auch das die Differenzen (wenn es die den gab) mit Igor geklärt sind.
Die von Nvidia hingewiesenen Probleme mit AM5 würden mich noch einmal genauer erklärt sehr interessieren. Da ich bisher vorhatte mit eben den am5 cpus und der neuen 4090 ein neues System zu bauen.
Ich denke da wird es keine Probleme geben, oder diese sind Hausgemacht um eben AMD zu schwächen. Wird interessant ob in dieser Generation schon PCI-E 5 nen Unterschied bei den Grafikkarten macht.
Wieder TOP Informationen. Auch wenn ich so eine Karte niemals kaufen würde sehe ich mir die Videos gerne an, auch um im Hardwarebereich am laufenden zu bleiben. Besten Dank.
Tolle Arbeit! Ein Wunsch meinerseits: Gerne zukünftig noch mehr Fokus auf FPS/Watt Optimierung/Messung legen, der zweite Teil des Videos dazu war extrem spannend! In den charts evtl. generell auch ein Balken FPS/Watt einbinden.
Fachlich einfach die besten Reviews und Beiträge. Immer mega interessant und gut recherchiert/getestet. Im Vergleich zu vielen anderen deutschen Hardware-RUclipsrn, die alle 2 Wochen eine Grafikkarten-Marktanalyse und daraus jedes Mal eine Sensation machen, sind das einfach Welten. Aber selbst wenn mal das gleiche Themengebiet abgedeckt wird, sind die Beiträge von Roman einfach eine Hausnummer. Musste ich mal loswerden ...
Zu DLSS 3 fände ich vor allem die Latenz interessant zu analysieren. Bei der Frame Generation handelt es sich ja um Interpolation, was heißt dass sowohl der Frame vor und der Frame nach einem generierten Frame fertig sein müssen bevor der Frame generiert werden kann. Dadurch muss sich eigentlich die Latenz um mindestens einen gezeigten Frame verschlechtern, wenn man das mit den selben DLSS Auflösungs-Upscaling Settings macht. Wäre interessant da mal konkrete Zahlen zu haben.
Wurde das nicht so erklärt, dass die vorherigen Frames genommen und analysiert werden, um Bewegungsvektoren herauszurechnen? DLSS kann doch keine Verbesserung bringen, wenn nur ein Zwischenframe berechnet wird. Das würde keinen Sinn ergeben.
@@diotough Die Frames werden dazwischen berechnet. Dadurch steigen die FPS, aber eben auf Kosten der Latenz, weil man immer einen „echten“ Frame hinterher hängt.
@@MelvinGundlach Hast du dazu eine Quelle? Denn das ergibt überhaupt keinen Sinn in meinen Augen. Wenn ich 2 Frames nativ berechne, dann aber an Stelle den 2. Frame anzuzeigen, einen Zwischenframe berechne und den anzeige, dann habe ich noch mehr Zeit verbraucht, ohne den 2. Frame anzuzeigen, nur um Frame 1 1/2 dann leicht verzögert anzuzeigen, um dann noch einmal verzögert Frame 2 anzuzeigen, während dann aber schon Frame 3 berechnet wird, welcher dann noch länger warten müsste, um angezeigt zu werden. Kann sein, dass ich da auf dem Schlauch stehe, daher meiner Bitte nach einer fundierten Quelle. Weitaus sinnvoller wäre es, würde man mehrere vorhergehende Frames heranziehen und hieraus Bewegungsvektoren innerhalb der Frames herausrechnen, um damit eine Vorhersage für den nächsten Frame treffen zu können. Da DLSS 3 nicht mehr ausschließlich pixelbasiert ist, sondern Objekte identifiziert, kann man hier also einzelne Objekte identifizieren und die Bewegungsvektoren herausrechnen. Speist man das dann in ein neuronales Netz, kann dieses daraus einen neuen Frame generieren - und das natürlich schneller, als der eigentliche nächste Frame braucht. Man würde also maximal bei abrupten Änderungen in der Bewegung 1 Frame hinterher hinken - allerdings kann man jetzt die Frage stellen, ob es wirklich 1 Frame Lag wäre, denn letztlich hat sich für die Engine ja nichts geändert, egal ob DLSS on oder off.
Es werden Folgeframes aus mehreren Frames generiert, soweit ich weiß funktioniert dies ohne große Artefakte da DLSS wesentlich tiefer in Spiele integriert ist (als z.B. Fidelity FX) und dadurch nicht nur Zugriff auf die reinen Bilddaten sondern auch zusätzliche Informationen direkt aus der Spiele-Engine erhält.
Ich würde mir auf jeden Fall ein weiteres Video wünschen bei dem näher auf DLSS 3.0 eingegangen wird . Soweit ich die Technik verstehe werden hier ja Frames sozusagen "gefaked" . Bisher war es ja in der Regel sehr simpel : Mehr Frames = Weniger Input Delay und ein sehr smoothes Spielerlebniss . Ist das bei DLSS 3.0 jetzt auch wirklich der Fall oder nicht?
Danke für das hochinteressante Video. Selten war ich so erstaunt und zugleich aufgeregt, als du die Vergleiche zur 3090ti bzw 3080ti gezeigt hast. Zwar werd ich mir die Karte nicht leisten können, aber das war schon echt wahnsinnig spektakulär, was du da aufgezeigt hattest. Danke Roman!
@@TM-vd3df und warum? Uvp ist 1599 und chipshortage+miningkrise ist vorbei. Die sitzen ja sogar noch auf sooo vielen 30er Serien die spotbillig werden gerade. Spätestens bei rdna 3 wird der preis kaum zu halten sein, wird Zeit das nvida mal merkt das die welt gerade in einer wirtschaftlichen Krise steckt und keiner mit Gehirn bock hat 2100-2450 auszugeben für eine Grafikkarte haha
Tatsächlich würde ich sogar eine Eco Variante kaufen. Power Target 60-70% bei ungefähr 300 Watt verbrauch? Das sind quasi 100 Watt mehr als meine GTX 1080 😲 aber dafür ein Ordentliches Upgrade. Würde gern wissen wie die 4080 Leistung liefert und ob man die auch so Drosseln kann.
Sehr nice finde ich das Auswerten der Effizienz bei verschiedenen Powertargets. Das findet man nämlich nur ganz selten und ist meiner Meinung nach viel interessanter als 5% mehr Leistung durch OC die man nur auf der Stromrechnung merkt. Also gerne auch wieder bei zukünftigen GPUs untersuchen wie es sich damit verhällt. Vielleicht auch noch mal ein kurzer Rückblick mit einer 6950 und 3090?
Vielen Dank für das Video und Deine Eindrücke! Gerade auch mit dem sehr erfreulichen Hinweis auch auf Igors Video macht Ihr quasi "zusammen" einen umfassenden round up der Karte. Da kann man sich auch mal eineinhalb Stunden+ von Euch hervorragend unterhalten lassen 🥰 Eine mögliche Erklärung hatte Igor zur Kühlergröße gegeben mit der Vermutung, dass die Kühler eher für Samsung 8nm gedacht gewesen wären. Anders herum steigt da bei mir auch die Neugierde, ob Nvidia bzw. AIBs es vielleicht schafft, mit z.B. einer RTX 4070 ein kompaktes 2-Slot-Design zu generieren mit sicherlich immernoch sehr beeindruckender Leistung und weiterhin beeindruckender Effizienz. Zu DLSS 3 sehe ich es so wie Du, Roman. Erstmal müssen viele Entwicklerstudios DLSS 3 implementieren, was sehr aufwändig und sicherlich auch erst Sinn macht, wenn andere Karten mit DLSS 3-"Hardware" auf dem Markt sind. Und um so besser empfinde ich die verschiedenen Ansätze von Nvidia und AMD. AMD setzt mit FSR auf einer sicherlich nicht so qualitativ hochwertige Upscalingmethode wie DLSS, aber sie ist leichter und ohne bestimmte Hardware in Spiele integrierbar. Das kann meiner Meinung auch für "Kunden" am Ende sehr spannend sein, weil so ein starker Entwicklungsdruck auf beiden liegt und andere teilweise andere Zielgruppen bedient werden. Mist, viel zu viel geschrieben 🤣
Vielen Dank für den Test mit dem Power Target! Ich habe nämlich genau vor eine 4090 zu kaufen und diese dann vom Power Target her wie im Video gezeigt deutlich nach unten zu setzen. Jetzt kann ich schon vor dem Kauf beruhigt sein, dass die Performance auch mit dem reduzierten Power Target noch stimmt. Das einzige was mit jetzt etwas Sorgen bereitet, sind die erwähnten Probleme mit AM5, da ich mit der 4090 auch auf diese Plattform umsteigen wollte. Ich hoffe da gibt es noch ein paar mehr Infos zu bzw. das diese Probleme schnell gefixt werden. Abschließend mal wieder ein absolutes Top Video ❤️
Ohje aber warte lieber noch. Bei caseking sind die ab!! 2100 Euro gelistet, 1600uvp ok aber 2100? Bei aller Liebe das ist abzocke. Wenn die amd Karten kommen wird der Preis immens fallen
@@theplayerofus319 Quatsch, wie denn? Für die Leistung ist die Karte spottbillig. Hast du ungefähr eine Vorstellung davon, wieviele chips aussortiert werden um einen wie Roman zu kriegen? Es wird massive Lieferprobleme geben und der Preis schnellt zu Weihnachten in astronomische Höhen, da kann man gleich bis Juni warten.
@@schortkramer4405 Nachrichten guckst du nicht oder? Nvidia hat mehr als genug hergestellt und mining +chipshortage sind vorbei. Die werden in den ersten Wochen rar sein aber das wars dann auch, danach volle Verfügbarkeit und bei rdna3 werden sie reduzieren müssen sonst kauft ja keiner, da amd durchaus attraktiver Preise bringen wird. Bis möchtest Jahr warten bzw juni? Hahahaha Mach dich nicht lächerlich, nvidia kann fro sein wenn Leute die Dinger für 2100-2450 überhaupt anfassen. Spotbillig? In welcher Welt lebst du? Wir haben infaltion des Todes wer verschwendet sein Geld jetzt gerade so?
Ich finde diese Karte extrem gut. Und ich finde es auch super, dass sie so ein hohes Power Target hat. Dadurch werden die dicken Kühler verbaut, ich kann die Karte mit 300W laufen lassen und sie ist unhörbar und kühl.
Zu deiner Frage bei Minute 20: Igor hat in einem Video vor kurzem gesagt, dass nVidia selbst überrascht war, wie effizient und schnell die Karten im 4nm Prozess sind. Sie hatten im Vorfeld wirklich damit gerechnet, dass man der Karte 600W zuführen muss und deshalb diese Werte auch an die Hersteller weiter gegeben, was in den abartig großen kühlern resultierte und auch in niedrige Temperaturen/Lautstärke. Hätten sie das vorhergesehen, würden die Karten nun vermutlich wirklich schlanker und natürlich gleich teuer sein 😉 Tolles Video, besonders der Teil mit der Senkung der Leistungsaufnahme und der FPS/Watt-Kurve war genial!
Mal wieder sehr gut abgeliefert! Ich mag Deine Videos sehr, da sie immer sehr gut aufgebaut sind und das Thema rational betrachtet wird, allerdings mit Emotionen Moderiert wird - was absolut super ist=) Mach weiter so!
Super Video und extrem aufschlussreich. Vielen Dank dafür! Finde es nur schade das bei einer solchen Grafikpower immer mehr Pixel- bzw. Retrogames im Vormarsch sind.
Wieso schade? Retrogames sind doch was fantastisches. Niemand zwingt dich dazu sie zu spielen und leistungshungrige und grafisch aufwendige Spiele gibt es doch immernoch zu Genüge. Außerdem können (und wollen) sich nicht alle solche teuren GraKas leisten.
Habe gerade ein paar reviews der 4090 gesehen. Das hier gefällt mir mit Abstand am Besten! Gerade der Hinweis auf die unsinnige 3090ti (hatte ich nicht parat) und insbesondere natürlich das Power Target sind Sachen die so sicherlich nicht im NVIDIA Review Guide standen, aber sehr wichtig zum einordnen ist. Danke Roman! :)
Vorweg: Fantastisches Video, Roman. Zu DLSS 3 sei aber noch angemerkt, dass hier Zwischenbilder interpoliert werden (nicht wie früher bei den "120 Hz" Fernsehern, sondern in gut). Das führt zwangsläufig dazu, dass die Latenz steigt. Das nächste nativ gerenderte Bild (N) muss schon fertig sein, bevor das Zwischenbild (Z) generiert werden kann: So werden die Bilder ausgegeben: Z_0 = N_0 + N_1 N_1 = nativ Z_1 = N_1 + N_2 N_2 = nativ Z_2 = N_2 + N_3 N_3 = nativ ... Die Renderreihenfolge sieht aber so aus: N_1 = nativ Z_0 = N_0 + N_1 N_2 = nativ Z_1 = N_1 + N_2 N_3 = nativ Z_2 = N_2 + N_3 ... Damit erhöht sich die Frame-Time immer um mindestens einen halben Frame nativ oder einen Frame der skalierten Framerate. Das sind bei einem Spiel, was mit 30 Hz nativ gerendert wird immerhin minimal 17 ms obendrauf. Wie DLSS 3 sich genau auswirkt, müsste noch untersucht werden. Das V-Sync mit Triple-Buffering der Rücken gekehrt wurde, hatte auch seinen Grund.
Danke für dieses Video, dass endlich mal nicht die maximal mögliche sondern die reale Leistungsaufnahme betrachtet. Persönlich werde ich mir aber keine 4090 zulegen, da ich kein Nutzungsszenario für mich für eine Karte im Wert von 2k EUR sehe. Ich würde mir wünschen, dass du den gleichen Test nochmal mit einer 4080 bzw. dann mit einer 4070 (wenn sie dann irgendwann kommt) machen und die Ergebnisse mit uns teilen könntest =)
Mal schauen, wie lange es dauert, bis man die Karten stundenweise mieten kann. Beim Password Recovery ist es schon praktisch, viele Firmen haben Probleme wenn Mitarbeiter gehen und dann einige Arbeitsdokumente, die benötigt werden, noch verschlüsselt sind. Es gibt ganze Berufszweige die aktuell noch häufig Probleme habe, da wichtige Unterlagen, die auf legale Weise erlangt wurden, nicht lesen können. Auch pysikalische Simulationen profetieren von den Karten, mann muss nicht mehr stundenlang warten, bis man das Ergebniss der "Verbesserung" sieht.
Lieben Dank für das Review - bin direkt von Igor zu dir rüber gekommen und werde hier fast wieder zurück geschickt. Sehr schön finde ich gut - zusammen seid ihr ne Macht. Dicken Daumen hoch dafür! Die 4090 hat mich ehrlich gesagt richtig überrascht und ich bin sehr auf die "4070" und die 4060 gespannt - bei der Effizienz die möglich wäre könnte das nen richtiger Knaller werden. LG Marti
Super starkes Video! Bezüglich DLSS 3.0 ist mir folgendes bereits in der NVIDIA Präsentation aufgefallen: Schräge geometrische Kanten, die sich bewegen, flimmern. Achtet hier im PortRoyal z.B. mal bei 9:27 auf die linke Seite der oberen Kante des unteren Rings. In der Keynote war es im MS Flight Simulator bei den Fenstern von Wolkenkratzern auffällig. Wenn ich mir damit allerdings statt 60fps 140fps+ erkaufe, nehme ich das gerne hin lol Kommt noch etwas bezüglich der Auswirkungen auf die Latenz?
@@SerkuXY Mittlerweile scheint es mir so als müsse man das ganze sehr differenziert betrachten. DLSS 3 besteht eigentlich aus zwei Komponenten und NVIDIA verwirrt hier man wieder etwas den Endkunden. Zum einen hat man DLSS2 also AI supersampling. Das allein kann zu dem Phänomen mit dem Kantenflimmern führen. Erfahrungen damit habe wir bereits seit ein paar Jahren sammeln dürfen. Bringt natürlich gut FPS. Die "3" in DLSS 3 ist an sich ja frame interpolation. Verdammt gute, aber trotzdem "nur" interpolation. Hat mit Supersampling nichts zu tun. Es wäre irgendwie besser gewesen sie hätten dem Kind einen anderen Namen gegeben und es als separates Feature vermarktet..? Die Tatsache, dass hier AI generierte Bilder zwischen jedem "echten" Frame eingeschoben werden, kann das Flackern verstärken oder verursachen. Insbesondere würde meinem Verständnis nach dadurch jede Art von frame interpolation typischen Artefakten in einer flackerartigen Manier erscheinen.
Du bedankst dich für unser zuschauen,.. wir bedanken uns bei dir für die Infos! 😉 Vor allem hat mich das Ding mit der Leistungsaufnahme sehr interessiert.. Rein jetzt von deinem Test gesehen,.. hat die Karte vielleicht doch noch ein halbwegs faires Preis Leistungs Verhältnis, wenn man die Leistungsaufnahmen mit vergleicht. Und wenn sich alle Karten so gut undervolten lassen ist doch alles super. Eine solche Karte wird zwar nie in mein Budget passen,.. aber es kommen ja noch kleinere Modelle,.. ich hoffe die können genauso effizient. Und dann wäre ja noch das schweigende rote Team,.. vielleicht schaffen sie ja Konkurrenz was vielleicht den Preis noch etwas drücken kann
@@EldenLord. überleg mal-ähnliche Leistungsaufnahme bei einem nie dagewesenen Perfomance-Sprung: das KANN man sich gar nicht mehr beschweren, mann muss nur das Geld haben xD
hab ja auch die ganzen englischen Test Reviews schon gesehen und ich muss sagen, das hier war wirklich am informativsten von allen. Top notch, Roman! :)
Das Beste Video dass ich zu dieser Karte gesehen habe! Vor allem der Test mit der Effizienz. Das versteht man echt nicht warum die Karte so mit der Brechstange getrimmt werden musste. Bei 60% Powertarget noch unfassbare Leistung hatte doch gelangt und das was darüber hinaus geht für overclocker mit custom Wakü offen lassen können. Das würde die Karte viel attraktiver machen! Danke Roman für diese Arbeit!
Bin mal sehr gespannt wie das ganze so wird, wenn man sie noch besser gekühlt kriegt und sie auf dem Markt auch für normal sterbliche verfügbar und affordable ist.
Der Kommentar zu Igor hat mich mega gefreut. Wenn weiß was dort mal im argen lag finde ich es einfach cool dass eine Zusammenarbeit von zwei so kompetenten Menschen wieder möglich ist 👍😊
Absolut geniale Review vielen Dank dafür! Mich würde jedoch noch brennend interessieren, wie sich die 4090 in "älteren" Titeln schlägt und vor allem ohne RayTracing. Ein Witcher 3, RDR2 oder Cyberpunk alles ohne RayTracing aber 4k Ultra wäre extrem spannend, da bisher immer nur RayTracing mit RayTracing verglichen wurde.
@@De-M-oN den vorschlag unterstütze ich vollstens. in VR kann man nie genug leistung haben, gerade mit den modernen geräten die 8k auflösung haben. dort machen die teuren karten ja noch am ehesten sinn
@@NWGJulian Jau, aber wirds von Roman höchstwahrscheinlich nicht geben. Er scheint so gar nichts von VR zu halten, was wirklich super schade ist, aber 🤷♂
TOP Video (was auch sonst)! Zur Karte muss ich sagen: Beeindruckend! Ich gebe dir in Puncto Powertarget und Spezifizierung vollkommen Recht! Hätten in der Situation die 4090 lieber deutlich zurückhaltender gesehen und dafür dann lieber eine 4090Ti oder ähnliches. Der gigantische Kühler bei der FE und bei den Custom Modellen ist zwar gerade für Silent Fans (wie mich) absolutes Gold - gerade wenn man undervolting betreibt - aber dennoch waren die 3000er Karten schon gigantische Backsteine. Und die 4000er? Unglaublich... Zur FE: Das Design gefällt mir einfach absolut, da kann man meiner Meinung nach nichts meckern... Gerade wenn die Kühlung so gut ist, wie du es sagst, ist die FE eine ernst zu nehmende Alternative. Doch meiner Meinung nach hat die Karte ein (sprichwörtlich) gigantisches Problem: Der Preis. Ja, er mag in Anbetracht der Mehrleistung irgendwie legitim erscheinen. Allerdings wäre nach der Logik bei der nächsten Generation WIEDER eine signifikante Preissteigerung zu erwarten... Weil die Leute werden auch zu diesem Preis kaufen. LEIDER. Ich klebe seit Jahren auf meiner treuen EVGA 1080... Würde total gerne mal die neuen Features ausprobieren. Aber ich sehe es beim besten willen einfach nicht ein, so viel Geld für eine Grafikkarte auszugeben. Es ist aber auch egal ob es in diesem Fall die Grafikkarten für ~2000€ sind - oder Mainboards für ~500€ + Prozessoren für ~700€. Mir wird dieses Zeug einfach zu teuer. Mein Gehalt steigt zwar von Jahr zu Jahr und ich könnte mir hier sicher ohne Bauchschmerzen einen ~5000€ Gaming Kürbis unter den Schreibtisch stellen, allerdings sehe ich es einfach nicht ein. Auch als Enthusiast nicht. Und ich kann viele Gamer verstehen, die dem Gaming zunehmend den Rücken kehren. Denn die wenigsten können sich das noch leisten... Ich werde vermutlich wieder investieren, wenn mal was kaputt gehen sollte... Aber ich investiere nicht mehr wie damals immer in jede zweite oder sogar jede neue Generation von Hardware... Für WQHD Gaming ist mein Setup mit 3800X und GTX1080 absolut ausreichend... Sollte die nächsten Tage was kaputt gehen würde ich aber nicht zu den neusten Generationen greifen. Weder bei den CPUs noch bei den GPUs...
Der Preis ist das Resultat von harter Inflation und einem katastrophal miesen Euro-Dollar-Kurs. Der Grund, warum wir bis vor gut einem Jahr immer den Dollar-Preis 1:1 umsetzen konnten, war der Dollar-Kurs. Bei 1€ für 1,20-1,30$ hat man damit die Steuern und Zollgebühren aufgewogen, denn die US-Preise sind immer ohne Steuer und damit netto. Schaut man sich die MSRP der 3090 an aus 2020, würde man inflationsbereinigt bei 1715USD auskommen (original 1499USD). Das wären dann 1766€ netto. Das wären dann etwa 2100€ brutto. Beschwer dich nicht bei NVIDIA, sondern bei Putin, der hat den Mist losgetreten mit seinem Angriffskrieg und war damit der Auslöser für die Sanktionen, die wiederum die massive Inflation losgetreten haben.
@@diotough Mag an der Inflation liegen... Oder an was auch immer - ich beschwere mich trotzdem bei NVIDIA, AMD und co. Denn die machen letztendlich die Preise und die haben in den letzten beiden Jahren gesehen, dass es Leute gibt die seeehr tief in die Tasche greifen. Da war es noch Corona und Mining und nicht irgend ein Krieg... Gehört hier meiner Meinung nach aber auch nicht her die Diskussion. Zurück zu den Grafikkarten: Mal zum Vergleich: Ich habe für meine GTX 1080 (EVGA Custom Top Modell) "Damals" im stationären Handel 630€ gezahlt... Erste Custom Modelle der 4090 liegen bei ~2500€-2600€ - der Vergleich mag zwar gewaltig hinken. Aber das muss man sich mal auf der Zunge zergehen lassen... Für die Kohle hätte ich seiner Zeit ein komplettes Gaming Setup hinstellen können...
@@dario959-c5k Sorry, aber dann verstehst du nicht, wie Inflation funktioniert. Deine 1080 hatte in den USA eine MSRP von 699USD (Founders Edition). Das sind inflationsbereinigt dann 863USD netto bzw. ca. 887€ netto. Jetzt noch 19% USt drauf und wir sind bei knapp 1056€. Preise von vor 6 oder 7 Jahren heranzuziehen bringt nichts im 1:1 Vergleich. Das ist genauso sinnlos wie wen Opa Jupp sich aufregt, dass früher ein Brötchen noch 5 Pfennig gekostet haben. So funktioniert das nicht. Wir haben jahrelang von einem sehr starken Euro-Kurs profitiert, der immer so bei 1€ zu 1,20-1,30USD lag, jetzt liegt er dank bevorstehender Rezession und galoppierender Inflation aber nur noch bei 1€ zu 0,97USD. NVIDIA, AMD & Co sind nicht verantwortlich für den Währungseinbruch, für die Rezession oder die hohe Inflation. Und NVIDIA & Co zahlen die gestiegenen Kosten auch in Form von höheren Produktions-, Logistik- und Personalkosten. Glaubst du etwa, Jensen zieht sich die Preise aus dem Popo? Die haben schon klare Vorstellungen von ihren Kosten (sowohl direkt in der Herstellung als auch vorher in der Entwicklung) und wie hoch die Stückzahl bei Preis X sein muss, um das alles wieder reinzuspielen. Dass sie dabei noch Gewinn machen wollen (bzw. müssen - sind schließlich ein Unternehmen mit Investoren) ist ja auch normal. Kein Unternehmen wird einfach so Produkte unter Wert verkaufen, um am Ende in der Gesamtbilanz mit einem dicken Minus dazustehen - zumindest nicht ohne größeren Plan, der am Ende Geld abwirft.
@@diotough ich verstehe sehr wohl "was Inflation ist". Du scheinst nur nicht zu verstehen, worauf ich hinaus will. Wie ich in meinem eigentlich Post geschrieben habe, sind die Preise ja auch mehr oder weniger legitim. Der Anstieg ist nur meiner Meinung nach nicht richtig vermittelbar (Subjektiv, nicht objektiv) und ich habe daher das Beispiel zu meiner alten GPU herangezogen, was NATÜRLICH rechnerisch keinen Sinn macht. Es geht nur einfach um das subjektive Gefühl, dass es zu teuer ist. Und meine Konsequenz daraus ist, dass ich nicht kaufe wenn es nicht sein muss. Und selbst wenn es sein muss, würde ich eher nicht die neuste Generation nehmen. Und ich denke so geht's vielen. Gerade weil sich viele gar keinen Rechner mehr kaufe oder leisten können. Und das würde im umkehrschluss wieder höhere Preise bedeuten. Oder den vollständigen Wegfall von Produkten. Anderes Beispiel. Ich habe mir jedes Wochenende frischen Fisch vom Wochenmarkt geholt. Der ist inzwischen aber auch so teuer, dass ich das einfach nicht mehr einsehe. So mache ich das jetzt halt nur noch ein Mal im Monat. Ich bin sehr sehr dankbar, dass ich nicht verzichten MUSS, doch mir geht's ums Prinzip. Und die Moral von der Geschichte ist, dass einige Anbieter langfristig verschwinden werden, wenn die Nachfrage sinkt und so künstlich eine höhere Marktsättigung erzielt wird, weil die Preise immer weiter steigen. Ich habe die Hardware Hersteller schon immer dafür kritisiert, dass eben diese sich langfristig den Markt selbst zerstören. Es ändert sich nur einfach nichts... DAS ist das eigentliche Problem...
@@dario959-c5k Aber es macht doch keinen Sinn, NVIDIA einen Vorwurf zu machen, wenn es am Ende auf subjektiven Gefühlen basiert und nicht den objektiven Fakten? NVIDIA kann ja wie gesagt nichts dafür, wenn alles teurer wird und der EUR-USD-Kurs mies ist. Wenn das dann den Käufern einen faden Beigeschmack gibt, dann liegt das halt nicht an NVIDIA. Allerdings hast du ja oben NVIDIA zwischen den Zeilen vorgeworfen, sie würden Reibach machen wollen und ausnutzen wollen, was Käufer anscheinend bereit sind zu zahlen. Man muss sicherlich die beiden 4080er kritisieren, nicht jedoch die 4090. Hier darf man sich nur über das sinnlos hohe Power Target wundern und die völlig überdimensionierten Kühler - wahrscheinlich ein Überbleibsel der Phase, als man anfangs mit Samsung geplant hatte. Die 4080 12GB hingegen ist ein überteuerter Witz. Hier muss man NVIDIA hart kritisieren. Das Ding sollte eigentlich eine 4070 sein und bei 580USD bzw. 700€ liegen und nicht bei 899USD / 1099€. Mit dem Namens-Coup hat NVIDIA natürlich Tür und Tor geöffnet, um die 16GB Version deutlich teurer zu machen. Eine 3080 hätte inflationsbereinigt einen Preis von 800USD / 975€, selbst die 2080 ist inflationsbereinigt mit 942USD / 1148€ deutlich "günstiger" als die 4080 16GB mit 1199USD / 1469€. Hier liegt das falsche Spiel von NVIDIA. Nicht bei der 4090. Die ist völlig erwartbar und normal eingepreist.
Vielen Dank für deinen ausführlichen Test! Dass die 4090 kein 'Effizienzmonster' ist - und ganz ehrlich, verglichen mit der 3090 und dem enormen Performance-Zuwachs ist sie für mich ein Effizienzmonster - finde ich ok, sie ist das Flaggschiff und lässt selbst hier noch Spielraum für Overclocking. Wie auch bei AM5 (das Temperaturtarget sorgt für maximale Performance, gibt aber viel Energie als Abwärme ab) kann man hier mit wenig Aufwand (Powertarget, Undervolting, Temperaturbegrenzung) die Leistungsaufnahme senken ohne viel Performance zu verlieren (Optimum Tech hat hierzu ein echt interessantes Video gemacht). Für mich ist die Spezifikation definitiv nicht hirnrissig sondern auf den Punkt und durchaus auch das, was ich vom Flaggschiff erwarte: wenn ich will die beste Performance mit immer noch vergleichsweise hoher aber dennoch nicht utopischer Leistungsaufnahme und wenn ich mag immer noch sehr hohe Performance mit sehr niedriger Leistungsaufnahme.
Mit dem Argument hätte Nvidia aber auf 600W Leistungsaufnahme gehen müssen. Dann wären sowohl die Kühlkörper rechtfertigbar und für 33% mehr Leistungsaufnahme hätte man dann weitere 5-7% mehr-FPS bekommen. Und wäre man auf 750W gegangen, hätten man warhscheinlich wieder solche Zuwachse bekommen. Wenn man die 60% und 300W als 100% darstellt, sind die FPS-Zuwächse darüber verglichen mit dem Leistungsaufnahmezuwachs halt nicht wirklich sinnvoll oder rentabel.
@@asdfasdf-mn8iu Wie geschrieben: '...und lässt selbst hier noch Spielraum für Overclocking...' Große Kühlkörper für leise und auch im Hochsommer gut gekühlte Grafikkarten finde ich generell eine sehr gute Sache. Sinnvoll und rentabel ist bei High-End Computertechnik meiner Erfahrung nach eh immer so eine Sache :D
@@TG-ex3oo Joa, aber die FE ist ja jetzt normalerweise nicht bekannt für ihre guten oder großen Lüfter, dafür zahlt man ja dann nochmal 200-300€ drauf bei den Resellern. D.h. hier wurde wohl einfach nur falsch kalkuliert. Und er hat schon Recht, dass Nvidia wahrscheinlich mehr Ruf gut gemacht hätte mit einer 300W-Karte, bei der sie dann anmerken, dass man sie auf 600W hochfahren kann für OC-ler. Wobei, Nvidia würde sowas wahrscheinlich kaum machen, davon hätten sie selbst ja finanziell nix.
Man merkt, wie komplex dieses ganze Thema ist. Hatte erste mal das Gefühl, dass du das Skript abgelesen hast. (Keine Kritik, nur Feststellung). Warum die 4090 so designt ist wie sie ist, das hatte Igor in einem seiner letzten Videos ganz gut rübergebracht.
Er wird da schon entsprechende Stichpunkte/-sätze geschrieben gehabt haben, damit er nichts vergisst und das ist auch OK, gerade wenn es nicht gerade wenig ist.
Ja das lässt sich bei so einem Thema nicht vermeiden. Es waren knapp 100h Arbeit in dem Video und 8 Seiten Skript. Ich mache das meiste aus dem Kopf, aber bei sowas ist das unmöglich und es würden sich Fehler einschleichen :D
Mich würde mal ein Vergleich der letzten Modelle im Bezug auf definierte Leistungsaufnahmen interessieren. Gibt es sowas? Ein Vergleich von Performance bei 200W, 250W 300W? Das würde einen Vergleich von 1080 ti zur 3080, 4080 vereinfachen. Gleiches auch für CPU. Mich würde in dieser Hinsicht mal ein durchgehender Vergleich interessieren von der ersten Generation Ryzen bis zur jetzigen auf Leistungsaufnahmen bezogen.
Würde noch erwähnen dass es nur DP1.4 hat und falls man 4k über 120 Hz haben möchte dann in der röhre schaut. In den heutigen Spielen schafft ja diese Karte dies auch, weshalb ich auch hier Nvidia nicht verstehen kann
@@franzrecht6092 es hat hdmi 2.1a und laut deren seite unterstützt es 4K50/60 4K100/120 5K50/60 5K100/120 8K50/60 8K100/120 10K50/60 10K100/120 zudem hat man ab 3 monitoren immer eins über dp gebraucht als hauptbildschirm. weiß nicht ob sich da was geändert hat
Roman, danke! Ich liebe einfach deine Videos und deine Art von Benchmarks. Genau das was du im Video aufgezeigt hast, ist mir auch persönlich wichtig. FPS pro Watt
Du bist und bleibst meine Nummer eins wenn es darum geht technisch korrekte und 100% ehrliche Videos zu Hardware zu schauen alleine das im letzen Video mit dieser sharkskin Technologie ich glaube ich selbst wäre da drauf Reingefallen einfach danke das du aufklärt und auch keine Scheu davor hast das die Hersteller dich nach einem Video eventuell nicht mehr so toll finden. Dafür wir wahrscheinlich umso mehr Danke Roman🥰❤️
Hallo Roman, ursprünglich war nicht TSMC sondern Samsung als Chiplieferant vorgesehen, deshalb wurden Spezifikationen bezüglich Kühler und Stromversorgung so hoch angesetzt. Der Wechsel auf TSMC hat jedoch deutliche Einsparungen bei der Energieaufnahme gebracht, zu diesem Zeitpunkt waren jedoch die Bestellungen für die Kühler und andere Entscheidungen schon gemacht worden, daher kommt es jetzt zu diesem mismatch. Quelle IgorsLab (NVIDIA GeForce RTX 4090 - Plötzlich 450 statt 600 Watt? Die Gründe und warum die Kühler zu groß sind) Das Nvidia hier all in geht liegt meiner Meinung nach daran, dass sie unbedingt vor AMD bleiben wollen und Angst vor deren Chiplet-Design haben. LG
Das von Igor habe ich gesehen. Es ist eine mögliche Theorie, aber auch wieder schwierig weil du nicht innerhalb von 2 Wochen den Lieferanten wechselst. Das dauert Monate oder ggf. Jahre. Die Chips waren auf jeden Fall schon fertig als man die Kühler gemacht hat.
Geniales Video, sehr gut aufbereitet ohne unnötigen Schnickschnack. Wirst du auch so ein ähnliches Video mit der 4080/16GB bringen, in Bezug auf das Verhalten mit reduziertem Powerlimit, bzw. direktem Undervolting?
Endlich sieht man mal wieder, dass Konkurrenz gut für uns Käufer ist. 2000 Euro sind zwar ein lächerlich hoher Preis aber eine 4070 für geschätzt 600€ (Copium) und ca 30-40% mehr Performance als eine 3070 wäre einfach ein Traum. Die Experimente mit dem Power Target waren echt interessant und machen umso mehr Hoffnung auf bessere Midrange Karten, die nicht ein Netzteil zum schmelzen bringen.
Das wird wohl auch ein Traum bleiben. Das wäre natürlich schön wird aber bestimmt nicht so kommen, weder bei dem Leistungsgewinn noch dem Preis glaube ich das.
Dir ist aber schon klar, dass deine Rechnung nicht aufgehen kann? Die RTX 4080 12GB hat mit 7680 cuda cores weniger als die HÄLFTE! der Recheneinheiten einer RTX 4090 (16383 cuda cores). Diese wird sich demnach mit ca. 50% der Leistung einer RTX 4090 kaum über der RTX 3080 einordnen, und das bei über 1000€ UVP. Eine potentielle RTX 4070 wird demnach marginal schneller sein zu einem ebenfalls unverschämt hohen Preis. Nvidia meint, sie könnten den Preis über den Performanceschub von DLSS 3.0 rechtfertigen, der bei vielleicht 1% der Spiele zum tragen kommt. Die Realität bei der tatsächlichen Rasterisierungsleistung sieht aber ganz anders aus. Bis auf die 4090 wird die Preis/Leistung bei RTX 4000 ein absoluter Flop.
du hast nicht richtig bemerkt das die schon quasi die 4070 angekündigt haben und zwar mit dem Namen 4080 12gb, schau dir die unterschiede zu der anderen 4080 an da wird klar dass das einfach nur verarsche am Kunden wieder ist.
Die Erklärung des Sinns, könnte in RDNA3 liegen. Super Test, bin sehr an dem WireView insteressiert. Geniale Idee hier gleich das Stromkabel nachhinten zuführen!
4:15, ich habe es sofort gesehen. Der schießt echt 55% schneller, wow, ich bin geflasht. Jetzt kann ich ein Spiel in der Hälfte der Zeit durch spielen, so schnell ist dieser Trümmer.
"...und das machen wir mit einem unveröffentlichten Produkt von uns..." Mega. Hatte sofort "WireView" gegooglet und mich gewundert, warum ich da nichts finde. Sehr sehr cooles Teil!
Das war jetzt das dritte Video zu dem Launch dass ich mir heute angesehen habe und es war das beste davon. Wieder super sachlich erklärt, dass es auch ein Noob wie ich versteht, auch mit Details die andere Kollegen von Roman nicht getestet haben. Legendäre neue GPU die ich mir in Zukunft wohl nie leisten werden kann. Heizöl oder Hardware? Die 4090 wird ja nicht mal richtig warm 😆.
Scheisse, Roman, Wie geil! Wire view?! So einfach so genial! Ich möchte das haben! Und jetzt mal ruhig;) Sehr tolle Idee! Übrigens danke für deinen Verweis auf Igor! Ihr ergänzt euch nämlich echt optimal! Soll heißen wenn man sich bei euch beiden informiert ist man wirklich voll umfänglich informiert!
was für ein absolut geiles Video. Endlich mal jemand der im Zusammenhang mit dem Stromverbrauch rumgespielt hat und Undervolting etc betrieben hat, um eine Balance zwischen Performance und FPS zu liefern. Absolut top. Jetzt warte ich nur auf eine Art 4060 oder ähnliches, wo die Archtiektur in bezahlbarer Form unter die Leute kommt. Top Video !!!
Klasse Video 👍 alles super erklärt! WireView finde ich sehr interessant, eine sehr schöne und für Tester interessante Entwicklung. Das mit dem Power Target ist wirklich kraß. Heißt das, die 4090 könnte auf 60 - 70 % Power Target bei top Bildqualität sogar deutlich weniger Leistung benötigen als meine 2080 Ti und dabei deutlich leiser sein? Meine 2080 Ti macht sich mit ihren Lüftern gerne öfter bemerkbar bei 4K Spielen, wenn sie einen startenden Düsenjet simuliert. Dann muß ich leider entweder mit der Auflösung oder den Details etwas runter, damit wieder Ruhe ist. Von DLSS 3 bin ich auch beeindruckt, ich hoffe, daß in Zukunft viele Spiele das unterstützen werden. Die 4090 beeindruckt mich wirklich, jetzt bin ich auf weitere Tests mit den eigenen Designs der Hersteller gespannt.
Sehr gutes Video mal wieder und äußerst beeindruckend, was diese Karte leistet! Mich würde sehr interessieren, was mit manuellem undervolting noch möglich ist, nicht nur eine simple Reduzierung des Powerlimits :)
Danke! Super Video... Für die Spezifikation der 4090 sehe ich 3 Gründe: 1) Bei der Olympiade gibt es die Goldmedaille nur für den ersten, nicht für den, der am effizientesten 100m sprintet. Solange AMDs RDNA3 "droht", können die sich nicht leisten, mit Strom zu geizen und dafür 2% weniger FPS zu haben. 2) Die 4090 ist eine Enthusiasten Karte, die der Durchschnitt sich nicht leisten kann/will. Mit 4k 144Hz Monitor, einer CPU die die Karte ausreizt, etc kommt man für das Gesamtpaket locker auf >5000€. Der erhöhte Stromverbrauch schlägt bei solchen Preisen dann auch nicht wirklich ins Gewicht. 3) Die NVidia Referenz darf nicht von Board-Partnern übertrumpft werden. Wenn das Referenzdesign schon am Overclocking Limit arbeitet, haben die anderen Partner keinen Spielraum mehr nach oben, sondern können nur alberne Sachen, wie RGB und Sharkskin Lüfter machen. Was mit EVGA gelaufen ist scheint dies zu unterstreichen: anscheinend möchte NVidia seine Lohrbeeren und Gewinnspanne einfach nicht mehr teilen. Wenn NVidia auf die von dir vorgeschlagene effiziente 300W als Referenz gesetzt hätte, könnten ASUS ROG und Konsorten mit aufgebohrtem Powerlimit und dickerer Kühlung da mit besseren FPS trumpfen und das wäre doch quatsch!
Naja auf den Stromverbrauch wird SEHR geachtet, vor allem in reviews und wenn die Karte 2% langsamer ist aber 15 sparsamer ist das deutlich attraktive gerade hier in de. Mir ist es ja auch egal aber die hitzeentwicklung im Sommer ist echt unschön
@@theplayerofus319 Für professionelle Anwendungen z.B. im Serverbereich gebe ich dir recht, aber für die ist die Karte nicht gedacht. Ich sage ja auch nicht, dass ich das so sehe, ganz im Gegenteil, sondern versuche nachzuvollziehen, was im Boss-Kopf der Lederjacke abgeht...
@@MHWGamer Mit "display stream compression" schon, auch wenn ich natürlich wie alle Enthusiasten gehofft hätte, dass die Karte sowohl DP2.0 als auch PCIe5.0 für die Zukunft an Board hat. Allerdings kann ich die "Logik" nachvollziehen, dass es aktuell noch kaum kompatible Monitore/Fernseher gibt und wir Konsumenten schließlich in 1-2 Jahren bitte das Nachfolgemodell kaufen sollen! 🤑
Bei der Leistung wirkt der Preis ja fast wieder "okay".....Ich würde gerne mal die Leistung in VR Games zB im (MSFS 2020) sehen. Gibt es dazu schon Erfahrungen? Denkst du, dass es auch bei VR einen starken Leistungssprung geben wird? Schade, dass es dazu noch keine Infos gibt.
danke für alle diese nützlichen Infos, Roman! Nein echt... ich glaub ich hol mir die karte. Dein Tipp mit den ca. 70% Power Target werd ich dann direkt umsetzen. Ich denke meine GTX 1080 TI OC kann nun endlich in Rente gehen... wird echt mal Zeit für ein Upgrade. Bin mit meinem R9 5950X ständig im GPU limit, sei es bei Games oder bei produktiver Arbeit wie z.B. Adobe Lightroom, Photoshop oder After Effects/Premiere.
Das kam jetzt überraschend. 😅 Nach dem was man bisher gelesen hat, hätte man sowas nicht erwartet. Aber gut zu wissen. Nun bin ich auf die kleineren Ableger gespannt. 🤔 Mal wieder ein sehr detailiertes Video. Vielen Dank dafür. 👍
Tolles Video Roman. Danke! Was leider fehlt sind Raytracing Benchmarks bei Cyberpunk!? Sweetspot Powerlimit 70 Prozent! (Leider werden die 2300 Tacken dann noch weniger Wert ;-)).
Bei dem Geräuch kann ich dich beruhigen. Das entsteht, wenn die Ventilatorflügel recht nahre an fen Lühlfinnen vorbeimarschieren. Dabei entsteht ein Kurtzes Teilvakuum, was sich dann wieder mit luft füllt. Das bei einer Höheren Frequenz erzeugt genau dieses summen.
Dass ein einfaches begrenzen des Powerlimits mehr nützt, als manuelles Undervolting find ich schon echt heftig und zeigt, wie gut der "Taktgenerator" der 4090 funktioniert. Ich bin da echt mal gespannt, was da mit Wasserkühlung noch geht.
@@itslegiTim Dir ist aber klar, dass eine entsprechend niedrigere Temperatur den Innenwiderstand der GPU senkt und damit die Leistungsaufnahme erstmal senkt? Das ist mit der Grund, warum unter Wasser höhere Taktraten bei gleicher Leistungsaufnahme möglich sind.
Ich hoffe, dass du das selbe Thema mit der Leistung/Watt Kurve nochmal bei Ryzen 7000 und Intel 13th Gen aufgreifst. Da geht gerade einiges schief und die Firmen brauchen mal wieder etwas medialen Druck um wieder auf mehr Effizienz zu setzen
Zum gigantischen Design der Karte hatte Igorslab einen interessanten Artikel. Offenbar gingen die ursprünglichen Eckdaten der Karte, die zu den Partnern wie Asus, MSI etc geschickt wurden, noch von einer Fertigung bei Samsung aus. Dort hätte man mit 8nm tatsächlich 600W gebraucht, um die genannten Kerne zu befeuern. Anscheinend war dann der Switch von Samsung auf TSMC, wo man mit weit effizienterem 4nm gefertigt hat, dann zu spät und die Partnerkarten waren schon designed und konnten nicht Last-Minute wieder verändert werden. Ich schätze, die Produktion der PCBs und Kühler brauchte zu lange Vorlauf. Könnte mir durchaus auch vorstellen, dass die Fertiger der Founders-Edition-Kühler die gleiche Problematik hatten. Jetzt sind die Karten nunmal da. Da waren 50-100W mehr oder weniger auch egal. Das PCB und die Kühler können mehr, also lässt man sie mehr Strom aufnehmen. Jedes bisschen Leistung ab Werk hilft im Vergleich gegen die aktuellen Karten und die Konkurrenz. Feintuning betreibt der Durchschnittskunde nicht. Die Effizienz ist wie bereits im Video erwähnt grandios, aber die Mehrheit guckt sich an, wer im Balkendiagramm den längsten hat - und dann quetscht man halt raus, was geht.
Ich finde es gut, das du hier endlich auch die Leistungs steigerung, im vergleich zur Liestungsaufnahme erwähnst, und vorallem auch darauf eiungehst, das man für geringe leistungsverluste, viel energie sparen kann. Zum PowerLimit. Ich habe da (mit der 3060) eine etwas andere Erfahrung. Ja man kann das Limit absenken, und dadurch energie Sparen. Und bei Einer AMD GPU wie auch CPU, hilft es sogar wen Takt abzusenken um die Leistungsaunahme Stark zu reduzieren. Bei Nvidia (3060) ist dies aber anders. Der ist es eigentlich total egal auf welchen Takt sie Fährt, (zumindest in meinen Anwendungs Szenarien), das hat keinen EInfluss auf Die Leistungsaufnahme. Entscheidender ist hier Wirklich das Undervolting. So Lasse ich meine 3060 auf 0,875 Volt bei 1900 Mhz laufen. Das Powerlimit habe ich dafür auf Standard gelassen. Der Grund dahinter ist meine im Kopf zusammen gesetzte Logik, wenn ich mir das so überlege weiß ich aber nicht mit sicherheit ob die Richtig ist. Die Logik sagt aus. Wenn ich das PowerLimit auf Standard lasse, habe ich Rechnerisch 180 Watt (oder was so standard ist) durch 0,875 Volt = 205,71A (Was natürlich nciht bei der Grafikkarte anliegt). Was das Limit ist sehe ich über HWInfo nciht, da Nvidia da wohl keine Angaben (sensoren) für hat. Jedenfalls Bräuchte ich für 180 Watt bei 0,875 Volt diese 205 Ampere. Diese sind aber sehr Wahrscheinlich nciht da. Aber Die KArte Würde so dennoch dazu gezwungen aufs Maximum zu gehen. (Gut für die Stabilisierung des Undervolting). Würde ich das Power Limit auf maximum absenken, (glaube waren 60%) und somit 108 Watt Maximum, durch 0,875 Volt, würde ich auf 123,428 Ampere kommen. Durch das Undervolting wiederum, würde die Karte aber nochmal etwas weniger Watt aufnehmen, also noch weniger Ampere Fließen lassen. Daher meine Logik = Undervolting Instabieler. Ich muss kalr sagen, in meinem Anwendungsbereich, ist das Egal mit der Spannungs Sstabilität Aber wenn andere das lesen, die was Optimieren wollen bei hohen Leisutngen ist es vielleicht wichtig. Fakt ist, ich habe mit der schiene PowerLimit auf Standard, 1900Mhz maximal und 0,875 Volt in meinem Anwendungsberecheich nur noch maximal 47 Watt (laut HWinfo). Ohne diese Anpassungen waren es in meinem Anwendungsbereich 82 Watt. Anzumerken ist aber auch, das Nvidia sehr sensiebel Reagiert, bei zu niedriger Spannung, oder auch zu hoher Spannung. Das kann die Leistungsaufnahme minimal erhöhen, statt zu senken. Wieso und warum, da bin ich noch nicht dahinter gekommen. Mit dem Takt scheint es jedenfalls ncihts zu tun zu haben. (Das wäre vielleicht erst zu merken, wenn man die Karte voll auslastet). Daher würde mich bei der 4090 mal Interessieren, was Passiert bei einem Takt von sagen wir mal 2000 bis 2300 Mhz bei nur 0,875 Volt ? vielleicht auch bis 0,950 Volt Maximal. meine 3060 Kann ich Maximal noch bis 0,850 Volt Mit Maximal Takt beglücken. Alles darunter wird über MSI Afterburner nicht genommen. Also kann ich im niedrigen bereich zwar den Takt Absenken, aber die 0,850 Volt ist das Letzte was ich steuern kann. Ich denke Die 4090 Verliert zwar so nochmal etwas an Leistung, aber was das In Leistungsaufnahme bedeutet wäre Interessant. ( Immerhin sit es nur ein Test (was wäre wenn) und nciht was sein muss. xD Neugier und so. Der Takt hat wie oben beschrieben zwar keinen wirklichen Einfluss im Leistungsaunfahmen bereich (was ich auch nicht nachvollziehen kann), ist der aber zu hoch bei zu geringer Spannung, schmiert die karte Logischerweise dennoch ab. xD Was ist mein oben Angedeuteter Verwendungszweck? Naja .. in OBS die KArte 268 MegaPixel Berechnen lassen (DirectX auflösung Maximum mal DirektX auflösung maximum (mehr gebe ich nciht als hinweis) ^^ (Fake 4k (3840x2160) haben gerade mal 8MegaPixel.) Das ganze muss die Karte mal 60 Bilder die Sekunde + Filter bearbeiten, in der VOrschau wiedergeben + das ganze noch als Video ausgeben (dann aber nur in full HD = 2 MegaPixel. Und natürlich läuft die auch noch dank DSR auf 4k bei einem Full HD Monitor) xD. Gaming Berechnen macht meine RX 6600XT (auch nur maximal 60 Watt), alles andere was ich aufnehme geht auch wieder zusätzlich noch über die RTX 3060. Also die hat schon hier und da zu tun. Nebenbei noch um zu klären wie ich hier von Sparpotenzial und dann mehere Grafikakrten reden kann. Wie gesagt RX 6600XT nimmt Maximal 60 Watt (Lässt sich super über Takt Senkungen bewerkstelligen bei 60 Hz und full HD kein Problem). Und die Nvidia habe ich bisher nur nach meinen Letzten optimieerungen bei Maximal 47 Watt gesehen. Wenn Sich die AMD karte ums Gaming Kümmern kann, hat die Nvidia mehr Platz für und rechenleistung für die Video Geschichten. Insgesammt also Stand derzeit für beide Grafikkarten gesamt 107 Watt. Und auch meine Ryzen 9 5900X läuft in Benchmarks etc. Maximal auf 72 Watt, im Ganming eher bei 42 bis bisher maximal gesehen 55 Watt. Also GPU's + CPU gaming + Aufnahme derzeit ca. 162 Watt + Festplatten, chipsatz, Lüfter, netzteil Innefizienz etc. = 90 Watt = Maximal im Gaming + Aufnahme 252 Watt. (gemessen an Steckdose, zurück gerechnet aus Einzelwertetn von HWInfo. Nur PC Ohne Monitore und sonstiges).
Wie immer klasse Video. Ich denke der Weg zu großen Effizienzsteigerungen beim Gaming ist ganz klar KI-technik wie DLSS 3.0, Node-shrinks können da in Zukunft nur noch begrenzt helfen, einfach wegen der Physik.
20:20 du sprichst mir so aus der Seele! wenn du die Lederjacke mal triffst, frag sie mal bitte was das sollte. und wehe er sagt Samsung 8nm vs TSMC 6nm ;)
Sehr schöner Test, gerade die Specs ohne Nvidias gebubbel waren nun interessant, leider schwebt bei der Karte bei mir ein großes FRAGEZEICHEN darüber. Weshalb brauche ich diese Karte und warum sollte man die sich kaufen? 1. Ich muss zwingend auf eine 4k Auflösung gehen um überhaupt einen nennenswerten Vorteil zu haben. Somit richtet sich die Karte, wenn man mal z.b. Steam als Indikator nimmt, etwa an 2,46% aller Spieler. Wegen mir auch 5%, warum baue ich eine Karte die für gerade mal 5% aller Spieler interessant sein sollte? 2. Dazu kommt das eine 4k Auflösung bei einem nativen 4k Monitor der meistens bei 27-32 Zoll liegt keinen großen Unterschied 1080P macht. Wenn man die übliche Berechnung für Auflösungen für FullHD nimmt (Diagonale in cm (Zollx2,54) x 1,5) wären das 102,87cm bis 121,92cm. Ergo man müsste Näher als die angegeben Länge am Monitor sitzen um überhaupt einen Unterschied festzustellen. Wenn ich das dann schon auf 8k sehe, das ja auch schon anfängt. 8k kann das menschliche Auge zu einem großen Teil überhaupt nicht mehr erfassen. Da müssten es schon riesige Monitore sein, bei dem man eh schon weit genug weg sitzen würde und dann auch keinen Unterschied mehr feststellen. 3. Für Singelplayer sind FPS über 60 meistens voller Humbug. Jaja ich weis, nun kommt die Frame-Latenz dazu und das Gerede über natürliches Motionblur und das wegen Film das es ja hat, man nicht automatisch auf PC umrechnen kann. Doch in Singelplayerspielen habe ich vorgerenderte Bewegungen, die eben schon längst berechnet werden, wenn das Bild angezeigt wird. Da gibt es keine großen Zufälle, wie in einem Multiplayer. Ergo ab 60fps bis 120-144fps ist es ein reines Wohlbefinden für das persönliche Auge was ich hier erreiche. Spielerischen Mehrwert hat es so gut wie keinen und ist die Leistungsaufnahme nicht wert. 4. Es gibt auch kaum Technik in Spielen, die so eine Hardware erfordern, ergo weshalb? Um Star Citizen mal auf 90fps zu bekommen, bei seinem unoptimierten Zustand? CoD auf 400fps zu spielen weil man Multiplayer mag? Ergo, für mich ergibt als ein Spieler der bei seinem Monitordistanz schon keinen Unterschied zwischen FullHD und 4K erkennen kann die Karte keinen Sinn. Ich spiele auch keine Shooter bei der die hohe FPS wichtig ist um schneller reagieren zu können und selbst wenn, würde ich auf ein pro-setting gehen. Da ich primär Singelplayer spiele und 60fps für mich auch die persönliche angenehmste stabile Framerate mit meiner 3080 ist, weshalb diese Karte? Im Moment ist die Karte für mich ein reines Prestige Objekt, ja ich hab mehr Leistung, toll, braucht man die wenn man eh schon ein high Ende der 3000er Reihe hat? Eigentlich nicht! Ergo es ist nur für Leute die wirklich auf 4k Spielen möchten und das sind nicht sehr viele. Da versteh ich das ganze Marketing überhaupt nicht, gerade jetzt wären doch preiswerte neue und gute Karten angebracht. Gerade nachdem Nvidia die Gamer mit den Miner-Massenverkäufen geprellt hat, nun noch Skalperpreise für die Karte verlangen. Für mich bleibt, zu teuer, zu viel unnütze Leistung und dafür zu viel Stromverbrauch. Ergo kein Preis der zum Nutzen steht, trotzdem eine schöne Karte!
Mal wieder super abgeliefert und ein absolut ehrliches Statement zur 4090, da bin ich Fan von, Klasse! (Wie immer.) Nur, wann kommt das WireView in den Handel? ;) ;) ;)
Gefällt mir sehr, dass du auch die Effizienz getestet hast, das hab ich mir auch schon überlegt. Ich denke übrigens, dass dlss3 sich relativ schnell "verbreitet" bis jetzt haben ja schon viele Games dlss(2) und ich denke da wird es Integrations- technisch keine so großen Aufwände geben wie beispielsweise bei raytraycing
Ich weiß nicht, ob das hier schon geschrieben wurde, aber Igor hat zum Thema, warum die Karte so ist, wie sie ist, ein sehr gutes Video gemacht. Kurz zusammengefasst: Das Board, der Kühler und die Spannungsversorgung wurden entworfen, bevor der Chip bei TSMC gefertigt wurde. Samsungs Prozess hätte eine viel geringere Effizienz gebracht und hätte eben den deutlich größeren Kühler usw. benötigt. Nvidia hat dann am Ende nur den GPU getauscht, den Rest aber auf Grund von Kosten und Zeit so gelassen.
Das kleine WireView-Teil ist echt ne feine Sache, würde ich mir sofort kaufen. Den eiernden Lüfter hat auch JayzTwoCents festgestellt, hat es dann Wobbly Feature genannt.
15:26 unter der Bar ist ein bunt leuchtender Streifen. Mit DLSS flackert der ordentlich. Aber dieses Artifakt ist dem Performance Bonus echt wert. Man muss einfach mal sagen: Hut ab Nvidia. Wenn die Fehler noch gefixt werden können, dann würde ich sagen, dass DLSS wirklich die Zukunft von real time rendering ist. Aber auch so würde ich DLSS schon verwenden, weil es bereits so gut ist.
@22:02 Das haben alle Karten, dass der lüfter ab 45% solche geräusche macht. Auch bei 70% ist ein metalisches klappern der Kühllamellen wahrzunehmen, auch bei allen so. Habe jetzt sechs 4090 getestet, alle das gleiche. Aber der eiernde Lüfter @21:41 das ist nicht normal. Wie auch immer, die Karte dreht die Lüfter eh nie so hoch somit ist es egal.
Danke Roman für den Exklusiven Content und das ausführliche Review! Ich frage mich ja immer noch, wie das mit DLSS 3. Gen Hard- und Sotwaretechnisch im Detail funktioniert. Auf jeden Fall anders als noch bei DLSS 2. Gen und nicht mehr mit *.dll Dateien, oder etwa doch?
Super Video! Ich bin mal gespannt auf die Quadro-Versionen dieser Karte, wenn sie das Power-Target so anpassen müssen, dass es mit einem zwei-Slot breiten Blowerkühler verwendet werden kann. Die müssten dann sehr effizient sein und mich würde da dann der Vergleich zur derzeitigen RTX A6000 interessieren. Mit der Effizienz könnten auch low profile Karten wieder interessant werden...
Das Geräusch von dem hinteren Lüfter hört sich für mich an wie der Ton von nem Pusher Prop. Etwas zu nah an die Vorderseite von nem Lüfter oder Propeller bringen macht Ihn meist sehr laut. Das Video "Prop Slot Noise Reduction by Otto Dieffenbach" zeigt ganz schön wie viel Unterschied es machen kann ob man was vor oder hinter nem Lüfter platziert.
Ich finde es unfassbar gut das du nicht wie viele andere Tester wie LTT sehr detailierte reviews über die reine Leistung machst sondern Effizienz, Powertarget und Sinnhaftigkeit in deine Reviews mit einbaust. Die Karte klingt fast schon so als wäre sie in 2-3 Jahren bei niedrigerem Preis DAS GO TO Modell für Gamer wie es die 1080 und 1080ti lange Zeit anhand Preis für Leistung waren (Natürlich bei 70% PT)
Finde ich echt nice, dass du dich mit Igor trotz der Vergangenheit noch scheinbar versöhnen konntest :). Finde das echt top, weil ihr beide echt coole Technik-RUclipsr seid!
was war in der vergangenheit?
Absolut. Würden die beiden ab zu mal gemeinsame Dinge machen, wäre das geballte Kompetenz in Reinstform
@@A6Armin unnötiger kindischer beef von 2 experten. haben beide sicherlich längs begraben, weil gemeinsam erreicht man mehr und man wird auch älter... immerhin haben beide die gleichen interessen und man kann beiden nicht vorwerfen, das sie gut sind indem was sie tun
@@A6Armin Ist doch nicht wirklich wichtig!
@@heiligesblechel Solche Leute kann ich ja gar nicht ab. Wenn man fragt "was ist denn" als Antwort "ach, nicht wichtig" zu geben ist an kindischer Lächerlichkeit kaum zu überbieten .
Die Power Limit Analyse ist Gold wert, besonders wenn man viele machine learning runs vor hat. Echt top, dass du sowas bereits im ersten Video bringst!
Genau in der selben Situation. Die Karte geht dann direkt auf 50% für die längeren Sachen.
Sehr starkes und informatives Video. Auch die Kritik sehr sachlich und top rübergebracht. Vielen Dank für deine Videos :)
Vielen Dank!
@@der8auer Wenn man eine 4090 nur gegen eine 3090 Ti und 3080 Ti vergleicht, ist das eher weniger informativ.
@@treiberTV wieso? Alle anderen Karten kannst du immer in Relation dazu setzen. Du weißt doch wie schnell z.B. eine 6900XT oder RTX 3060 dazu ist...
Bei dem Titel läufts mir kalt übers Netzteil:)
Da werden mir die Kabel warm…
Da sträuben sich einem die Katzenhaare im Lüfter
Da das abgefangen hat zu qualmen gar nicht so schlecht
Ich versteh den Kommentar nicht. Er hat doch hier bewiesen, dass die Karte im täglichen Gebrauch deutlich energiesparender ist als eine 3090ti, oder habe ich nicht richtig aufgepasst?
Wenn er das PD nun so tief gesetzt hätte, dass die Performance mit der 3090ti gleich ist, würde sie das wahrscheinlich mit der Hälfte der Leistungsaufnahme packen.
Also ist sie doch eigentlich eine extrem sparsame Karte im Gaming-Alltag.
@@HenkP85 das wussten wir aber nicht bevor wir das Video gesehen haben 😉 enormer Strombedarf war angekündigt
Großartige Arbeit Roman! Die Effizienzkurve ist mega spannend und auch die neue messtechnologie
Dass die Karte miit ca 320w fast genauso gut läuft macht mir Hoffnung für die echte 4080, bin gespannt wie die läuft
Ist ja ein anderer Chip, aber bin auch schon gespannt.
Läuft deutlich langsamer wenn man Nvidias Slides glauben mag.
@@MicroageHD Jepp, habe ich auch gerade gesehen. Insbesondere die "Möchtegern" 4080 (12 GB) ist ein Schlag ins Gesicht. Die kommt ohne eingefügte Fakebilder (Dank DLSS 3.0) in "A Plague Tale: Requiem" mit Ach und Krach über eine 3080. Und selbst zwischen der 4080 16 GB und der 4090 liegen einfach mal Welten! Nach der Euphorie um die teure 4090 werden die 4080er wohl ne herbe Enttäuschung. Insbesondere unter der Berücksichtigung des immer noch amtlichen Preises dieser Karten. Ich frage mich ernsthaft, wie da noch eine 4070 abschneiden soll, mit höchstwahrscheinlich gerade einmal 10 GB Speicher und der Performance - im Idealfall - einer 3070 Ti. Ohne die eingefügten Bilder via DLSS 3.0 (Frame Generation) hat die quasi kaum eine Daseinberechtigung bei einem Preispunkt von wahrscheinlich um die 800,-€ (!!!).
Also dieser Test schlägt dem Fass wirklich den Boden aus, nachdem wir ja mit deutlichen Performance gewinnen vor 2 Jahren in die Grafikkarten Abzocke 2020 und 2021 geschickt worden sind, ist das jetzt sogar ein phänomenaler Leistungssprung im Verhältnis zum Preis. Das erklärt auch die nun "rasant sinkenden Preise" bei allen 3080, 3090 und 3080ti/3090ti modellen.
Ich bin nun noch mehr auf die AMD RX 7000er Serie gespannt ob man hier mithalten kann. Toller Review Roman.
Die Preise gehen seit 5 Monaten in den Keller wegen dem Crypto verfall, womit auch die Scalper wegfallen, der Absurden Welle an Gebrauchten Karten die auf den Markt schwemmen, drücken bereits massiv die Preise und bei allen, sei es Händler, Großhändler, oder Boardpartnern, haben alle Prallgefüllte Lager, Typisches Angebot und Nachfrage Szenario. Es ist kaum Nachfrage da, aber das Angebot ist so groß wie noch nie.
Ist nichts anderes wie damals vor 2018 mit dem Crypto das für Überteuerte Karten sorgte und im Jan 2018 das dann wegen dem Verfall völlig ins Bodenlose fiel.
Das ist und war auch der einzige Preistreiber in der ganzen Sache, der nun weg ist, das ganze wird auch die neuen Karten mit voller härte Treffen, alleine schon aus dem Grund, weil die Produktionskapazitäten 2021 eingekauft hatten weil die dachten, es geht munter weiter so, haben sich nun aber Verkalkuliert und haben jetzt die Kapazitäten am Hals und wissen nicht wohin damit.
Dazu gesellt sich dann auch noch das Problem, das Intel als Dritter Akteur dazu auch noch kommt und das ganze nur noch schlimmer macht.
Ende vom Lied, es gibt grade eine Tsunami an Grafikkarten, die den Markt völlig überschwemmt.
Welche sinkenden Preise? Bei Nvidia hast du eigentlich nie wirklich sinkende Preise... wenn dann bei AMD und eventuell noch bei Intel aber doch nicht bei Nvidia...
Soweit ich gelesen habe sollen die AMD Karten (deutlich) günstiger sein aber auch durchaus einen (ordentlichen) Leistungsprung hinlegen auch wenn diese wohl nicht die 4090 erreichen werden...
Ich werde mir wohl entweder eine RTX 4080 (die kleinere Version) oder falls AMD Preis/Leistung etwas besseres bietet (was ich wirklich hoffe) werde ich tatsächlich zum ersten mal in meinem Leben eine AMD PCIe Grafikkarte kaufen...
Ich sehe es nicht mehr ein überteuerte Karten zu kaufen und bleibe trotz 4k Gaming im mittleren bis oberen Bereich im punkto Preis.
Im Gegensatz zu den AMD Kartenpreisen sinken die RTX eigentlich eher weniger rasant find ich. Auch wenn man Preisleistungstechnisch schaut, ist die 6900XT derzeit Meilenweit vor der 4090. Natürlich ist der Anstieg an Leistung super, aber man muss im Hinterkopf behalten, das die hohen Preisen von nV deswegen gesetzt sind, weil man die 30xx nich verbrennen will-
@@m4d-m4x Schau dir den Preisverfall der 6000 und 3000 Karten an, das passiert alles wegen den bereits genannten Gründen und das wird den neuen Karten ebenso Passieren. die dabei angesetzte Mond UVP von Nvidia wird daran nichts ändern, weil der Markt das Aktuell nicht hergibt. Nach der Early Adopter Phase, wird der Preis ordentlich in den Keller wumpern.
Ist alles so schon mal passiert und passiert aktuell nur in einem noch größeren Ausmaße.
Welche sinkenden Preise? 😅 Die RTX 3080 ist teurer als vor 2-3 Monaten. Die 3080 ti ist eh ganz komisch mit den preisen gewesen im Vergleich zur 3090. Das der Preis der 3090 gesunken ist, war auch höchste Zeit. Wenn man künstlich utopische UVPs setzt und dann so tut, als wäre die Karte nun günstig / ein Schnäppchen…herrlich.
Hoffen wir mal, dass AMD eine richtige Überraschung raus haut. Speziell bei Features und Treiber / Software, damit Nvidia mal wieder zu Sinnen kommt…wobei ich das bezweifle
Wirklich eine tolle Karte. Ich glaube letztes Jahr wäre ich noch so beklopft gewesen und hätte sogar diesen Preis bezahlt. Aber ich freue mich für alle die es sich noch erlauben können.
Achja, wirklich auch wieder ein tolles Video. Auch das die Differenzen (wenn es die den gab) mit Igor geklärt sind.
Die von Nvidia hingewiesenen Probleme mit AM5 würden mich noch einmal genauer erklärt sehr interessieren. Da ich bisher vorhatte mit eben den am5 cpus und der neuen 4090 ein neues System zu bauen.
wird ja nur vorläufig sein bis da ein bios update oder ähnliches die probleme fixt
@@eisbaer5011 Klar selbstverständlich. Ist aber tzdm ganz nett vorher bescheid zu wissen bevor man shopped.
Ich denke da wird es keine Probleme geben, oder diese sind Hausgemacht um eben AMD zu schwächen.
Wird interessant ob in dieser Generation schon PCI-E 5 nen Unterschied bei den Grafikkarten macht.
sollte man sehen was amd so für gragas rausbringt da sam schon eine feine sache ist
@@Anon-One nicht nur sam, auch das wir wohl das erste mal multi Chip gpu's sehen die deutlich effizienter sind pro fps der erzielt wird.
Wieder TOP Informationen. Auch wenn ich so eine Karte niemals kaufen würde sehe ich mir die Videos gerne an, auch um im Hardwarebereich am laufenden zu bleiben. Besten Dank.
Tolle Arbeit! Ein Wunsch meinerseits:
Gerne zukünftig noch mehr Fokus auf FPS/Watt Optimierung/Messung legen, der zweite Teil des Videos dazu war extrem spannend!
In den charts evtl. generell auch ein Balken FPS/Watt einbinden.
Fachlich einfach die besten Reviews und Beiträge. Immer mega interessant und gut recherchiert/getestet.
Im Vergleich zu vielen anderen deutschen Hardware-RUclipsrn, die alle 2 Wochen eine Grafikkarten-Marktanalyse und daraus jedes Mal eine Sensation machen, sind das einfach Welten. Aber selbst wenn mal das gleiche Themengebiet abgedeckt wird, sind die Beiträge von Roman einfach eine Hausnummer.
Musste ich mal loswerden ...
Zu DLSS 3 fände ich vor allem die Latenz interessant zu analysieren. Bei der Frame Generation handelt es sich ja um Interpolation, was heißt dass sowohl der Frame vor und der Frame nach einem generierten Frame fertig sein müssen bevor der Frame generiert werden kann. Dadurch muss sich eigentlich die Latenz um mindestens einen gezeigten Frame verschlechtern, wenn man das mit den selben DLSS Auflösungs-Upscaling Settings macht. Wäre interessant da mal konkrete Zahlen zu haben.
Wurde das nicht so erklärt, dass die vorherigen Frames genommen und analysiert werden, um Bewegungsvektoren herauszurechnen? DLSS kann doch keine Verbesserung bringen, wenn nur ein Zwischenframe berechnet wird. Das würde keinen Sinn ergeben.
@@diotough Die Frames werden dazwischen berechnet. Dadurch steigen die FPS, aber eben auf Kosten der Latenz, weil man immer einen „echten“ Frame hinterher hängt.
@@MelvinGundlach Hast du dazu eine Quelle? Denn das ergibt überhaupt keinen Sinn in meinen Augen. Wenn ich 2 Frames nativ berechne, dann aber an Stelle den 2. Frame anzuzeigen, einen Zwischenframe berechne und den anzeige, dann habe ich noch mehr Zeit verbraucht, ohne den 2. Frame anzuzeigen, nur um Frame 1 1/2 dann leicht verzögert anzuzeigen, um dann noch einmal verzögert Frame 2 anzuzeigen, während dann aber schon Frame 3 berechnet wird, welcher dann noch länger warten müsste, um angezeigt zu werden. Kann sein, dass ich da auf dem Schlauch stehe, daher meiner Bitte nach einer fundierten Quelle.
Weitaus sinnvoller wäre es, würde man mehrere vorhergehende Frames heranziehen und hieraus Bewegungsvektoren innerhalb der Frames herausrechnen, um damit eine Vorhersage für den nächsten Frame treffen zu können. Da DLSS 3 nicht mehr ausschließlich pixelbasiert ist, sondern Objekte identifiziert, kann man hier also einzelne Objekte identifizieren und die Bewegungsvektoren herausrechnen. Speist man das dann in ein neuronales Netz, kann dieses daraus einen neuen Frame generieren - und das natürlich schneller, als der eigentliche nächste Frame braucht. Man würde also maximal bei abrupten Änderungen in der Bewegung 1 Frame hinterher hinken - allerdings kann man jetzt die Frage stellen, ob es wirklich 1 Frame Lag wäre, denn letztlich hat sich für die Engine ja nichts geändert, egal ob DLSS on oder off.
Es werden Folgeframes aus mehreren Frames generiert, soweit ich weiß funktioniert dies ohne große Artefakte da DLSS wesentlich tiefer in Spiele integriert ist (als z.B. Fidelity FX) und dadurch nicht nur Zugriff auf die reinen Bilddaten sondern auch zusätzliche Informationen direkt aus der Spiele-Engine erhält.
Ich würde mir auf jeden Fall ein weiteres Video wünschen bei dem näher auf DLSS 3.0 eingegangen wird . Soweit ich die Technik verstehe werden hier ja Frames sozusagen "gefaked" . Bisher war es ja in der Regel sehr simpel : Mehr Frames = Weniger Input Delay und ein sehr smoothes Spielerlebniss . Ist das bei DLSS 3.0 jetzt auch wirklich der Fall oder nicht?
Danke für das hochinteressante Video. Selten war ich so erstaunt und zugleich aufgeregt, als du die Vergleiche zur 3090ti bzw 3080ti gezeigt hast.
Zwar werd ich mir die Karte nicht leisten können, aber das war schon echt wahnsinnig spektakulär, was du da aufgezeigt hattest.
Danke Roman!
Ja bei caseking sind die Dinger ab!!! 2100 Euro gelistet das ist krank. Die Preise sinken hoffentlich beim launch der amd karten
@@theplayerofus319 Bis Juli nächsten Jahres wirst du das Teil nicht unter 1800 EUR finden, da bin ich mir sicher.
@@TM-vd3df und warum? Uvp ist 1599 und chipshortage+miningkrise ist vorbei. Die sitzen ja sogar noch auf sooo vielen 30er Serien die spotbillig werden gerade. Spätestens bei rdna 3 wird der preis kaum zu halten sein, wird Zeit das nvida mal merkt das die welt gerade in einer wirtschaftlichen Krise steckt und keiner mit Gehirn bock hat 2100-2450 auszugeben für eine Grafikkarte haha
Schön aufgearbeiteter Test, danke dafür =) Wann wohl die erste "Eco"-Edition von einem Boardpartner kommt 🤔
Tatsächlich würde ich sogar eine Eco Variante kaufen. Power Target 60-70% bei ungefähr 300 Watt verbrauch? Das sind quasi 100 Watt mehr als meine GTX 1080 😲 aber dafür ein Ordentliches Upgrade. Würde gern wissen wie die 4080 Leistung liefert und ob man die auch so Drosseln kann.
Richtig stark, dass du die Thematik mit dem Stromverbrauch und der Optimierung dessen so prominent behandelt hast 👍
Sehr nice finde ich das Auswerten der Effizienz bei verschiedenen Powertargets. Das findet man nämlich nur ganz selten und ist meiner Meinung nach viel interessanter als 5% mehr Leistung durch OC die man nur auf der Stromrechnung merkt. Also gerne auch wieder bei zukünftigen GPUs untersuchen wie es sich damit verhällt. Vielleicht auch noch mal ein kurzer Rückblick mit einer 6950 und 3090?
Vielen Dank für das Video und Deine Eindrücke! Gerade auch mit dem sehr erfreulichen Hinweis auch auf Igors Video macht Ihr quasi "zusammen" einen umfassenden round up der Karte. Da kann man sich auch mal eineinhalb Stunden+ von Euch hervorragend unterhalten lassen 🥰
Eine mögliche Erklärung hatte Igor zur Kühlergröße gegeben mit der Vermutung, dass die Kühler eher für Samsung 8nm gedacht gewesen wären. Anders herum steigt da bei mir auch die Neugierde, ob Nvidia bzw. AIBs es vielleicht schafft, mit z.B. einer RTX 4070 ein kompaktes 2-Slot-Design zu generieren mit sicherlich immernoch sehr beeindruckender Leistung und weiterhin beeindruckender Effizienz.
Zu DLSS 3 sehe ich es so wie Du, Roman. Erstmal müssen viele Entwicklerstudios DLSS 3 implementieren, was sehr aufwändig und sicherlich auch erst Sinn macht, wenn andere Karten mit DLSS 3-"Hardware" auf dem Markt sind. Und um so besser empfinde ich die verschiedenen Ansätze von Nvidia und AMD. AMD setzt mit FSR auf einer sicherlich nicht so qualitativ hochwertige Upscalingmethode wie DLSS, aber sie ist leichter und ohne bestimmte Hardware in Spiele integrierbar. Das kann meiner Meinung auch für "Kunden" am Ende sehr spannend sein, weil so ein starker Entwicklungsdruck auf beiden liegt und andere teilweise andere Zielgruppen bedient werden.
Mist, viel zu viel geschrieben 🤣
Vielen Dank für den Test mit dem Power Target! Ich habe nämlich genau vor eine 4090 zu kaufen und diese dann vom Power Target her wie im Video gezeigt deutlich nach unten zu setzen. Jetzt kann ich schon vor dem Kauf beruhigt sein, dass die Performance auch mit dem reduzierten Power Target noch stimmt. Das einzige was mit jetzt etwas Sorgen bereitet, sind die erwähnten Probleme mit AM5, da ich mit der 4090 auch auf diese Plattform umsteigen wollte. Ich hoffe da gibt es noch ein paar mehr Infos zu bzw. das diese Probleme schnell gefixt werden. Abschließend mal wieder ein absolutes Top Video ❤️
Ohje aber warte lieber noch. Bei caseking sind die ab!! 2100 Euro gelistet, 1600uvp ok aber 2100? Bei aller Liebe das ist abzocke. Wenn die amd Karten kommen wird der Preis immens fallen
@@theplayerofus319 Quatsch, wie denn? Für die Leistung ist die Karte spottbillig. Hast du ungefähr eine Vorstellung davon, wieviele chips aussortiert werden um einen wie Roman zu kriegen? Es wird massive Lieferprobleme geben und der Preis schnellt zu Weihnachten in astronomische Höhen, da kann man gleich bis Juni warten.
@@schortkramer4405 Nachrichten guckst du nicht oder? Nvidia hat mehr als genug hergestellt und mining +chipshortage sind vorbei. Die werden in den ersten Wochen rar sein aber das wars dann auch, danach volle Verfügbarkeit und bei rdna3 werden sie reduzieren müssen sonst kauft ja keiner, da amd durchaus attraktiver Preise bringen wird. Bis möchtest Jahr warten bzw juni? Hahahaha Mach dich nicht lächerlich, nvidia kann fro sein wenn Leute die Dinger für 2100-2450 überhaupt anfassen. Spotbillig? In welcher Welt lebst du? Wir haben infaltion des Todes wer verschwendet sein Geld jetzt gerade so?
Absolut top und kompetent, ultrainteressant die Dinge beleuchtet, die die Masse an Testern außer Acht lässt - ich bin heilfroh, dass es Dich gibt!
Mal wieder ein super Test. Danke Roman! 👍
Schöner Test.
Und vielen Dank, dass Du den Fokus auf Effizienz und Powertarget von 50-70% gelegt hast!
Ich finde diese Karte extrem gut. Und ich finde es auch super, dass sie so ein hohes Power Target hat. Dadurch werden die dicken Kühler verbaut, ich kann die Karte mit 300W laufen lassen und sie ist unhörbar und kühl.
17:00 Is really the most important graph i wanted to see about this card, and nobody else seemed to have doen this :D Thanks a lot !!!
Zu deiner Frage bei Minute 20: Igor hat in einem Video vor kurzem gesagt, dass nVidia selbst überrascht war, wie effizient und schnell die Karten im 4nm Prozess sind. Sie hatten im Vorfeld wirklich damit gerechnet, dass man der Karte 600W zuführen muss und deshalb diese Werte auch an die Hersteller weiter gegeben, was in den abartig großen kühlern resultierte und auch in niedrige Temperaturen/Lautstärke.
Hätten sie das vorhergesehen, würden die Karten nun vermutlich wirklich schlanker und natürlich gleich teuer sein 😉
Tolles Video, besonders der Teil mit der Senkung der Leistungsaufnahme und der FPS/Watt-Kurve war genial!
Mal wieder sehr gut abgeliefert!
Ich mag Deine Videos sehr, da sie immer sehr gut aufgebaut sind und das Thema rational betrachtet wird, allerdings mit Emotionen Moderiert wird - was absolut super ist=)
Mach weiter so!
Super Video und extrem aufschlussreich. Vielen Dank dafür!
Finde es nur schade das bei einer solchen Grafikpower immer mehr Pixel- bzw. Retrogames im Vormarsch sind.
Wieso schade? Retrogames sind doch was fantastisches. Niemand zwingt dich dazu sie zu spielen und leistungshungrige und grafisch aufwendige Spiele gibt es doch immernoch zu Genüge. Außerdem können (und wollen) sich nicht alle solche teuren GraKas leisten.
Habe gerade ein paar reviews der 4090 gesehen. Das hier gefällt mir mit Abstand am Besten! Gerade der Hinweis auf die unsinnige 3090ti (hatte ich nicht parat) und insbesondere natürlich das Power Target sind Sachen die so sicherlich nicht im NVIDIA Review Guide standen, aber sehr wichtig zum einordnen ist. Danke Roman! :)
15:00 und die flut der benchmark videos beginnt in meiner abobox XD
Haha ja
Vorweg: Fantastisches Video, Roman.
Zu DLSS 3 sei aber noch angemerkt, dass hier Zwischenbilder interpoliert werden (nicht wie früher bei den "120 Hz" Fernsehern, sondern in gut). Das führt zwangsläufig dazu, dass die Latenz steigt. Das nächste nativ gerenderte Bild (N) muss schon fertig sein, bevor das Zwischenbild (Z) generiert werden kann:
So werden die Bilder ausgegeben:
Z_0 = N_0 + N_1
N_1 = nativ
Z_1 = N_1 + N_2
N_2 = nativ
Z_2 = N_2 + N_3
N_3 = nativ
...
Die Renderreihenfolge sieht aber so aus:
N_1 = nativ
Z_0 = N_0 + N_1
N_2 = nativ
Z_1 = N_1 + N_2
N_3 = nativ
Z_2 = N_2 + N_3
...
Damit erhöht sich die Frame-Time immer um mindestens einen halben Frame nativ oder einen Frame der skalierten Framerate. Das sind bei einem Spiel, was mit 30 Hz nativ gerendert wird immerhin minimal 17 ms obendrauf.
Wie DLSS 3 sich genau auswirkt, müsste noch untersucht werden. Das V-Sync mit Triple-Buffering der Rücken gekehrt wurde, hatte auch seinen Grund.
Hab ich mir auch schon gedacht, aber dazu hab ich bis jetzt noch 0 Infos gesehen
Danke für dieses Video, dass endlich mal nicht die maximal mögliche sondern die reale Leistungsaufnahme betrachtet. Persönlich werde ich mir aber keine 4090 zulegen, da ich kein Nutzungsszenario für mich für eine Karte im Wert von 2k EUR sehe. Ich würde mir wünschen, dass du den gleichen Test nochmal mit einer 4080 bzw. dann mit einer 4070 (wenn sie dann irgendwann kommt) machen und die Ergebnisse mit uns teilen könntest =)
Mal schauen, wie lange es dauert, bis man die Karten stundenweise mieten kann.
Beim Password Recovery ist es schon praktisch, viele Firmen haben Probleme wenn Mitarbeiter gehen und dann einige Arbeitsdokumente, die benötigt werden, noch verschlüsselt sind. Es gibt ganze Berufszweige die aktuell noch häufig Probleme habe, da wichtige Unterlagen, die auf legale Weise erlangt wurden, nicht lesen können. Auch pysikalische Simulationen profetieren von den Karten, mann muss nicht mehr stundenlang warten, bis man das Ergebniss der "Verbesserung" sieht.
Hervorragendes Review, transparent wie immer. Angemessene Kritik, aber auch Lob wo es was zu loben gibt. Weiter so!
Würde mich über ein Test was DeepLearning betrifft auch noch sehr interessieren ^^
Mich auch!
Davon hab ich leider echt keine Ahnung :D Das überlasse ich denen die sich damit besser auskennen.
Lieben Dank für das Review - bin direkt von Igor zu dir rüber gekommen und werde hier fast wieder zurück geschickt. Sehr schön finde ich gut - zusammen seid ihr ne Macht.
Dicken Daumen hoch dafür!
Die 4090 hat mich ehrlich gesagt richtig überrascht und ich bin sehr auf die "4070" und die 4060 gespannt - bei der Effizienz die möglich wäre könnte das nen richtiger Knaller werden.
LG
Marti
Super starkes Video! Bezüglich DLSS 3.0 ist mir folgendes bereits in der NVIDIA Präsentation aufgefallen:
Schräge geometrische Kanten, die sich bewegen, flimmern. Achtet hier im PortRoyal z.B. mal bei 9:27 auf die linke Seite der oberen Kante des unteren Rings. In der Keynote war es im MS Flight Simulator bei den Fenstern von Wolkenkratzern auffällig.
Wenn ich mir damit allerdings statt 60fps 140fps+ erkaufe, nehme ich das gerne hin lol
Kommt noch etwas bezüglich der Auswirkungen auf die Latenz?
diese DLSS-"bugs" lassen sich aber auch noch im nachhinein fixen
@@SerkuXY Mittlerweile scheint es mir so als müsse man das ganze sehr differenziert betrachten.
DLSS 3 besteht eigentlich aus zwei Komponenten und NVIDIA verwirrt hier man wieder etwas den Endkunden.
Zum einen hat man DLSS2 also AI supersampling. Das allein kann zu dem Phänomen mit dem Kantenflimmern führen. Erfahrungen damit habe wir bereits seit ein paar Jahren sammeln dürfen. Bringt natürlich gut FPS.
Die "3" in DLSS 3 ist an sich ja frame interpolation. Verdammt gute, aber trotzdem "nur" interpolation. Hat mit Supersampling nichts zu tun. Es wäre irgendwie besser gewesen sie hätten dem Kind einen anderen Namen gegeben und es als separates Feature vermarktet..?
Die Tatsache, dass hier AI generierte Bilder zwischen jedem "echten" Frame eingeschoben werden, kann das Flackern verstärken oder verursachen. Insbesondere würde meinem Verständnis nach dadurch jede Art von frame interpolation typischen Artefakten in einer flackerartigen Manier erscheinen.
@@TheExplodingCore es wird ja manchmal auch als DLSS 3 frame generation benannt, wenn ich mich nicht komplett irre
Klasse wie ehrlich und professionell Du bist. Top!
Du bedankst dich für unser zuschauen,.. wir bedanken uns bei dir für die Infos! 😉
Vor allem hat mich das Ding mit der Leistungsaufnahme sehr interessiert..
Rein jetzt von deinem Test gesehen,.. hat die Karte vielleicht doch noch ein halbwegs faires Preis Leistungs Verhältnis, wenn man die Leistungsaufnahmen mit vergleicht. Und wenn sich alle Karten so gut undervolten lassen ist doch alles super. Eine solche Karte wird zwar nie in mein Budget passen,.. aber es kommen ja noch kleinere Modelle,.. ich hoffe die können genauso effizient.
Und dann wäre ja noch das schweigende rote Team,.. vielleicht schaffen sie ja Konkurrenz was vielleicht den Preis noch etwas drücken kann
Klar bedanke ich mich. Ohne Zuschauer wäre der Kanal nichts :) Bin ich immer dankbar. Jeder einzelne Zuschauer und Kommentar ist wichtig.
Sehr starker, detaillierter Test! Sehr neiss, die Info mit dem Powertarget! 👍
Wie uns die Hersteller ineffiziente Produkte um die Ohren knallen 😅
Super Video
Die 4090 ist eigentlich sogar sehr effizient.
naja ist gnau wie Intel den längsten balken haben wolle, koste was es wolle an effizienz
@@EldenLord. überleg mal-ähnliche Leistungsaufnahme bei einem nie dagewesenen Perfomance-Sprung: das KANN man sich gar nicht mehr beschweren, mann muss nur das Geld haben xD
@@Alocater Ja aber du anscheinend nicht, mit 70% PT noch effizienter wie ne 3090 bei fast keinem Leistungsverlust.
@@SerkuXY So schauts aus, ich hab das Geld und hoffe morgen eine abgreifen zu können.
hab ja auch die ganzen englischen Test Reviews schon gesehen und ich muss sagen, das hier war wirklich am informativsten von allen. Top notch, Roman! :)
Danke Roman für deine tollen Videos ! ♡
Das Beste Video dass ich zu dieser Karte gesehen habe! Vor allem der Test mit der Effizienz. Das versteht man echt nicht warum die Karte so mit der Brechstange getrimmt werden musste. Bei 60% Powertarget noch unfassbare Leistung hatte doch gelangt und das was darüber hinaus geht für overclocker mit custom Wakü offen lassen können. Das würde die Karte viel attraktiver machen!
Danke Roman für diese Arbeit!
Bin mal sehr gespannt wie das ganze so wird, wenn man sie noch besser gekühlt kriegt und sie auf dem Markt auch für normal sterbliche verfügbar und affordable ist.
Der Kommentar zu Igor hat mich mega gefreut. Wenn weiß was dort mal im argen lag finde ich es einfach cool dass eine Zusammenarbeit von zwei so kompetenten Menschen wieder möglich ist 👍😊
Absolut geniale Review vielen Dank dafür!
Mich würde jedoch noch brennend interessieren, wie sich die 4090 in "älteren" Titeln schlägt und vor allem ohne RayTracing. Ein Witcher 3, RDR2 oder Cyberpunk alles ohne RayTracing aber 4k Ultra wäre extrem spannend, da bisher immer nur RayTracing mit RayTracing verglichen wurde.
Vielen Dank! Deshalb hatte ich noch Remnant und PUBG mit drin. Beide ja schon etwas älter. Skalieren aber ebenfalls gut.
@@der8auer Am meisten interessiert mich wie die Karte sich in VR schlagen wird. Denn gerade da brauchen wir unbedingt mehr Grafikleistung
@@De-M-oN den vorschlag unterstütze ich vollstens. in VR kann man nie genug leistung haben, gerade mit den modernen geräten die 8k auflösung haben. dort machen die teuren karten ja noch am ehesten sinn
@@NWGJulian Jau, aber wirds von Roman höchstwahrscheinlich nicht geben. Er scheint so gar nichts von VR zu halten, was wirklich super schade ist, aber 🤷♂
17:25 sauber, endlich gescheite daten. super gemacht, da hat einer mitgedacht!
TOP Video (was auch sonst)!
Zur Karte muss ich sagen: Beeindruckend!
Ich gebe dir in Puncto Powertarget und Spezifizierung vollkommen Recht! Hätten in der Situation die 4090 lieber deutlich zurückhaltender gesehen und dafür dann lieber eine 4090Ti oder ähnliches. Der gigantische Kühler bei der FE und bei den Custom Modellen ist zwar gerade für Silent Fans (wie mich) absolutes Gold - gerade wenn man undervolting betreibt - aber dennoch waren die 3000er Karten schon gigantische Backsteine. Und die 4000er? Unglaublich...
Zur FE: Das Design gefällt mir einfach absolut, da kann man meiner Meinung nach nichts meckern... Gerade wenn die Kühlung so gut ist, wie du es sagst, ist die FE eine ernst zu nehmende Alternative.
Doch meiner Meinung nach hat die Karte ein (sprichwörtlich) gigantisches Problem: Der Preis.
Ja, er mag in Anbetracht der Mehrleistung irgendwie legitim erscheinen. Allerdings wäre nach der Logik bei der nächsten Generation WIEDER eine signifikante Preissteigerung zu erwarten... Weil die Leute werden auch zu diesem Preis kaufen. LEIDER.
Ich klebe seit Jahren auf meiner treuen EVGA 1080... Würde total gerne mal die neuen Features ausprobieren. Aber ich sehe es beim besten willen einfach nicht ein, so viel Geld für eine Grafikkarte auszugeben. Es ist aber auch egal ob es in diesem Fall die Grafikkarten für ~2000€ sind - oder Mainboards für ~500€ + Prozessoren für ~700€. Mir wird dieses Zeug einfach zu teuer. Mein Gehalt steigt zwar von Jahr zu Jahr und ich könnte mir hier sicher ohne Bauchschmerzen einen ~5000€ Gaming Kürbis unter den Schreibtisch stellen, allerdings sehe ich es einfach nicht ein.
Auch als Enthusiast nicht. Und ich kann viele Gamer verstehen, die dem Gaming zunehmend den Rücken kehren. Denn die wenigsten können sich das noch leisten...
Ich werde vermutlich wieder investieren, wenn mal was kaputt gehen sollte... Aber ich investiere nicht mehr wie damals immer in jede zweite oder sogar jede neue Generation von Hardware...
Für WQHD Gaming ist mein Setup mit 3800X und GTX1080 absolut ausreichend... Sollte die nächsten Tage was kaputt gehen würde ich aber nicht zu den neusten Generationen greifen. Weder bei den CPUs noch bei den GPUs...
Der Preis ist das Resultat von harter Inflation und einem katastrophal miesen Euro-Dollar-Kurs. Der Grund, warum wir bis vor gut einem Jahr immer den Dollar-Preis 1:1 umsetzen konnten, war der Dollar-Kurs. Bei 1€ für 1,20-1,30$ hat man damit die Steuern und Zollgebühren aufgewogen, denn die US-Preise sind immer ohne Steuer und damit netto. Schaut man sich die MSRP der 3090 an aus 2020, würde man inflationsbereinigt bei 1715USD auskommen (original 1499USD). Das wären dann 1766€ netto. Das wären dann etwa 2100€ brutto.
Beschwer dich nicht bei NVIDIA, sondern bei Putin, der hat den Mist losgetreten mit seinem Angriffskrieg und war damit der Auslöser für die Sanktionen, die wiederum die massive Inflation losgetreten haben.
@@diotough Mag an der Inflation liegen... Oder an was auch immer - ich beschwere mich trotzdem bei NVIDIA, AMD und co. Denn die machen letztendlich die Preise und die haben in den letzten beiden Jahren gesehen, dass es Leute gibt die seeehr tief in die Tasche greifen. Da war es noch Corona und Mining und nicht irgend ein Krieg... Gehört hier meiner Meinung nach aber auch nicht her die Diskussion.
Zurück zu den Grafikkarten: Mal zum Vergleich: Ich habe für meine GTX 1080 (EVGA Custom Top Modell) "Damals" im stationären Handel 630€ gezahlt...
Erste Custom Modelle der 4090 liegen bei ~2500€-2600€ - der Vergleich mag zwar gewaltig hinken. Aber das muss man sich mal auf der Zunge zergehen lassen... Für die Kohle hätte ich seiner Zeit ein komplettes Gaming Setup hinstellen können...
@@dario959-c5k Sorry, aber dann verstehst du nicht, wie Inflation funktioniert. Deine 1080 hatte in den USA eine MSRP von 699USD (Founders Edition). Das sind inflationsbereinigt dann 863USD netto bzw. ca. 887€ netto. Jetzt noch 19% USt drauf und wir sind bei knapp 1056€.
Preise von vor 6 oder 7 Jahren heranzuziehen bringt nichts im 1:1 Vergleich. Das ist genauso sinnlos wie wen Opa Jupp sich aufregt, dass früher ein Brötchen noch 5 Pfennig gekostet haben. So funktioniert das nicht.
Wir haben jahrelang von einem sehr starken Euro-Kurs profitiert, der immer so bei 1€ zu 1,20-1,30USD lag, jetzt liegt er dank bevorstehender Rezession und galoppierender Inflation aber nur noch bei 1€ zu 0,97USD. NVIDIA, AMD & Co sind nicht verantwortlich für den Währungseinbruch, für die Rezession oder die hohe Inflation. Und NVIDIA & Co zahlen die gestiegenen Kosten auch in Form von höheren Produktions-, Logistik- und Personalkosten. Glaubst du etwa, Jensen zieht sich die Preise aus dem Popo? Die haben schon klare Vorstellungen von ihren Kosten (sowohl direkt in der Herstellung als auch vorher in der Entwicklung) und wie hoch die Stückzahl bei Preis X sein muss, um das alles wieder reinzuspielen. Dass sie dabei noch Gewinn machen wollen (bzw. müssen - sind schließlich ein Unternehmen mit Investoren) ist ja auch normal. Kein Unternehmen wird einfach so Produkte unter Wert verkaufen, um am Ende in der Gesamtbilanz mit einem dicken Minus dazustehen - zumindest nicht ohne größeren Plan, der am Ende Geld abwirft.
@@diotough ich verstehe sehr wohl "was Inflation ist". Du scheinst nur nicht zu verstehen, worauf ich hinaus will. Wie ich in meinem eigentlich Post geschrieben habe, sind die Preise ja auch mehr oder weniger legitim. Der Anstieg ist nur meiner Meinung nach nicht richtig vermittelbar (Subjektiv, nicht objektiv) und ich habe daher das Beispiel zu meiner alten GPU herangezogen, was NATÜRLICH rechnerisch keinen Sinn macht. Es geht nur einfach um das subjektive Gefühl, dass es zu teuer ist. Und meine Konsequenz daraus ist, dass ich nicht kaufe wenn es nicht sein muss. Und selbst wenn es sein muss, würde ich eher nicht die neuste Generation nehmen. Und ich denke so geht's vielen. Gerade weil sich viele gar keinen Rechner mehr kaufe oder leisten können. Und das würde im umkehrschluss wieder höhere Preise bedeuten. Oder den vollständigen Wegfall von Produkten.
Anderes Beispiel. Ich habe mir jedes Wochenende frischen Fisch vom Wochenmarkt geholt. Der ist inzwischen aber auch so teuer, dass ich das einfach nicht mehr einsehe. So mache ich das jetzt halt nur noch ein Mal im Monat. Ich bin sehr sehr dankbar, dass ich nicht verzichten MUSS, doch mir geht's ums Prinzip. Und die Moral von der Geschichte ist, dass einige Anbieter langfristig verschwinden werden, wenn die Nachfrage sinkt und so künstlich eine höhere Marktsättigung erzielt wird, weil die Preise immer weiter steigen.
Ich habe die Hardware Hersteller schon immer dafür kritisiert, dass eben diese sich langfristig den Markt selbst zerstören. Es ändert sich nur einfach nichts... DAS ist das eigentliche Problem...
@@dario959-c5k Aber es macht doch keinen Sinn, NVIDIA einen Vorwurf zu machen, wenn es am Ende auf subjektiven Gefühlen basiert und nicht den objektiven Fakten? NVIDIA kann ja wie gesagt nichts dafür, wenn alles teurer wird und der EUR-USD-Kurs mies ist. Wenn das dann den Käufern einen faden Beigeschmack gibt, dann liegt das halt nicht an NVIDIA. Allerdings hast du ja oben NVIDIA zwischen den Zeilen vorgeworfen, sie würden Reibach machen wollen und ausnutzen wollen, was Käufer anscheinend bereit sind zu zahlen.
Man muss sicherlich die beiden 4080er kritisieren, nicht jedoch die 4090. Hier darf man sich nur über das sinnlos hohe Power Target wundern und die völlig überdimensionierten Kühler - wahrscheinlich ein Überbleibsel der Phase, als man anfangs mit Samsung geplant hatte. Die 4080 12GB hingegen ist ein überteuerter Witz. Hier muss man NVIDIA hart kritisieren. Das Ding sollte eigentlich eine 4070 sein und bei 580USD bzw. 700€ liegen und nicht bei 899USD / 1099€. Mit dem Namens-Coup hat NVIDIA natürlich Tür und Tor geöffnet, um die 16GB Version deutlich teurer zu machen. Eine 3080 hätte inflationsbereinigt einen Preis von 800USD / 975€, selbst die 2080 ist inflationsbereinigt mit 942USD / 1148€ deutlich "günstiger" als die 4080 16GB mit 1199USD / 1469€. Hier liegt das falsche Spiel von NVIDIA. Nicht bei der 4090. Die ist völlig erwartbar und normal eingepreist.
Vielen Dank für deinen ausführlichen Test!
Dass die 4090 kein 'Effizienzmonster' ist - und ganz ehrlich, verglichen mit der 3090 und dem enormen Performance-Zuwachs ist sie für mich ein Effizienzmonster - finde ich ok, sie ist das Flaggschiff und lässt selbst hier noch Spielraum für Overclocking.
Wie auch bei AM5 (das Temperaturtarget sorgt für maximale Performance, gibt aber viel Energie als Abwärme ab) kann man hier mit wenig Aufwand (Powertarget, Undervolting, Temperaturbegrenzung) die Leistungsaufnahme senken ohne viel Performance zu verlieren (Optimum Tech hat hierzu ein echt interessantes Video gemacht).
Für mich ist die Spezifikation definitiv nicht hirnrissig sondern auf den Punkt und durchaus auch das, was ich vom Flaggschiff erwarte: wenn ich will die beste Performance mit immer noch vergleichsweise hoher aber dennoch nicht utopischer Leistungsaufnahme und wenn ich mag immer noch sehr hohe Performance mit sehr niedriger Leistungsaufnahme.
Mit dem Argument hätte Nvidia aber auf 600W Leistungsaufnahme gehen müssen. Dann wären sowohl die Kühlkörper rechtfertigbar und für 33% mehr Leistungsaufnahme hätte man dann weitere 5-7% mehr-FPS bekommen. Und wäre man auf 750W gegangen, hätten man warhscheinlich wieder solche Zuwachse bekommen. Wenn man die 60% und 300W als 100% darstellt, sind die FPS-Zuwächse darüber verglichen mit dem Leistungsaufnahmezuwachs halt nicht wirklich sinnvoll oder rentabel.
@@asdfasdf-mn8iu Wie geschrieben: '...und lässt selbst hier noch Spielraum für Overclocking...'
Große Kühlkörper für leise und auch im Hochsommer gut gekühlte Grafikkarten finde ich generell eine sehr gute Sache.
Sinnvoll und rentabel ist bei High-End Computertechnik meiner Erfahrung nach eh immer so eine Sache :D
@@TG-ex3oo Joa, aber die FE ist ja jetzt normalerweise nicht bekannt für ihre guten oder großen Lüfter, dafür zahlt man ja dann nochmal 200-300€ drauf bei den Resellern. D.h. hier wurde wohl einfach nur falsch kalkuliert. Und er hat schon Recht, dass Nvidia wahrscheinlich mehr Ruf gut gemacht hätte mit einer 300W-Karte, bei der sie dann anmerken, dass man sie auf 600W hochfahren kann für OC-ler. Wobei, Nvidia würde sowas wahrscheinlich kaum machen, davon hätten sie selbst ja finanziell nix.
Man merkt, wie komplex dieses ganze Thema ist. Hatte erste mal das Gefühl, dass du das Skript abgelesen hast. (Keine Kritik, nur Feststellung). Warum die 4090 so designt ist wie sie ist, das hatte Igor in einem seiner letzten Videos ganz gut rübergebracht.
Er wird da schon entsprechende Stichpunkte/-sätze geschrieben gehabt haben, damit er nichts vergisst und das ist auch OK, gerade wenn es nicht gerade wenig ist.
Ja das lässt sich bei so einem Thema nicht vermeiden. Es waren knapp 100h Arbeit in dem Video und 8 Seiten Skript. Ich mache das meiste aus dem Kopf, aber bei sowas ist das unmöglich und es würden sich Fehler einschleichen :D
Mich würde mal ein Vergleich der letzten Modelle im Bezug auf definierte Leistungsaufnahmen interessieren. Gibt es sowas? Ein Vergleich von Performance bei 200W, 250W 300W? Das würde einen Vergleich von 1080 ti zur 3080, 4080 vereinfachen. Gleiches auch für CPU. Mich würde in dieser Hinsicht mal ein durchgehender Vergleich interessieren von der ersten Generation Ryzen bis zur jetzigen auf Leistungsaufnahmen bezogen.
Würde noch erwähnen dass es nur DP1.4 hat und falls man 4k über 120 Hz haben möchte dann in der röhre schaut. In den heutigen Spielen schafft ja diese Karte dies auch, weshalb ich auch hier Nvidia nicht verstehen kann
Grad keine zeit aber hat das ding kein hdmi 2.1?
@@franzrecht6092 es hat hdmi 2.1a und laut deren seite unterstützt es
4K50/60
4K100/120
5K50/60
5K100/120
8K50/60
8K100/120
10K50/60
10K100/120
zudem hat man ab 3 monitoren immer eins über dp gebraucht als hauptbildschirm. weiß nicht ob sich da was geändert hat
Roman, danke! Ich liebe einfach deine Videos und deine Art von Benchmarks. Genau das was du im Video aufgezeigt hast, ist mir auch persönlich wichtig. FPS pro Watt
Igor & Der8auer... 💕
Igor ist doch ein Wichtigtuer und Troll. Du weißt doch, wie er mit Roman umgesprungen ist. Warum unterstützt du den noch?
Du bist und bleibst meine Nummer eins wenn es darum geht technisch korrekte und 100% ehrliche Videos zu Hardware zu schauen alleine das im letzen Video mit dieser sharkskin Technologie ich glaube ich selbst wäre da drauf Reingefallen einfach danke das du aufklärt und auch keine Scheu davor hast das die Hersteller dich nach einem Video eventuell nicht mehr so toll finden. Dafür wir wahrscheinlich umso mehr Danke Roman🥰❤️
Danke!
Hallo Roman, ursprünglich war nicht TSMC sondern Samsung als Chiplieferant vorgesehen, deshalb wurden Spezifikationen bezüglich Kühler und Stromversorgung so hoch angesetzt. Der Wechsel auf TSMC hat jedoch deutliche Einsparungen bei der Energieaufnahme gebracht, zu diesem Zeitpunkt waren jedoch die Bestellungen für die Kühler und andere Entscheidungen schon gemacht worden, daher kommt es jetzt zu diesem mismatch. Quelle IgorsLab (NVIDIA GeForce RTX 4090 - Plötzlich 450 statt 600 Watt? Die Gründe und warum die Kühler zu groß sind)
Das Nvidia hier all in geht liegt meiner Meinung nach daran, dass sie unbedingt vor AMD bleiben wollen und Angst vor deren Chiplet-Design haben. LG
Das von Igor habe ich gesehen. Es ist eine mögliche Theorie, aber auch wieder schwierig weil du nicht innerhalb von 2 Wochen den Lieferanten wechselst. Das dauert Monate oder ggf. Jahre. Die Chips waren auf jeden Fall schon fertig als man die Kühler gemacht hat.
Geniales Video, sehr gut aufbereitet ohne unnötigen Schnickschnack. Wirst du auch so ein ähnliches Video mit der 4080/16GB bringen, in Bezug auf das Verhalten mit reduziertem Powerlimit, bzw. direktem Undervolting?
Endlich sieht man mal wieder, dass Konkurrenz gut für uns Käufer ist. 2000 Euro sind zwar ein lächerlich hoher Preis aber eine 4070 für geschätzt 600€ (Copium) und ca 30-40% mehr Performance als eine 3070 wäre einfach ein Traum.
Die Experimente mit dem Power Target waren echt interessant und machen umso mehr Hoffnung auf bessere Midrange Karten, die nicht ein Netzteil zum schmelzen bringen.
Wohl eher 800€
Das wird wohl auch ein Traum bleiben. Das wäre natürlich schön wird aber bestimmt nicht so kommen, weder bei dem Leistungsgewinn noch dem Preis glaube ich das.
Dir ist aber schon klar, dass deine Rechnung nicht aufgehen kann?
Die RTX 4080 12GB hat mit 7680 cuda cores weniger als die HÄLFTE! der Recheneinheiten einer RTX 4090 (16383 cuda cores).
Diese wird sich demnach mit ca. 50% der Leistung einer RTX 4090 kaum über der RTX 3080 einordnen, und das bei über 1000€ UVP.
Eine potentielle RTX 4070 wird demnach marginal schneller sein zu einem ebenfalls unverschämt hohen Preis.
Nvidia meint, sie könnten den Preis über den Performanceschub von DLSS 3.0 rechtfertigen, der bei vielleicht 1% der Spiele zum tragen kommt.
Die Realität bei der tatsächlichen Rasterisierungsleistung sieht aber ganz anders aus.
Bis auf die 4090 wird die Preis/Leistung bei RTX 4000 ein absoluter Flop.
du hast nicht richtig bemerkt das die schon quasi die 4070 angekündigt haben und zwar mit dem Namen 4080 12gb,
schau dir die unterschiede zu der anderen 4080 an da wird klar dass das einfach nur verarsche am Kunden wieder ist.
@@dricebaker6594 899€
Und wieder mal hochinteressant und super erklärt. Danke !
Die Erklärung des Sinns, könnte in RDNA3 liegen. Super Test, bin sehr an dem WireView insteressiert. Geniale Idee hier gleich das Stromkabel nachhinten zuführen!
4:15, ich habe es sofort gesehen. Der schießt echt 55% schneller, wow, ich bin geflasht. Jetzt kann ich ein Spiel in der Hälfte der Zeit durch spielen, so schnell ist dieser Trümmer.
"...und das machen wir mit einem unveröffentlichten Produkt von uns..."
Mega. Hatte sofort "WireView" gegooglet und mich gewundert, warum ich da nichts finde. Sehr sehr cooles Teil!
Das war jetzt das dritte Video zu dem Launch dass ich mir heute angesehen habe und es war das beste davon. Wieder super sachlich erklärt, dass es auch ein Noob wie ich versteht, auch mit Details die andere Kollegen von Roman nicht getestet haben. Legendäre neue GPU die ich mir in Zukunft wohl nie leisten werden kann. Heizöl oder Hardware? Die 4090 wird ja nicht mal richtig warm 😆.
Scheisse, Roman, Wie geil! Wire view?! So einfach so genial! Ich möchte das haben!
Und jetzt mal ruhig;)
Sehr tolle Idee!
Übrigens danke für deinen Verweis auf Igor! Ihr ergänzt euch nämlich echt optimal! Soll heißen wenn man sich bei euch beiden informiert ist man wirklich voll umfänglich informiert!
Vielen Dank für dieses Video du hast mir damit meine Kaufentscheidung deutlich leichter gemacht ! :)
Wie geil, Roman. Ernsthaft! Bitte mehr Leistungsaufnahme Benchmarks und FPS/W mit Power Targets
Hallo, hohen Respekt Deiner Professionellen Analyse - immer wieder schön Dir zuzusehen!
Danke für das Lob!
was für ein absolut geiles Video. Endlich mal jemand der im Zusammenhang mit dem Stromverbrauch rumgespielt hat und Undervolting etc betrieben hat, um eine Balance zwischen Performance und FPS zu liefern. Absolut top. Jetzt warte ich nur auf eine Art 4060 oder ähnliches, wo die Archtiektur in bezahlbarer Form unter die Leute kommt. Top Video !!!
danke!
Klasse Video 👍 alles super erklärt! WireView finde ich sehr interessant, eine sehr schöne und für Tester interessante Entwicklung.
Das mit dem Power Target ist wirklich kraß. Heißt das, die 4090 könnte auf 60 - 70 % Power Target bei top Bildqualität sogar deutlich weniger Leistung benötigen als meine 2080 Ti und dabei deutlich leiser sein? Meine 2080 Ti macht sich mit ihren Lüftern gerne öfter bemerkbar bei 4K Spielen, wenn sie einen startenden Düsenjet simuliert. Dann muß ich leider entweder mit der Auflösung oder den Details etwas runter, damit wieder Ruhe ist.
Von DLSS 3 bin ich auch beeindruckt, ich hoffe, daß in Zukunft viele Spiele das unterstützen werden.
Die 4090 beeindruckt mich wirklich, jetzt bin ich auf weitere Tests mit den eigenen Designs der Hersteller gespannt.
Trotz den ganzen Sticheleien von der Vergangenheit den Igor zu erwähnen zeigt größe. Respekt!
Sehr gutes Video mal wieder und äußerst beeindruckend, was diese Karte leistet! Mich würde sehr interessieren, was mit manuellem undervolting noch möglich ist, nicht nur eine simple Reduzierung des Powerlimits :)
Danke! Super Video... Für die Spezifikation der 4090 sehe ich 3 Gründe:
1) Bei der Olympiade gibt es die Goldmedaille nur für den ersten, nicht für den, der am effizientesten 100m sprintet. Solange AMDs RDNA3 "droht", können die sich nicht leisten, mit Strom zu geizen und dafür 2% weniger FPS zu haben.
2) Die 4090 ist eine Enthusiasten Karte, die der Durchschnitt sich nicht leisten kann/will. Mit 4k 144Hz Monitor, einer CPU die die Karte ausreizt, etc kommt man für das Gesamtpaket locker auf >5000€. Der erhöhte Stromverbrauch schlägt bei solchen Preisen dann auch nicht wirklich ins Gewicht.
3) Die NVidia Referenz darf nicht von Board-Partnern übertrumpft werden. Wenn das Referenzdesign schon am Overclocking Limit arbeitet, haben die anderen Partner keinen Spielraum mehr nach oben, sondern können nur alberne Sachen, wie RGB und Sharkskin Lüfter machen. Was mit EVGA gelaufen ist scheint dies zu unterstreichen: anscheinend möchte NVidia seine Lohrbeeren und Gewinnspanne einfach nicht mehr teilen. Wenn NVidia auf die von dir vorgeschlagene effiziente 300W als Referenz gesetzt hätte, könnten ASUS ROG und Konsorten mit aufgebohrtem Powerlimit und dickerer Kühlung da mit besseren FPS trumpfen und das wäre doch quatsch!
144 hz at 4k ist aber mit dieser Karte nicht möglich dank dp 1.4a und nicht 2.0.
Nvidia hat da richtig mitgedacht
Naja auf den Stromverbrauch wird SEHR geachtet, vor allem in reviews und wenn die Karte 2% langsamer ist aber 15 sparsamer ist das deutlich attraktive gerade hier in de. Mir ist es ja auch egal aber die hitzeentwicklung im Sommer ist echt unschön
@@theplayerofus319 Für professionelle Anwendungen z.B. im Serverbereich gebe ich dir recht, aber für die ist die Karte nicht gedacht. Ich sage ja auch nicht, dass ich das so sehe, ganz im Gegenteil, sondern versuche nachzuvollziehen, was im Boss-Kopf der Lederjacke abgeht...
@@MHWGamer Mit "display stream compression" schon, auch wenn ich natürlich wie alle Enthusiasten gehofft hätte, dass die Karte sowohl DP2.0 als auch PCIe5.0 für die Zukunft an Board hat. Allerdings kann ich die "Logik" nachvollziehen, dass es aktuell noch kaum kompatible Monitore/Fernseher gibt und wir Konsumenten schließlich in 1-2 Jahren bitte das Nachfolgemodell kaufen sollen! 🤑
Der Lüfter hört sich an wie ein Mini 5 Zylinder Turbo. Gutes Video auf jedenfall, danke dafür
Bei der Leistung wirkt der Preis ja fast wieder "okay".....Ich würde gerne mal die Leistung in VR Games zB im (MSFS 2020) sehen. Gibt es dazu schon Erfahrungen? Denkst du, dass es auch bei VR einen starken Leistungssprung geben wird? Schade, dass es dazu noch keine Infos gibt.
Mega interessant 🧐
danke für alle diese nützlichen Infos, Roman! Nein echt... ich glaub ich hol mir die karte. Dein Tipp mit den ca. 70% Power Target werd ich dann direkt umsetzen.
Ich denke meine GTX 1080 TI OC kann nun endlich in Rente gehen... wird echt mal Zeit für ein Upgrade. Bin mit meinem R9 5950X ständig im GPU limit, sei es bei Games oder bei produktiver Arbeit wie z.B. Adobe Lightroom, Photoshop oder After Effects/Premiere.
Der Justice Benchmark ist schon sehr schön, könnte auch ein Video aus nem Kinofilm sein
Das kam jetzt überraschend. 😅 Nach dem was man bisher gelesen hat, hätte man sowas nicht erwartet. Aber gut zu wissen. Nun bin ich auf die kleineren Ableger gespannt. 🤔 Mal wieder ein sehr detailiertes Video. Vielen Dank dafür. 👍
Tolles Video Roman. Danke!
Was leider fehlt sind Raytracing Benchmarks bei Cyberpunk!? Sweetspot Powerlimit 70 Prozent! (Leider werden die 2300 Tacken dann noch weniger Wert ;-)).
Wie immer ein Super Video - Vielen dank für die viele Arbeit
Bei dem Geräuch kann ich dich beruhigen. Das entsteht, wenn die Ventilatorflügel recht nahre an fen Lühlfinnen vorbeimarschieren. Dabei entsteht ein Kurtzes Teilvakuum, was sich dann wieder mit luft füllt. Das bei einer Höheren Frequenz erzeugt genau dieses summen.
Dass ein einfaches begrenzen des Powerlimits mehr nützt, als manuelles Undervolting find ich schon echt heftig und zeigt, wie gut der "Taktgenerator" der 4090 funktioniert. Ich bin da echt mal gespannt, was da mit Wasserkühlung noch geht.
Wahrscheinlich nicht viel, da hier eher die Leistungsaufnahme als die Temperatur das Problem ist.
@@itslegiTim Dir ist aber klar, dass eine entsprechend niedrigere Temperatur den Innenwiderstand der GPU senkt und damit die Leistungsaufnahme erstmal senkt? Das ist mit der Grund, warum unter Wasser höhere Taktraten bei gleicher Leistungsaufnahme möglich sind.
Ich hoffe, dass du das selbe Thema mit der Leistung/Watt Kurve nochmal bei Ryzen 7000 und Intel 13th Gen aufgreifst. Da geht gerade einiges schief und die Firmen brauchen mal wieder etwas medialen Druck um wieder auf mehr Effizienz zu setzen
Zum gigantischen Design der Karte hatte Igorslab einen interessanten Artikel. Offenbar gingen die ursprünglichen Eckdaten der Karte, die zu den Partnern wie Asus, MSI etc geschickt wurden, noch von einer Fertigung bei Samsung aus. Dort hätte man mit 8nm tatsächlich 600W gebraucht, um die genannten Kerne zu befeuern. Anscheinend war dann der Switch von Samsung auf TSMC, wo man mit weit effizienterem 4nm gefertigt hat, dann zu spät und die Partnerkarten waren schon designed und konnten nicht Last-Minute wieder verändert werden. Ich schätze, die Produktion der PCBs und Kühler brauchte zu lange Vorlauf. Könnte mir durchaus auch vorstellen, dass die Fertiger der Founders-Edition-Kühler die gleiche Problematik hatten.
Jetzt sind die Karten nunmal da. Da waren 50-100W mehr oder weniger auch egal. Das PCB und die Kühler können mehr, also lässt man sie mehr Strom aufnehmen. Jedes bisschen Leistung ab Werk hilft im Vergleich gegen die aktuellen Karten und die Konkurrenz. Feintuning betreibt der Durchschnittskunde nicht. Die Effizienz ist wie bereits im Video erwähnt grandios, aber die Mehrheit guckt sich an, wer im Balkendiagramm den längsten hat - und dann quetscht man halt raus, was geht.
Das Fazit trifft den Nagel auf den Kopf. Volle Zustimmung!😸👍
Ich finde es gut, das du hier endlich auch die Leistungs steigerung, im vergleich zur Liestungsaufnahme erwähnst, und vorallem auch darauf eiungehst, das man für geringe leistungsverluste, viel energie sparen kann.
Zum PowerLimit.
Ich habe da (mit der 3060) eine etwas andere Erfahrung. Ja man kann das Limit absenken, und dadurch energie Sparen. Und bei Einer AMD GPU wie auch CPU, hilft es sogar wen Takt abzusenken um die Leistungsaunahme Stark zu reduzieren. Bei Nvidia (3060) ist dies aber anders.
Der ist es eigentlich total egal auf welchen Takt sie Fährt, (zumindest in meinen Anwendungs Szenarien), das hat keinen EInfluss auf Die Leistungsaufnahme. Entscheidender ist hier Wirklich das Undervolting. So Lasse ich meine 3060 auf 0,875 Volt bei 1900 Mhz laufen.
Das Powerlimit habe ich dafür auf Standard gelassen.
Der Grund dahinter ist meine im Kopf zusammen gesetzte Logik, wenn ich mir das so überlege weiß ich aber nicht mit sicherheit ob die Richtig ist. Die Logik sagt aus.
Wenn ich das PowerLimit auf Standard lasse, habe ich Rechnerisch 180 Watt (oder was so standard ist) durch 0,875 Volt = 205,71A (Was natürlich nciht bei der Grafikkarte anliegt). Was das Limit ist sehe ich über HWInfo nciht, da Nvidia da wohl keine Angaben (sensoren) für hat. Jedenfalls Bräuchte ich für 180 Watt bei 0,875 Volt diese 205 Ampere. Diese sind aber sehr Wahrscheinlich nciht da. Aber Die KArte Würde so dennoch dazu gezwungen aufs Maximum zu gehen. (Gut für die Stabilisierung des Undervolting).
Würde ich das Power Limit auf maximum absenken, (glaube waren 60%) und somit 108 Watt Maximum, durch 0,875 Volt, würde ich auf 123,428 Ampere kommen. Durch das Undervolting wiederum, würde die Karte aber nochmal etwas weniger Watt aufnehmen, also noch weniger Ampere Fließen lassen. Daher meine Logik = Undervolting Instabieler.
Ich muss kalr sagen, in meinem Anwendungsbereich, ist das Egal mit der Spannungs Sstabilität Aber wenn andere das lesen, die was Optimieren wollen bei hohen Leisutngen ist es vielleicht wichtig.
Fakt ist, ich habe mit der schiene PowerLimit auf Standard, 1900Mhz maximal und 0,875 Volt in meinem Anwendungsberecheich nur noch maximal 47 Watt (laut HWinfo). Ohne diese Anpassungen waren es in meinem Anwendungsbereich 82 Watt.
Anzumerken ist aber auch, das Nvidia sehr sensiebel Reagiert, bei zu niedriger Spannung, oder auch zu hoher Spannung. Das kann die Leistungsaufnahme minimal erhöhen, statt zu senken. Wieso und warum, da bin ich noch nicht dahinter gekommen. Mit dem Takt scheint es jedenfalls ncihts zu tun zu haben. (Das wäre vielleicht erst zu merken, wenn man die Karte voll auslastet).
Daher würde mich bei der 4090 mal Interessieren, was Passiert bei einem Takt von sagen wir mal 2000 bis 2300 Mhz bei nur 0,875 Volt ? vielleicht auch bis 0,950 Volt Maximal. meine 3060 Kann ich Maximal noch bis 0,850 Volt Mit Maximal Takt beglücken. Alles darunter wird über MSI Afterburner nicht genommen. Also kann ich im niedrigen bereich zwar den Takt Absenken, aber die 0,850 Volt ist das Letzte was ich steuern kann.
Ich denke Die 4090 Verliert zwar so nochmal etwas an Leistung, aber was das In Leistungsaufnahme bedeutet wäre Interessant. ( Immerhin sit es nur ein Test (was wäre wenn) und nciht was sein muss. xD Neugier und so.
Der Takt hat wie oben beschrieben zwar keinen wirklichen Einfluss im Leistungsaunfahmen bereich (was ich auch nicht nachvollziehen kann), ist der aber zu hoch bei zu geringer Spannung, schmiert die karte Logischerweise dennoch ab. xD
Was ist mein oben Angedeuteter Verwendungszweck? Naja .. in OBS die KArte 268 MegaPixel Berechnen lassen (DirectX auflösung Maximum mal DirektX auflösung maximum (mehr gebe ich nciht als hinweis) ^^ (Fake 4k (3840x2160) haben gerade mal 8MegaPixel.) Das ganze muss die Karte mal 60 Bilder die Sekunde + Filter bearbeiten, in der VOrschau wiedergeben + das ganze noch als Video ausgeben (dann aber nur in full HD = 2 MegaPixel. Und natürlich läuft die auch noch dank DSR auf 4k bei einem Full HD Monitor) xD. Gaming Berechnen macht meine RX 6600XT (auch nur maximal 60 Watt), alles andere was ich aufnehme geht auch wieder zusätzlich noch über die RTX 3060. Also die hat schon hier und da zu tun.
Nebenbei noch um zu klären wie ich hier von Sparpotenzial und dann mehere Grafikakrten reden kann.
Wie gesagt RX 6600XT nimmt Maximal 60 Watt (Lässt sich super über Takt Senkungen bewerkstelligen bei 60 Hz und full HD kein Problem).
Und die Nvidia habe ich bisher nur nach meinen Letzten optimieerungen bei Maximal 47 Watt gesehen.
Wenn Sich die AMD karte ums Gaming Kümmern kann, hat die Nvidia mehr Platz für und rechenleistung für die Video Geschichten. Insgesammt also Stand derzeit für beide Grafikkarten gesamt 107 Watt. Und auch meine Ryzen 9 5900X läuft in Benchmarks etc. Maximal auf 72 Watt, im Ganming eher bei 42 bis bisher maximal gesehen 55 Watt. Also GPU's + CPU gaming + Aufnahme derzeit ca. 162 Watt + Festplatten, chipsatz, Lüfter, netzteil Innefizienz etc. = 90 Watt = Maximal im Gaming + Aufnahme 252 Watt.
(gemessen an Steckdose, zurück gerechnet aus Einzelwertetn von HWInfo. Nur PC Ohne Monitore und sonstiges).
respekt, alle details geklärt. ich bin gespannt morgen auf die aorus :) kaufen lohnt sich auch wie du es erwähnt hast zum ungünstigsten zeitpunkt.
Wie immer klasse Video.
Ich denke der Weg zu großen Effizienzsteigerungen beim Gaming ist ganz klar KI-technik wie DLSS 3.0, Node-shrinks können da in Zukunft nur noch begrenzt helfen, einfach wegen der Physik.
Sehr spannendes Video Roman. Vielen Dank dafür.
20:20 du sprichst mir so aus der Seele! wenn du die Lederjacke mal triffst, frag sie mal bitte was das sollte.
und wehe er sagt Samsung 8nm vs TSMC 6nm ;)
Sehr schöner Test, gerade die Specs ohne Nvidias gebubbel waren nun interessant, leider schwebt bei der Karte bei mir ein großes FRAGEZEICHEN darüber.
Weshalb brauche ich diese Karte und warum sollte man die sich kaufen?
1. Ich muss zwingend auf eine 4k Auflösung gehen um überhaupt einen nennenswerten Vorteil zu haben. Somit richtet sich die Karte, wenn man mal z.b. Steam als Indikator nimmt, etwa an 2,46% aller Spieler. Wegen mir auch 5%, warum baue ich eine Karte die für gerade mal 5% aller Spieler interessant sein sollte?
2. Dazu kommt das eine 4k Auflösung bei einem nativen 4k Monitor der meistens bei 27-32 Zoll liegt keinen großen Unterschied 1080P macht. Wenn man die übliche Berechnung für Auflösungen für FullHD nimmt (Diagonale in cm (Zollx2,54) x 1,5) wären das 102,87cm bis 121,92cm. Ergo man müsste Näher als die angegeben Länge am Monitor sitzen um überhaupt einen Unterschied festzustellen. Wenn ich das dann schon auf 8k sehe, das ja auch schon anfängt. 8k kann das menschliche Auge zu einem großen Teil überhaupt nicht mehr erfassen. Da müssten es schon riesige Monitore sein, bei dem man eh schon weit genug weg sitzen würde und dann auch keinen Unterschied mehr feststellen.
3. Für Singelplayer sind FPS über 60 meistens voller Humbug. Jaja ich weis, nun kommt die Frame-Latenz dazu und das Gerede über natürliches Motionblur und das wegen Film das es ja hat, man nicht automatisch auf PC umrechnen kann. Doch in Singelplayerspielen habe ich vorgerenderte Bewegungen, die eben schon längst berechnet werden, wenn das Bild angezeigt wird. Da gibt es keine großen Zufälle, wie in einem Multiplayer. Ergo ab 60fps bis 120-144fps ist es ein reines Wohlbefinden für das persönliche Auge was ich hier erreiche. Spielerischen Mehrwert hat es so gut wie keinen und ist die Leistungsaufnahme nicht wert.
4. Es gibt auch kaum Technik in Spielen, die so eine Hardware erfordern, ergo weshalb? Um Star Citizen mal auf 90fps zu bekommen, bei seinem unoptimierten Zustand? CoD auf 400fps zu spielen weil man Multiplayer mag?
Ergo, für mich ergibt als ein Spieler der bei seinem Monitordistanz schon keinen Unterschied zwischen FullHD und 4K erkennen kann die Karte keinen Sinn. Ich spiele auch keine Shooter bei der die hohe FPS wichtig ist um schneller reagieren zu können und selbst wenn, würde ich auf ein pro-setting gehen. Da ich primär Singelplayer spiele und 60fps für mich auch die persönliche angenehmste stabile Framerate mit meiner 3080 ist, weshalb diese Karte?
Im Moment ist die Karte für mich ein reines Prestige Objekt, ja ich hab mehr Leistung, toll, braucht man die wenn man eh schon ein high Ende der 3000er Reihe hat? Eigentlich nicht! Ergo es ist nur für Leute die wirklich auf 4k Spielen möchten und das sind nicht sehr viele. Da versteh ich das ganze Marketing überhaupt nicht, gerade jetzt wären doch preiswerte neue und gute Karten angebracht. Gerade nachdem Nvidia die Gamer mit den Miner-Massenverkäufen geprellt hat, nun noch Skalperpreise für die Karte verlangen.
Für mich bleibt, zu teuer, zu viel unnütze Leistung und dafür zu viel Stromverbrauch. Ergo kein Preis der zum Nutzen steht, trotzdem eine schöne Karte!
Mal wieder super abgeliefert und ein absolut ehrliches Statement zur 4090, da bin ich Fan von, Klasse! (Wie immer.) Nur, wann kommt das WireView in den Handel? ;) ;) ;)
Gefällt mir sehr, dass du auch die Effizienz getestet hast, das hab ich mir auch schon überlegt.
Ich denke übrigens, dass dlss3 sich relativ schnell "verbreitet" bis jetzt haben ja schon viele Games dlss(2) und ich denke da wird es Integrations- technisch keine so großen Aufwände geben wie beispielsweise bei raytraycing
Ich weiß nicht, ob das hier schon geschrieben wurde, aber Igor hat zum Thema, warum die Karte so ist, wie sie ist, ein sehr gutes Video gemacht. Kurz zusammengefasst: Das Board, der Kühler und die Spannungsversorgung wurden entworfen, bevor der Chip bei TSMC gefertigt wurde. Samsungs Prozess hätte eine viel geringere Effizienz gebracht und hätte eben den deutlich größeren Kühler usw. benötigt. Nvidia hat dann am Ende nur den GPU getauscht, den Rest aber auf Grund von Kosten und Zeit so gelassen.
Das kleine WireView-Teil ist echt ne feine Sache, würde ich mir sofort kaufen. Den eiernden Lüfter hat auch JayzTwoCents festgestellt, hat es dann Wobbly Feature genannt.
15:26 unter der Bar ist ein bunt leuchtender Streifen. Mit DLSS flackert der ordentlich. Aber dieses Artifakt ist dem Performance Bonus echt wert. Man muss einfach mal sagen: Hut ab Nvidia. Wenn die Fehler noch gefixt werden können, dann würde ich sagen, dass DLSS wirklich die Zukunft von real time rendering ist. Aber auch so würde ich DLSS schon verwenden, weil es bereits so gut ist.
12:39 einfach Silkroad Kopie haha
@22:02 Das haben alle Karten, dass der lüfter ab 45% solche geräusche macht. Auch bei 70% ist ein metalisches klappern der Kühllamellen wahrzunehmen, auch bei allen so. Habe jetzt sechs 4090 getestet, alle das gleiche. Aber der eiernde Lüfter @21:41 das ist nicht normal. Wie auch immer, die Karte dreht die Lüfter eh nie so hoch somit ist es egal.
Danke Roman für den Exklusiven Content und das ausführliche Review! Ich frage mich ja immer noch, wie das mit DLSS 3. Gen Hard- und Sotwaretechnisch im Detail funktioniert. Auf jeden Fall anders als noch bei DLSS 2. Gen und nicht mehr mit *.dll Dateien, oder etwa doch?
Super Video! Ich bin mal gespannt auf die Quadro-Versionen dieser Karte, wenn sie das Power-Target so anpassen müssen, dass es mit einem zwei-Slot breiten Blowerkühler verwendet werden kann. Die müssten dann sehr effizient sein und mich würde da dann der Vergleich zur derzeitigen RTX A6000 interessieren.
Mit der Effizienz könnten auch low profile Karten wieder interessant werden...
Das Geräusch von dem hinteren Lüfter hört sich für mich an wie der Ton von nem Pusher Prop. Etwas zu nah an die Vorderseite von nem Lüfter oder Propeller bringen macht Ihn meist sehr laut. Das Video "Prop Slot Noise Reduction by Otto Dieffenbach" zeigt ganz schön wie viel Unterschied es machen kann ob man was vor oder hinter nem Lüfter platziert.