Das kann man selbst herbeiführen = undervolting. Meine 4080S braucht out of the BOX 315 Watt im Peak, bei niedrigstmöglicher Spannung schafft sie nahezu den Stock Takt, verbraucht aber nur noch 230 Watt bei 95% Leistung. Ich nutze sie sogar noch underclocked mit 2200MHz, womit sie nur noch knapp 180Watt braucht, aber noch immer 80%+ an Leistung liefert. Möglich sind 3045MHz mit 400 Watt.
@@shadowwhite9324Nutze RTSS. Bei vielen Games reichen mir 48fps, manchmal auch 72. Die 144 des Monitors nutze ich eigentlich nur in 2D. Ergebnis: Weniger Hitze, Krach und Verbrauch.
Ich habe überhaupt nichts gegen verbesserte Algorithmen, aber je mehr von Zusatzprogrammen dazugerechnet wird, umso größer sind nunmal zwangsläufig die Latenzen. Das kann man durch Programm-Optimierung auch nur bedingt verbessern, vorallem auch, da die Berechnungen letztlich immer durch die Hardware limitiert werden.
7:20 OMG! Das ist SO SCHÖN mal bestätigt zu wissen... Ich hatte schon seit Monaten das Gefühl, dass UE5 einfach nur ein Dumpsterfire an Ballast ist, den die Devs einfach nicht optimieren wollen, aber ich hatte noch nie so eine Bestätigung gehört... Devs müssen endlich mal lernen ihre Spiele zu optimieren und nicht alles auf die GPU abwälzen, dann könnte man auch mit älteren GPUs wieder mehr rausholen
Wenn ich mir die Spiele in letzter Zeit so ansehe, dann wird bei den heutigen >nforderungen wie Alan Wake 2, Silent Hill 2 Remake, Indiana Jones oder Wukong ein ordentlicher Pixelbeschleuniger benötigt. Meine damit, ja, schon, aber zu hoffen, dass die 2080 deswegen nochmal mithalten könnte darf bezweifelt werden. Nebenbei gibt es auch andere Limitierungen wie den VRAM.
Besonders die beliebten Marken: ASUS, MSI, GIGABYTE Den Rest kauft keiner. Zotac, Palit, PNY...Vielleicht Menschen die sparsam sind. Aber es "existieren" quasi nur 3 Marken für die Mehrheit der Gamer. Asus knallt eh OP obendrauf. MSi und Gigabyte sind da noch humaner unterwegs. Man schaue sich zb. Mindfactory an. Oder Caseking. Die meisten GPUs, die verkauft werden (vermutlich weil Marke UND Design) sind halt ASUS,MSI, GIGABYTE. Eben weil sie sehr schön sind. UND Power haben.
@@Sayako-sf2bn aber warum werden die Grafikkarten von Zotac, Palit, PNY weniger verkauft? Immerhin ist doch der Chipsatz der gleiche wie Asus, Msi und co... nun das habe ich auch nie so verstanden . Der Preisunterschied ist auch manchmal etwas größer bzw günstiger. Und die Leute greifen trotzdem zur teureren Variante???🤯
@@Sayako-sf2bn Die überzogenen Preise insbesondere bei ASUS Grafikkarten würde ich nie zahlen da mir der Mehrwert viel zu gering ist. Die letzen drei Karten von Gainward (2080, 4090) sowie PNY (3080Ti) laufen oder liefen alle problemlos. Übertakten ist bei der Grundleistung der Karten für mich ohnehin sinnfrei. Die 4090 läuft auf 75% Power Target.
5:49 ich kann dir (leider) sagen warum: leider gottes ist es mittlerweile so, dass (aaa) spiele mit der intention entwickelt werden, dlss und co zu benutzen. so sparen sich die entwickler zeit, und vor allem geld bei der optimierung des spiels (die mit glück auch erst schleppend über jahre hinweg voran kommt, siehe cyberpunk). es gibt einfach nur noch selten bis gar keine neuen spiele, die optimiert und fertig auf den markt kommen. dlss war anfangs als eine nice addition für u.a. raytracing gedacht, damit man das spiel auch da flüssig/nutzbar spielen konnte. problem ist nur, entwickler "nutzen" diese technik aus, damit sie die spiele wie oben genannt, nicht (von anfang an) optimieren müssen. ich hoffe ich konnte das halbwegs gut darlegen.
@@jiloon-ci9jl weil es günstiger und einfacher ist, ein feature zu implementieren, welches entweder niedrige auflösung hochskaliert oder künstliche bilder interpoliert, oder gar beides, als code aufwendig zu optimieren. siehe bspw. die UE5. die meisten, wenn nicht gar alle spiele, die auf dieser engine basieren, haben performance probleme. selbst epics eigenes spiel fortnite. einfach weil die engine so schlecht optimiert worden zu sein scheint. und das ist kein geheimnis, denn sehr viele menschen bemängeln das. außerdem gibts diese richtigen performance probleme erst, seitdem sich dlss richtig implementieren konnte, da alle gesehen haben, wie mächtig diese technologie eigentlich sein kann.
Was ich nicht verstehe ist, da wird sich aufgeregt, dass nicht mehr rohe Leistung durch übliche Bauteile auf der GPU erzeugt werden. Jetzt werden halt anstelle von CUDA- und Shader-Kernen die AI TOPS massiv erhöht. Meine RTX 3080 hat 238 und eine RTX 5080 hätte 1801. Das ist eine 750 Prozent Steigerung und daher kommt halt auch die Upsampling- und FrameGen-Power. Ist doch egal ob die Power aus den Bauteilen A oder B kommen, richtig? Fakt ist, ohne diese Verstärkung der KI-Komponenten wären wir von der Grafik immer noch in der PS4 Generation.
5070 ist mit 12 Gb bestückt. Nennt mich verrückt aber ich komme mit 16 Gb teilweise nicht aus. Was nützt DLLS 4 wenn der Speicher voll ist. Genau nichts mehr.
naja dann sage ich mal die dein problem ich bekomme meine 16 gb nicht voll auch mit mods nicht und mit dlss geht der verbrauch runter solltest du aber wissen wen du schon deine gb voll bekommst dann schaut man ja warum bis jetzt bibt es nur 2 games die mit 6gb nicht mehr laufen alles andere geht ober einfach mal 8k hd mods weg lassen oder halt eine 5090 wünschen ^^
Sehe ich genauso, dass da oft viel Potential liegen gelassen wird. Gerade bei den aktuellen Titeln merkt man, dass oft rohe Power vor Optimierung geht. Schade eigentlich, denn mit ein bisschen mehr Feintuning könnten viel mehr Leute in den Genuss der neuesten Games kommen, auch ohne High-End-Rig. Was mir da so auffällt (und das deckt sich ja auch mit dem, was hier im Video angesprochen wurde): Nanite und Lumen in der UE5 sind zwar absolute Gamechanger, was Detailgrad und Beleuchtung angeht, aber die fressen halt auch Ressourcen ohne Ende. Da muss man als Dev echt aufpassen, wie man die einsetzt. Adaptive Tessellation basierend auf der Distanz und der GPU-Performance wäre da ein super Ansatz. Oder auch dynamische Anpassung der Lumen-Qualität. Sowas in der Art wie eine "Lumen-DLSS"-Funktion, quasi. Dann könnten auch schwächere GPUs noch ein anständiges Bild bekommen, ohne komplett einzubrechen. Und apropos DLSS: DLSS 3.0 und bald auch 4.0 sind natürlich krasse Technologien, die uns da echt weiterbringen. Aber auch da gilt: Es ist kein Allheilmittel. Man muss trotzdem noch sauber optimieren. Shader-Optimierung ist da ein riesen Thema. Da kann man so viel rausholen, wenn man da wirklich tief reingeht und unnötige Berechnungen vermeidet. Klar, komplexe Shader sehen geil aus, aber vielleicht muss man da für Low-End-Systeme einfachere Alternativen anbieten. Oder eben mit Techniken wie Ray Reconstruction arbeiten, um die Performance zu boosten. Auch das Thema Culling und Occlusion Culling wird oft unterschätzt. Wenn man da wirklich präzise arbeitet, kann man so viele unnötige Render-Aufrufe vermeiden. Und was die Assets angeht: Texturkompression, LODs, effiziente Mesh-Optimierung - das sind Basics, die aber immer noch oft vernachlässigt werden. Gerade bei Open-World-Spielen, wo man riesige Welten rendern muss, ist das Gold wert. Was die Grafik-APIs angeht (DX12, Vulkan): Async Compute ist da ein absolutes Muss. Wenn man das richtig einsetzt, kann man die GPU viel besser auslasten. Und den API-Overhead minimieren, ist natürlich auch wichtig. Batching von Draw-Calls ist da so ein Stichwort. Das sind zwar eher low-level Sachen, aber die machen am Ende echt einen Unterschied. Und last but not least: Die Treiber. Da müssen die Hersteller natürlich auch mitziehen und spielspezifische Optimierungen liefern. Aber auch allgemeine Performance-Verbesserungen sind wichtig. Da ist die Zusammenarbeit zwischen Spieleentwicklern und Treiberherstellern entscheidend. Ich finde es gut, dass hier im Video auch das Spieldesign angesprochen wurde. Reduzierung der Draw-Calls, sorgfältige Planung der Spielwelt - das sind alles Faktoren, die man von Anfang an berücksichtigen sollte. Wenn man da schon in der Planungsphase dran denkt, spart man sich später viel Ärger. Ich bin echt gespannt, was die Zukunft da noch so bringt. Mit den neuen Technologien und den ganzen Optimierungsansätzen gibt es da noch so viel Potential. Hoffentlich setzen die Entwickler in Zukunft noch mehr auf Optimierung, damit wir alle, egal mit welcher Hardware, geile Games zocken können.
Die Karten sind "günstiger geworden". Nur weil die 40er Serie jenseits von überteuert war. Das heißt trotzdem nicht, das P/L OK ist. Die 5070 TI kostet immer noch mehr als die absolute TOP 1080TI beim Launch.
Denkt an eurem Vergangenheit-Ich vor 10 Jahren und sagt dem mal, dass wir überhaupt 4K und 240FPS schaffen heute. Und dass mit "KI" die 3 Bilder zwischen den Frames generiert, indem sie Bilder interpretiert, schärft usw. Das hätte doch niemand geglaubt. Also alle die mimimi machen, die hätten auch am Pferd festgehalten, weil man mit einem Auto damals ja nur Schrittgeschwindigkeit fahren konnte. DLSS4 ist schon ein großer Sprung, generell ist DLSS ein großer Sprung gewesen, was ist in den nächsten 5 Jahren? Aber ja ich finde es schade, dass Nvidia so Geldgeil ist und für Softwarelösungen neue Hardware verkaufen will.
Ich hätte gerne 120hz und bei jedem hz ein Frame=120fps die Grafikkarte soll 30frames rendern und 3 frames werden bei jedem Frame dazwischen geschoben(Grafikkarte würde ca 150watt verbrauchen) aber so ist es leider nicht. Sondern so: Die Graka rendert was soviel sie kann zb 85fps, dann macht daraus dlss4=255fps davon werden dann 120fps im hz takt des Bildschimes angezeigt? 400watt verbrauch?
das Problem ist dass ich das jetzt immer noch nicht glaube^^ ich mit ner 4090 sehe ja wie gut das mit 1 Bild funktioniert.. 3 Bilder kann doch nicht funktionieren? und das bei gleich Kernen??
@@ericschulze1337 Das wird mit zwischen Bildern erreicht.Das führt aber zu einer höheren Latenz. Weil keine Echtzeit Ausgabe statt finden kann: Die Grafikkarte rendert zurest ein Frame und dann das zweite, das wird dann noch nicht ausgegeben, Sondern frame 1 wird mit 2 verglichen, die zwischenbilder dazwischen gerechnet, was viel schneller als rendern ist. Danach wird es erst Zeitversetzt(Latenter)ausgegeben. Das neue ist jetzt aber, das sie nach Frame 1 nicht mehr mit Frame 2 vergleichen, sondern die Ai durch das Vorangegange raten lassen,es wird daher das zweite gerendert wärend die Ai gleichzeitig ratend die zwischen bilder ausgibt. Da passen anscheinend 7 frames rein,bis das nächste Frame gerendert ist.
Ja, das vergisst man immer wieder schnell, da die Schritte nur nacheinander kommen. Geht mir mit meiner 1080 auch so, ich dachte die ganze Zeit, dass ich damit noch oben mit dabei bin, bis ich vor kurzer Zeit dann doch realisiert habe, wie alt die schon wieder ist und was sich alles getan hat
Wir müssen die Realität genauer sehen: Die 5090 performt 20% in native Leistung besser als die 4090. Was bedeutet das wir für nur 20% bessere Performance 2000€ zahlen, alles andere ist nur wegen AI möglich
Und die Entwicklung bzw. Weiterentwicklung von ki/dlss/FG kostet deiner Meinung nach nichts? Deine Rechnung passt selbst ohne das hinten und vorne nicht. Wir zahlen letzten Endes bezogen auf die UVPs 4090 zur 5090 noch keine 400 Euro mehr. Und das für 20% native Leistung mehr, für mindestens 50% bessere Ki und 8gb gddr7 vram mehr sowie pcie 5.0. Da finde ich keine 400 Euro Aufpreis absolut in Ordnung
@@sts_gaming Ich würde mal sagen, 27% ist die rechnerische Geschwindigkeitszunahme. Dazu kommen sämtliche ai Funktionen. Man bemerkt allein in der Vorstellung schon, das sich die 5090 eher an die Creator, als an Spieler richtet. Warum sind nun alle so negativ dazu? weil sie meinen ihre ich stelle etwas dar 4090, muss so schnell bleiben wie die 5 Line. Bliebt sie aber nicht. Also wird alles niedergemacht. Gleichermaßen urteilen sie über Funktionen, die sie gar nicht kennen.Nehmen wir nun 27 % mehr Performance im Preis, kämen wir bei einer RTX 4090 auf 2700 euro. Da liegt aber die 5090 weit drunter. Hinzu kommt das die Power mehr wurde, mit 600 Watt. Was auch bedeutet, wenn es wie viel ? 70% wären ? wie viel Watt denn dann? 1000 ? Und wie bitte soll es denn weitergehen ? mit jeder Generation mehr Watt pro FPS ? Das wird nicht funktionieren. Irgendwann muss ein Umdenken her. Der Verbrauch muss runter, und die Technik höher. Aber das wollen sie weder wahr haben, noch verstehen sie es. Das herumgemoser um die 5070 ist genau so schlimm. Wenn die technische plattform passt, bringt DLSS4 da einen riesigen Zuwachs. Der Rest ist Erbsenzählen. Und für alte Spiele, reichten alte Grafikkarten, es geht um die nächsten kommenden, nicht um den alten Kram, der geht schon auf alten Karten entsprechend.
@opafritzsche Absolut. Ich verstehe das rungemoser zur 5090 auch nicht. Die 4090 hat doch genauso Ki genutzt um die volle Leistung zu haben. Die 4090 ist und bleibt eine tolle Karte und Tests werden den Vergleich zur 5070 schon noch zeigen. Ich vermute da eher die Rohleistung der 4090. Aber man sollte da doch auch mal das positive in der Entwicklung sehen. Ich kauf mir doch auch jetzt ne 5090 und bin in 2 Jahren nicht beleidigt weil die 6090 doppelt so schnell ist oder die 6070 an die Leistung dran kommt. Die 5070 wird mit ihren 12gb ja trotzdem schnell an Grenzen stoßen wogegen die 4090 da nur müde lächelt. Hat alles sein pro und Kontra aber im großen und ganzen hat nvidia erstmal auf dem Papier mit der Leistung und dem Preis abgeliefert. Keine der 4 genannten Karten hat für mich einen Haken. Die werden genau das können was man auch bezahlt. So sehe ich das
Im großen und Ganzen stimmt das alles leider hat NVIDIA die kleinen Karten sehr unnötig mal wieder durch VRAM gedrosselt. Was leider einem an für sich gutem Produkt ein bisschen dazu verhilft schon fast am Limit zu sein bevor es los geht 5070 hätte mit 16GB echt die nächste 1080ti für die Mittelklasse werden können denn der RAM wird ja leider auch für die ai Funktionen genutzt zumindest zum Teil wodurch die 12 gb ja eigentlich auch keine 12 sind sonst denke ich gehen die den richtigen Weg. Ich denke das ram Thema hat auch viel mit Produkt Schutz der eigenen Server und pro Hardware zu tun. Das es mit der nicht vorhandenen Spiele Optimierung nicht weiter gehen kann ist auch vollkommen klar. Manchmal habe ich das Gefühl das ältere Spiele besser liefen und nicht viel schlechter in der Grafik waren oder ohne die modernen raytracing Dinge sogar besser aussahen als aktuelle Spiele ohne da scheinbar keiner mehr Bock hat echte Software zu machen
@@Jobanov GT7 120Hz und 120FPS, 4k, reicht mir vollkommen und ein besseres VR Erlebnis, als ich es mit einer ähnlichen VR Brille in der Preisklasse haben könnte, als am PC. 🤙
Das Physikalische Grenzen gelaber, es gibt noch einige Stellschrauben an denen man drehen könnte, der Größe des DIE z.B. Aber das würde bei gleichem Preis weniger Gewinn für Nvidia bedeuten. Zudem steht NVIDIA in ihrem Business, außerhalb der Konkurrenz warum 5 MEter weit springen wenn 2 Meter reichen... Der Grund der Preise und der geringen Mehrleistung liegt einfach an den wirtschaftlichen Gründen der Gewinnmaximierung.
Mich wundert etwas die Verwunderung über die Empörung. 27% mehr Rohleistung für 2340 Euro sind nicht angemessen. Und zu den Frame-Generations-Diskussionen: Du siehst mehr Frames aber du spürst die 30 FPS. Das heißt der ursprüngliche Vorteil von FPS geht komplett verloren. Ich empfehle dazu das Video von Digital Foundry. Die zeigen den Delay recht gut. Berechnet man das mit ein, finde ich die Aufregung gerechtfertigt. Gerade weil so absurd viel Geld dafür genommen wird.
wow deine rechnung ist mal so was von falsch 27% also mehr rohleistung kosten nicht 2340 euro wen man jetzt die 4090 nimmt die gerade so bei 3000 euro liegt dann würde es richtig heißen 27% mehr leistung bei minus 660 euro laut aktuellen preis!!! man kann nicht sagen 27% mehr und dan die uvp nenen lol wen müsste man den preis der verglichen gpu abrechnen dann ist es richtig aber das wollen viele nicht verstehen glaub ich oder sind einfach nur amd trolle firmen junger sind sowiso sehr eingeschränte menschen gleiche wie bei samsung appel oder asus gegen alle anderen lol auch ganz vergessen intel oder nokia ^^
Ich kenne auch noch die Zeiten der Voodoo Karten hatte selbst 2 Stück trotzdem beindrucken mich die Neuen Karten gar nicht die Ki muss jetzt alles machen statt bessere Gpus zu bauen.
Ganz im Ernst: Diese Geschichte von der 5070 mit 4090-Performance ist ein Marketing-Hoax und das weißt du selbst. Wenn ich 30 fps mit DLSS auf 50 fps und dann mit MFG auf 200 fps jage, habe ich trotzdem nur 50 fps, die auf meine Eingabe reagieren. Alles dazwischen ist allenfalls nice to have und kein adäquater Vergleich. Zumal DLSS 4 (ohne MFG) zu allen RTX-Generationen kompatibel sein wird. Genau den Vergleich stellt Nvidia hier aber mit ziemlicher Sicherheit an: 5070 mit 3 Fake-Frames = 4090 mit 1 Fake-Frame. Das deutet in der Realität eher auf ziemlich genau die halbe Performance der 4090 hin. Nvidia hat die Strukturbreite nicht geändert, was wiederum den mutmaßlich kleinen Leistungssprung erklärt - wohl v.a. auch unterhalb der 5090. Dass die MSRP der 5080 im Vergleich zum Vorgänger gesunken ist, wird sicherlich dem erwartbar geringen Leistungszuwachs geschuldet sein und sonst nichts. Das Argument mit den physikalischen Grenzen und, dass Moore's Law nicht mehr funktioniere, gibt es nicht erst seit ein paar Jahren - ist auch nicht falsch -, aber trotzdem sind immer wieder große Sprünge möglich, auch hinsichtlich der Rohleistung (3090 Ti → 4090). Ich schaue deine Videos echt gerne und will auch gar nicht haten, aber dafür, dass du am Anfang betonst, dass das kein Fanboy-Gehabe sein soll, klingt der Take wie eine einzige Verteidigungs- und Rechtfertigungserklärung für Nvidia. Ich war vorab ziemlich gehypt von der 5090, schaue den kommenden Tests mittlerweile aber mit großer Ernüchterung entgegen. Wenn das Teil am Ende tatsächlich nur rund 25 % mehr Leistung als der Vorgänger bringen sollte, wäre der Preis von >2300 Euro wirklich maßlos überzogen. Das einzig Gute daran: Viele Enthusiasten werden sich dreimal überlegen, ob sie upgraden und Nvidia hoffentlich ein Stop-Schild vorzeigen. Eine Karte mit brachialem Leistungszuwachs zu sehr hohen Preisen anzubieten ist das eine, astronomische Preise für ein recht moderates Performance-Plus zu verlangen das andere.
Die 5070 hat die Leistung einer 4090?? Ich kenne dich als jemand der differenziert und genau recherchiert, aber hier einfach das Marketing Blabla von Ngreedia zu übernehmen finde ich alles andere als cool…
Hätte NVIDIA auf etwas Marge verzichtet und die TSMC 3nm statt 4 nm Fertigung für die RTX 50er Karten genutzt, dann hätte man bei gleicher Leistungsaufnahme ca. 30%-40% Mehrleistung (nur bei Rasterize & beim DLSS wäre dann noch mehr möglich) bekommen können. Ich kann das Gerede von physikalischen Grenzen von den ganzen Influencern nicht mehr hören. Zurzeit sind wir halt noch nicht an den physikalischen Grenzen. In diesem Jahr wird Apple voraussichtlich sogar schon die TSMC 2 nm Fertigung nutzen. NVIDIA hinkt also mit seinen RTX 50er Karten 2 Generationen in der Fertigung hinterher. Lasst euch also nicht für dumm verkaufen !!! NVIDIA geht es nur um die Marge (Gewinn) ! @alle Influencer Hört endlich auf die Marketing-Ausreden bzgl. physikalische Grenzen von NVIDIA einfach unkritisch zu übernehmen ! 1. Sind wir noch bei keinen physikalischen Grenzen (nur zur Info: Selbst nach der TSMCs 1nm Fertigung werden wir nicht bei den physikalischen Grenzen angekommen sein) 2. Selbst wenn wir irgendwann an die physikalischen Grenzen kommen werden, gibt es bereits heute neue Ansätze (z.B. 3D Chips bzw. gestapelte Chips, ...) um die Transistordichte weiter zu steigern Daher informiert euch bitte bevor ihr solche Aussagen tätigt oder werdet ihr von NVIDIA zu solchen Aussagen gedrängt, um die neuesten Grafikkarten von NVIDIA kostenlos gestellt zu bekommen ?
Okay, also auf deutsch übersetzt heißt das jetzt im Klartext: Wenn ich im Ernst weit über 2 Scheine für ne 5090 aufn Thresen kloppe, bezahle ich nichtmal annähernd die Hardware, und den Sprung, den sie gemacht hat, sondern eigentlich die Server für AI / DLSS, an sich zahle ich den Preis für die Software und weniger für die Hardware - denn, die ist es NICHT WERT! Das entnehme ich aus dem Video! Wenn also sowieso die Zukunft bei KI und Software liegt...tja, dann ist das wohl so!
es kann sehr wohl das gleiche sein wenn sie es mit dlss 4 schon soweit hinbekommen das man optisch zu nativen auflösungen bis 4k und 8 facher beschleunigung sprich 8 x mehr fps wie mit der 5090 gezeigt einfach keinen unterschied mehr sieht optisch zu nativ was macht es dann für einen unterschied ob die optische qualität nativ erstellt wird oder von der ai so kann man endlich mal die 240 hz OLED bildschirme mit auflösungen ab 3440 x 1440 aufwärts anständig zum zocken nutzen
Dioe leute sollen einfach aufhören immer "fake frames" zu sagen es ist nunmal jetzt die zeit für KI und wenn die möglichkeit bessteht es zu nutzen solle man es man sollte darauf einstellen das man so zukünfig neue karten kaufen wird.
Spannend, wie Nvidia mit DLSS 4.0 den Fokus von reiner Hardware-Power auf KI-gestützte Performance verlagert. Klar, physikalische Grenzen setzen der Chip-Entwicklung Limits, aber ich finde, die Kombination aus smarter Software und Hardware ist der richtige Weg in die Zukunft. Trotzdem bleibt die Frage: Warum sparen so viele Entwickler an der Optimierung? Mit besserem Code könnten wir auch aus älteren GPUs noch einiges rausholen.
Das Mooresches Gesetz kollidiert mit der Abbeschen Auflösungsgrenze beim EUV-Verfahren. Werden die UV-Strahlung durch Röntgenstrahlung ersetzt, könnten Transistoren noch kleiner gefertigt werden. Aktuell aber noch am Forschungsanfang, weil sich die Röntgenstrahlen nochmal anders verhalten und erzeugen lassen.
nvidias dlss und amd's x3d cpu's sind die erzwungene Antwort auf das extrem stark und permanent schnell sinkende interesse vernünftig fertige spiele auf den markt zu bringen egal ob PC Spiel oder konsole oder alle Plattformen zusammen das müssen die leute und gamer einfach mal begreifen anstatt sich wie hooligans aufzuführen
Es gibt vielen wichtigen Punkten für die GPU-Cards-Entwicklung, macht aber keiner Hersteller heutzutage. Beispiele: Neue GPUs sollen enorme Rechenleistung haben. Trotzdem sollen sie kleiner, effektiver sein. Weniger Wärmer Abgabe, kleines Gehäuse haben, gesamte Stromaufnahme weniger sein..etc.... Es wird sicher nicht einfach zu sein und länger dauern. Aber es lohnt sich nach ca. 4 Jahren ein neues Produkt vorstellen, das mindestens 50% besser, schneller, kleiner etc.... Stattdessen machen alle Hersteller pro Jahr ein neues Produkt. Nur wegen magerer Verbesserung und inklusiv Fehler. Es ist Rohmaterial-Verschwendung.
Das mehr über KI geht ist ja ok aber dann müssen die Preise auch niedriger sein! Die Karten sind immer noch zu teuer und wie gut dann alles mit DLSS 4 aussehen wird, müssen wir noch sehen. Ich bin auch mal gespannt, wie sich die Latenz dann mit der neuen Frame Gen ändert
warum sollten die preise dadurch günstiger werden? es ist doch ein mehraufwand da die KI technologien DAZU kommen zur klassischen gpu entwicklung. es wäre vielleicht so, wenn man die rastergrafik elemente komplett rausnehmen und nur noch auf raytracing und KI setzen würde aber dann wären 99% aller games nicht mehr kompatibel...
Unreal enginge und aktuelle spiele sind einfach nur noch shit! CP spiele ich 4k problemlos, andere laufen 1080p mit upscaling und runtergestellen Details sch.....
Es geht doch nicht darum, das die Hardware in der Rohleistung keine großen Spünge mehr macht. Das hatte NV schon zu Beginn der 4000 Serie gesagt. Es geht darum, das die Karten wieder Sack teuer sind, mehr Strom verbrauchen und nur mit DLSS schnell laufen und das die alten 4000 Karten z.b. kein DLSS 4.0 Support erhalten. Das ist das selbe wie mit den GSync Modulen.... Außerdem wird nie jedes Spiel ovn DLSS profitieren, es gibt zahlreiche kleine Spiele Entwickler, die keine Zeit und auch kein Geld für sowas wie Raytracing DLSS und was es nicht noch alles gibt haben. Die müssen mit ihren Geld ganz anders Haushalten. Keins der Spiele, was ich spiele, besitzt DLSS Support!
Danke, jemand der mir von der Seele spricht. Es ist genau das was ich mir auch denke und was wahrscheinlich auch viele dran stört das man "nur" für neuen KI Support eine teure Karten kaufen muss, obwohl die Leistungsdaten fast gleich sind.
es werden auch kleine indi entwickler immer mehr auf dlss/fsr setzen! genau wie rt! und das gsync hat sich dieses jahr hoffentlich auch erledigt mit pulsar.
@@ice98mja1 Wann den? DLSS kam 2018. 🤣 Und so lange, spiele ich gefühlt bereits Spiele ohne DLSS und RT, weil die das nicht supporten. Und wenn ich ein Spiel einmal durch gespielt habe, installiere ich es nicht 3 Monate später nochmal, nur weil DLSS dazu gekommen ist. Das ist auch nochmal ein Punkt. 😂
@@ice98mja1 vor allem habe ich mit mal von Nvidia die Liste der Unterstützen Spiele angeschaut und die meisten haben nur DLSS 2.0, es sind auch einige mit 3.0/3.5 aber nicht die Mehrheit das es sich lohnt dafür in eine neue Karte zu investieren.
4:00 Diese Aussage ist schlichtweg falsch die du da sagst. Die 5070 leistet auf gar keine Fall so viel wie die 4090. Die Rohleistung ist bedeutend schlechter.
bin ein absoluter Laie was Spiele Programmierung angeht, aber wenn die Optimierung den Entwicklern soviel Zeit und Geld kostet - warum kann bei einem fertigen Spiel - vor Release - nicht noch schnell die KI drüber huschen und in 3,5 Minuten das Spiel optimieren ? Gerade die KI müsste doch in diesem Umfeld zu einer riesen Revolution führen, oder nicht ? wenn ich Deinen Beitrag richtig verstanden habe muss der Endkunde mit teuren Grafikkarten den "Geiz und Faulheit" der Spieleentwickler bezahlen, korrekt ?
Was soll das? Es ist wohl offensichtlich, dass die 5070 nicht so viel leistet, wie die 4090. NVIDIA nachplappern ohne Verstand? Schwach. Spiele die kein DLSS unterstützen, profitieren gar nicht von diesen Software Performance Verbesserungen.
Der Titel sagt es sehr schön, man muss beginnen umzudenken. Ich glaube, der einzige Kritikpunkt momentan ist, dass eine 5080 mit "nur" 16GB kommt. Da hätte ich mehr erwartet. Aber noch kann eh keiner sagen, wie gut und schnell die neue Architektur und Speicher sind. Außerdem braucht Nvidia ja noch ein Verkaufsargument für die Ti Variante.
Für diejenigen die sich für die genannte physikalische Grenze interessieren, hier mal grob und laienhaft angerissen. Wenn wir uns eine Leiterbahn wie eine Straße vorstellen sind auf beiden Seiten Barrieren durch die die Elektronen nicht passieren können. Nun ist die Position des Elektrons aber nicht fest bzw. punktförmig sondern eher als Wolke (der Wahrscheinlichkeiten) zu betrachten (siehe heisenbergsche Unschärferelation). Wird die Strukturbreite nun weiter gesenkt kann es passieren dass diese "Wolke" über den Rand der Leiterbahn reicht und sich das Elektron, mit einer gewissen Wahrscheinlichkeit, außerhalb befindet. Das wäre kurz gesagt schlecht. Wir reden hier natürlich vom Tunneleffekt. Man nutzt dies tatsächlich in Speicherchips aus um die Zellen mit Elektronen zu füllen aber das ist eine andere Geschichte :)
Ja, geht mir genau so, da ich vor allem größere LLMs lokal laufen lassen will und da ist vor allem der VRAM ausschlaggebend. Ob die Karte jetzt ein paar Shader mehr oder weniger hat, ist mir hingegen egal.
@@silentwater79das ist leider der grund warum sie mit dem vram geizen. Sehr viele hobbyists werden sich eine 5090 nicht wegen der performance sondern den 32GB vram kaufen
@@iamshiron 32gb braucht man bis dato nicht und bis man die braucht gibt es schon neue gpus das hat nichts mehr mit hobbyisten zu tun wer nicht auf geld schauen muss sagt auch nicht die sind viel zu teuer! alle die rum meckern wollen halt nur das beste was es gibt aber geschenkt die 5090 wird auch nicht die meistverkaufteste werden.
Also bei so einer komischen Preisspanne und bei der ''Leistung'' vorgetäuscht wird durch DLSS ist halt frech. Ich freue mich schon auf die Zukunft, wo keine Sau sich mehr Mühe geben muss ihre Programme zu optimieren oder die nötige Hardware zu bieten, die man für das Geld und gute Ergebnisse verlangen kann...
Wir gehen langsam aber sicher zur Grenze des Siliciums. Ob Germanium-Zinn oder Graphen oder Champignons, wir brauchen eine durchsetzbare Alternative innerhalb nächsten 15 Jahren.
Also ich freue mich auf die 5000er und auch auf DLSS 4. Was ich sonst für ne Möglichkeit sehe für Performancesteigerungen, wären Multi-GPUs... Also z.B. 2x5090er auf ner Platine. Aber wie man das Kühlen will. Keine Ahnung.
Das Problem sind nicht die physikalischen Grenzen sondern einfach die Menschen. Ich komme auch aus der 3dfx Zeit und freue mich über jedes plus an Leistung. Viele verstehen nichts über die Architektur von GPUs oder CPUs. Ich finde es einfach nur faszinierend und da ich als IT Techniker unterwegs bin, hab ich wahrscheinlich eh ne andere Sicht auf die Dinge aber ein Großteil der Menschen sind einfach nur noch schrecklich!
Wie siehst du die Entwicklung für gaming GPUs in den nächsten 10 Jahren? Wird es bis dahin noch consumer grafikkarten geben? Ich würde mir wünschen, den Stromverbrauch der GPUs zu optimieren. Jedes Jahr wird mehr Strom für die Modelle gebraucht. Werden PSU mit 3000W in 10 Jahren der "Standard" sein?
@@Elabotrait woher soll den sonst solch eine brachiale Leistung kommen? Von gen zu gen ist viel Entwicklung dabei um das alles effizienter zu gestalten. Da ist der way to go einfach KI. Das wird mMn die Leistung Aufnahme in Zukunft etwas drücken aber die top Karten werden immer gut schlucken. Das war die letzten 20 Jahre so 😅 Ich sag nur 8800 ultra 😅
@@SimonBauer7 Wir leben in verrückten Zeiten aber die Entwicklungsdauer und die dafür verbrauchten Ressourcen müssen ja auch irgendwie wieder rein gebracht werden 😁
@@SimonBauer7 echt sag das mal ferrari oder lambo oder die handy herseller aller lager und den bäcker was jetzt so ein brot kostet oder den stromanbieter oder gar die banken was die sich alles so nemen lol
Warum sagst du unreflektiert, dass die 5070 soviel leistet wie die 4090? Dieses Narrativ von Nvidia sollte man nicht unterstützen. OK, unter gewissen Umständen - DLSS MFG muss vom Spiel unterstützt werden - kann die 5070 wrsh ähnlich viele FPS bringen, wie die 4090 nur mit FG. Das heißt aber nicht, dass sie das selbe leistet. Dafür muss man erstmal Tests abwarten, was diese 3 generierten Frames mit der Qualität und mit dem Spielgefühl - Stichwort Latenz - macht. Gibt es mehr Artefakte? Und wenn es nur nach FPS geht, dann kann ich mir auch für 9 $ Losless Scaling kaufen und dann "leistet" meine 4080 mit 4x FG wrsh deutlich mehr als die 5090 in einem Game ohne DLSS FG.
Du sagst ein 5070 leistet so viel wie eine 4090? Das glaube ich nicht- lediglich Nvidia rechnet es sich schön mit DLSS. Aber 8 gb Speicher??? Ernsthaft. Das war bei der 20xx Serie schon zu wenig. Und sie machen es wieder. Selbst wenn DLSS extrem gut mit Speicher skalieren würde- es ist zu wenig. Viel zu wenig Speicher. Und ist es nicht genau im Gegenteil so das DLSS eher mehr Speicher braucht?
wenn sie die Transistoren nicht kleiner machen koennen warum vergrößern sie nicht die Fläche des Chips. Damit hätte man doch auch mehr Leistung oder nicht?
Lichtleiter Prozessoren und Transistoren. Keine Hitze Probleme und Lichtgeschwindigkeit. Was will man mehr? Ist schon in der Forschung, soweit ich mitbekommen habe.
Hey nerdy, ich möcht mir zum ersten mal einen PC bauen fürs zocken, Office software und Video editing. Ist dann die 5090 sinnvoll, oder ist raw power gefragt?(4090 usw.)
Aber ein geniales Video. AI ist super interessant, wird aber eh noch* auf viel Hass stoßen, wegen der überlegenheit. Aber für Grafik und FPS is AI genial und womöglich umweltfreundlicher.
Ich denke mal in spätestens 10 Jahren wird es auch Quantenrechner geben die alles um ein mehrtausendfaches beschleunigen können mit dementsprechend entwickelter software. Gibt es jetzt schon aber noch riesig und noch nicht für den freien markt da in der Forschung.
die nviidia 5000 serie ist wie nvidia 3000 serie nur ein lüken füller , den 2027 komt nvidia r100 das ist eine echter leistungs sprung wie bei 3000 vs 4000 nvidia serie , wer eine 4000nvidia karte hat der braucht ganz und garnicht eine 5000 kartet , beser bis 2027 warten und dan richtiger 6000 nvidia karte kaufen . das ales kan man einmfach nachgoogeln
@@iamshiron 1.4 nm ist die Rede aber euch sollte klar sein von 4nm auf 3,2, 1nm wird nicht die Revolution bringen sondern nur kleine Verbesserungen. Es muss was anders kommen sonst ist erstmal stillstand!/hardwaretechnisch
@@endgamek7820 kam vlt falsch rueber aber mein Komentar war eher auf Sarkasmus aus. Deswegen auch die "0nm". Ich weiss selber dass es in der Zukunft irgendwann das aus fuer die aktuelle Silizium-Technik sein wird ausser wir erfinden Grafikchips komplett neu. Selbes Problem aber auch mit CPUs. Wir sind langsam am Physikalischen Maximum was moeglich ist das sonst die Elektronen springen. Groesser koennen wir den die auch nicht machen wegen Latenzen und Bitfehler auf Grund von unterschiedlicher Laenge der Banen / zu lange Bahnen.
ich sehe das total entspannt, Spiele werden für den Massenmarkt Produziert und dazu gehören nun mal auch die Konsolen diese sind weit weg von der Power moderner Grafikkarten, grafische Sprünge werden noch auf sich warten lassen vor allem wenn man eine 4080 oder 4090 besitzt und in 4k zockt (am PC was die wenigsten Menschen machen ) mit DLSS ob mit oder ohne FG. AI,Ki ist nur Marketing und damit kann man im Moment sehr viel Geld verdienen. PS. für Grafik Programme (Anwender) sind die neuen Karten sicherlich eine bereicherung.
Nvidia will aber sicher auch nicht besser. Warum denn auch? Man hat im high end Bereich keine Konkurrenz außer sich selbst und die Leute kaufen die neuen Karten auch so. Also lieber das Minimum machen und trotzdem Geld verdienen. Dafür haben sie dann genug Reserven falls die echte Konkurrenz doch mal aufholen sollte.
04:02 "eine 5070 leistet mit AI so viel wie vorher eine 4090" Das war erstmal nur das Werbeversprechen. Das würde ich so nicht als Fakt übernehmen, oder hat das schon mal jemand ernsthaft getestet?
Ich bin überrascht, dass so eine weit verbreitete Gameengine wie die Unreal Engine 5 noch so viel Optimierung benötigt bzw. so ineffizient ist. Sollte die Optimierung die Gameengine nicht automatisch machen?
Gamer sind offenbar eine seltsame Art Mensch... Nie zufrieden, immer mehr wollend und sich an kleinen Pixelfehlern aufgeilen, die sicher 99% nie von allein sehen würden... Vielleicht mal öfter nach draußen vor die Tür gehen und die Realität genießen. Von dem, was ihr für diese Grafikmonster ausgeht, leben einige Menschen einen ganzen Monat.
"Wir" regen uns auf, weil es halt denn doch "erfundene" Frames sind. Das ist auch kein Weg, dass die KI-Engine rät, was so passieren könnte und mir das dann halt anzeigt. Die Frage ist doch, ob diese KI-Sachen das Geld wert sind. Müssten die Grafikkarten nicht eigentlich deutlich billiger werden, weil die Herstellung billiger wird und der Augenmerk tatsächlich auf die Qualität der Spiele-Engines und der Spiele selbst gelegt werden, statt auf Frame-Abschätz-Algorithmen? Soll die nächste Generation dann aus 10 fps 300 fps hochrechnen, weil wir "Qualität" in fps messen? Der Computer spielt dann mit sich selber und ich schau nur noch zu? Auf die Nais reagiert das Spiel dann nur noch sporadisch und ivh schaue praktisch einen Film. Es ist völlig richtig, dass die Optimierung an Grenzen stößt und zwar nicht nur aufgrund der Herstellungstechnik. Wir gehen langsam Richtung eine Atombreite - da machste nix mehr, egal wieste es baust. Die Frage ist ja auch, brauche ich 4K oder sogar 8K? Seien wir mal ehrlich, die Immersion hat jetzt seit Counter Strike 1.6 keine Riesensprünge mehr gemacht. Jedes 768 x 576 PAL-Fernsehbild mit 25 Hz interlaced sieht realistischer aus. Vielleicht sind wird auch in eine falsche Richtung gerannt. Aber die Frage ist ja. Soll ich aufrüsten? Und die Frage stellt sich nicht nur bei Grafikkarten. Fr8her habe ich ständig meine CPU gewechselt. K6, K6-2, K6III, Duron, Phenom-II... Und jetzt habe ich seit 10 Jahren einen i7-4771. Ja, jetzt hole ich mir mal einen neuen Rechner, weil Windows 11 nicht megr läuft und das Ding jetzt einfach alt ist. Aber das man damit nicht mehr arbeiten und auch einjges spielen könnte... ist nicht der Fall. Steckt ne GTX970 drin. Die spielt Manor Lords und Coutnrr Strike Global Offensive und CIV V (VI und VII habe ich nicht probiert). Natürlich spielt sie Counter Strike nicht kompetitiv gegen moderne Hardware und geübte Spieler, aber das Spiel läuff...
Kann ja sein, dass das Leistungsplus nun vermehrt über Software und darauf optimierte Transistorschaltungen kommt, als durch Innovationsspünge in den Fertigungsprozessen. Leider unterschlägst du, das dieses ganze AI Zeug viel schnellen GPU-Speicher braucht und da treten die Geforce-Karten schon seit Jahren auf der Stelle. Generell ist es beim Gaming wie im Märchen "Der Hase und der Igel", Entwickler und Hardwarehersteller werden immer darüber streiten wer, wie Games schneller und besser gemacht hat bzw. wer hier wen out smarted.
Wir müssen Neu denken??? Ok, ich denk mal neu: Nehmen wir einen PC (RTX5090,9800X3D usw ca. 600-800Watt Verbrauch.) Ich nehme nun eine Knopfzelle und ändere den Strom quasi Homeopathisch= Potenzierung ins Unermessliche (Spannung) im Gegenzug (Ampere)ausdünnung ins Unermessliche. Der PC bleibt obeflächlich Materiel aus, kein Mosfet wird einen Strom sperren oder öffnen, aber der in der Materie feinstoffliche Anteil wird trotzdem arbeiten, genauso wie wenn der Materielle Anteil mit 600-800Watt alles Antreiben würden,mit dem Unterschied: der PC läuft mit einer Knopfzelle theoretisch dann 1000jahre(ps.Die Knopfzelle hält nicht solange, sie wäre wegen selbst Entladung nach Jahren schon defekt). Wir müssten nur die Ausgabe wieder zurück Potensieren? In der Medizin (mit dem Körper) funktioniert es ja, unfassbar eigentlich. Und wer weiss wie weit das zu Übertakten wäre(Unermesslich)
Ich verstehe auch die ganze Aufregung über die neuen Nvidia Grafikkarten nicht. Wie schon im Video gesagt wurde DLSS ist die Zukunft. Und wenn man die neuste Version von DLSS, DLSS 4 benutzen will, dann muss man eben die neuen Grafikkarten kaufen. Diese Systeme zu entwickeln und zu trainieren ist mit einer menge Entwicklungsarbeit und entsprechenden Kosten verbunden. Das will Nvidia zurecht bezahlen lassen. Nur was den Vram angeht kann ich die Kritik verstehen. 16 GB sollten mittlerweile der Standard sein. Das die 5070 nur 12 GB bekommen hat finde ich dürftig.
Man sollte dabei aber nicht vergessen, das beim einschalten der KI Funktionen, Die V-Sync Option nicht mehr aktiv sind. Das ist MIR persönlich wichtiger als FPS.
Was willst du heutzutage auch noch mit V-Sync, wenn du eh deine FPS in jedem Game selbst begrenzen kannst, egal ob im Spiel selbst oder im Treiber für jedes einzelne Spiel? Du bekommst doch mittlerweile schon gute Monitor mit 144Hz und aufwärts ab teilweise 250€. Ich selbst nutze V-Sync bestimmt schon fast 10 Jahre nicht mehr...
Es ist die Zukunft, keine Frage, aber bisher spüre ich die zustzlichen von Ai generierten FPS nicht in der Maus und solange das nicht funktioniert, habe ich an FrameGen etc. kein Interesse.
@@Jobanov Naja, das ist die Zukunft, da die Physik bald einen Strich durch die Rechnung macht und Entwickler ihre Spiele nicht mehr gut optimieren (dürfen). Es steht für sie ja viel Leistung zur Verfügung. Solange aber Nvidia und CO mit Ihrer KI nicht erreichen, dass ich die FPS spüre, sind sie nahezu nutzlos.
Warum sich viele aufregen ist, weil die einzige echte Verbesserung in der Software und gar nicht in der Hardware liegt. DLSS 4 könnte auch auf RTX4000er Karten laufen, wenn Nvidia das wollen würde. Aber es wird als Kaufargument für eine neue Hardwaregeneration angeführt, die (abgesehen von der 5090) nahezu die gleichen Specs haben wie ihre Vorgänger inclusive dem geizig bemessenen VRAM.
wow also ich hab bei meiner 4080 im schnitt 55w aber ich mach mit ein fps capp rein was ich ja für jeden spiel einstellen kann warum sollten man auch mehr fps als hz vom monitor haben und ich hab nicht mal uv gemacht
Ich sehe es gar nicht ein, so viel zu bezahlen. Daher warte ich auf die großen Karten von Intel. Als ich XESS zum ersten mal sah, war ich begeistert. Es war auf dem selben Niveau, wie Nvidia. Mit besseren Kühlern wäre mehr drin gewesen bei RTX 5000. Du weißt schon bei Spielen die kein DLLS unterstützen ist eine RTX 5090 nicht sehr sinnvoll. Mr. Nerd over Tech, kaufst du dir eine RTX 5090 sofort? 😁
3dfx das waren noch Zeiten diesen wow Effekt hatte nie wieder... Was ich an den neuen Karten schade finde ist die doch für die heutige zeit geringe Speicher Ausstattung.
Bei dern CPU's müssen endlich die alten Lasten abgeworfen werden, x86 ist einfach nicht mehr Zeitgemäß. Klar das wäre für die Branche ungemütlich und das hält auch die CPU Hersteller zurück. Aber nur so könnte man wirklich riesen Sprünge machen. Wenn man überlegt das Apple mit der ARM Architektur mit einem drittel der Stromabnahme und daher fast ohne Kühlung mehr Leistung rausholt in Anwendungen als zb. aktuelle Gaming CPU's? Klar das würde bedeuten das ohne neu Kompilierung alter Spiele diese nicht mehr Funktionieren würden ohne Emulation, aber sollte das die ganze Branche zurückhalten?
Solange die Software der Hardware angepasst wird, ist das ja auch okay. Leider sind die aktuellen Spiele ja noch nicht mal auf die höheren Auflösungen optimiert, sage nur Final Fantasy XVI, dass da die Community mit Mods ran darf/ muss, ist nicht zu entschuldigen. Größe Sprünge habe ich nicht erwartet, dachte mir schon das DLSS eine neue Version bekommt, bin mal gespannt was an Strom aus der Steckdose gezogen wird. Da ich erst eine 4080 Super erstanden habe, hatte ich noch keine Lust mir die neuen Specs anzusehen. Warte auf eine Zusammenfassung in einem Magazin. Die RAM-Bestückung bei der 5090 soll ja höher ausfallen, wenn ich richtig gelesen habe. Denke, das könnte, die Enthusiasten locken, mich jedenfalls nicht.😉
Es ist Unsinn zu behaupten, dass man an ein Hardware-Limit stößt. Die Realität ist, dass die Hersteller oft den einfachsten Weg gehen. Wenn KI gerade boomt, nutzen sie das aus und werben damit. Ein Beispiel: Die PS5 ist keine echte 4K-Konsole. Sie ist im Grunde eine 2K-Konsole und schafft nicht einmal das zuverlässig. Trotzdem wird sie als 4K- oder sogar 8K-Konsole beworben. Das war bei der PS4 und PS3 genauso. Die PS4 konnte eigentlich nur 900p und wurde auf 1080p hochskaliert, wurde aber dennoch als vollwertige Full-HD-Konsole beworben. Die DLSS-Technologie oder ähnliche Ansätze haben also nichts mit echten Hardware-Grenzen zu tun, sondern sind schlicht Marketing. Niemand stößt tatsächlich an diese Grenzen. Aber wenn es keine Konkurrenz gibt, warum sollte ein Unternehmen die Messlatte weiter anheben? Aus unternehmerischer Sicht ergibt es wenig Sinn, großartig mehr zu investieren, wenn man ohnehin keine Anreize dazu hat.
100% deiner Meinung. Ich spiele fast immer FS2024. Ein extrem FPS forderndes Spiel. FS2024 hat angekündigt DLSS zu unterstützen, sobald die Karten verfügbar sind. Damit steht fest ich kaufe die Karte. Vielleicht erreiche ich damit ja 100FPS knackscharf und mit allen Optionen auf Ultra gestellt.
Jeeein... Wir werden schon weiterhin grosse spruenge machen - das was du beschreibst wird eher ein Problem RISC sein, denn in Zukunft wird es viel mehr auf custom circuits (befehlsaetze) gehen sowie co processoren die keine general cpus mehr sind. Beispiele sind zB AES, GPUs und co.. CPUs sind einfach in allem schlecht, weil sie immer sehr ineffizient sind, aber halt einfach zu programmieren - wo brauchen wir denn mehr leistung? es sind immer sehr spezielle bereiche.
Natürlich lässt sich die Leistung noch weiter steigern - das Stichwort heißt Paalellisierung, aber man will ja den Profit Maximieren. Einen anderen Grund gibt es nicht, oder ist vorgeschoben.
Wenn das so simple ist würde mans tun. Schau dir mal an wie problematisch parallelisierung auf der CPU ist und da haben wir 16 Kerne, geschweige von 21000 Kernen.
Find DLSS super, leider nutzen es AAA firmen aus. Finde wir sind bei Spielen am Ende der Grafik angekommen. Was ich hoffe ist richtiges gameplay. Kein boring 5v5 "tac" shooter. Kein neuen hero shooter, kein story game wo man von A nach B lauft. Jetzt ist gameplay gefordert
Probleme bleiben trotzdem weiterhin mit immer neuen Techniken. Wie oft hat NVIDIA Probleme mit ihren Treibern seitdem sie RTX auf den Markt haben. Mehr Probleme als zuvor. Software/Spiele Entwickler könnten noch so viel aus den Spielen raus holen wenn anständig programmiert und optimiert wäre. Oft kommen Spiele Updates erst zu spät wenn es Nachfolger der Spiele raus kommen wo man sieht das alte Hardware es schneller macht und so flüssig wie nie gedacht. Da gibt es reichlich Spiele die einfach immer weiter optimiert werden und Updates erhalten. Siehe Gta5 und battlefield teile und viele weitere!
Bin der Meinung das, Natives Gaming einfach schöner ist, ich habe generell DLSS aus. Das sind so Bildverschlimmbesserer wie man in AV Cinema Kreisen es nennt. Wenn die Grafikkarten die Leistung nicht bringen um damit auf 4K zu zocken mit 60FPS, naja dann sind sie einfach zu schwach auf der Brust und wir müssen uns damit abfinden. Eventuell stellt man sich mal die Frage ob X86 noch die richtige Architektur ist und man nicht in Richtung ARM geht, wenn es bei einem Betriebssystem möglich ist dann vielleicht auch bei einem Game? Immer mehr Leistung ist nicht immer der richtige weg.
Dann dürfen wir es aber nicht mehr Leistung nennen. Das ist faktisch der falsche Begriff. Habe weiter oben gelesen Effizienz - das ist vlt der neue Maßstab. Es ist halt optimiert. Mich regt an der ganzen Sache auf, dass man durch die Darstellung unterschwellig gesagt bekommt, alle alten Karten sind Müll.
Mehr Frames schön und gut aber was ist mit den Latenzen und input lags durch Frame Generation.. Wichtig ist dass sich das zocken super flüssig UND Direkt anfühlt..und nicht wie viel FPS da irgendwo auf nem counter angezeigt wird...
Die Mehrperformance von 20-30% zum gleichen Preis (außer bei der 5090) finde ich durchaus ok und wenn das DLSS4 die Schwierigkeiten mit Artefakten/Schlieren und Latenz älterer Versionen reduziert und als Bonus sogar noch deutlich mehr bringt, sehe ich auch das Problem nicht was einige Leute damit haben die meinen nur Native sei das wirklich wahre... Wenn es keine bösen Überraschung gibt wird es bei mir eine 5070TI - die muss bei dem hohen Preis dann zwar etwas länger halten, aber ich hätte mir beinah vor einem Jahr eine 4070TIS gekauft die ähnlich viel gekostet hätte aber von der Grundleistung her halt 20-30% langsamer gewesen wäre, was ein deutlich besseres FPS/€-Verhältnis bedeutet und mit DLSS4 sowieso...
Also ich muss ehrlich sagen, ich hab ne rx 6700xt und zocke eigentlich jedes game am TV mit UHD und FSR P. Es läuft super, eigentlich bekomm ich jedes game mit angepassten settings auf 60fps und es sieht mit dem richtigen display/TV einfach fantastisch aus. Klar geht noch bisschen mehr Schärfe oder sowas aber ganz ehrlich. Das ist mir zumindest bisher noch keine neue Karte wert
Es wird langsam Zeit sich auf effizient bei gleicher Leistung zu konzentrieren
Das kann man selbst herbeiführen = undervolting. Meine 4080S braucht out of the BOX 315 Watt im Peak, bei niedrigstmöglicher Spannung schafft sie nahezu den Stock Takt, verbraucht aber nur noch 230 Watt bei 95% Leistung. Ich nutze sie sogar noch underclocked mit 2200MHz, womit sie nur noch knapp 180Watt braucht, aber noch immer 80%+ an Leistung liefert. Möglich sind 3045MHz mit 400 Watt.
Man kann Vsync nutzen lass die GPU nicht unlimitiert laufen
@@shadowwhite9324Nutze RTSS. Bei vielen Games reichen mir 48fps, manchmal auch 72. Die 144 des Monitors nutze ich eigentlich nur in 2D. Ergebnis: Weniger Hitze, Krach und Verbrauch.
@GroundCap + Ki Verbesserung. Warum sollte man das nicht nutzen
@@shadowwhite9324 mit 120 Hz bist du auch im vsync am schwitzen
Ich sehe es schon kommen: Wir werden bald bessere KI Modelle kaufen müssen um mehr Leistung zu bekommen.
Am besten noch im Abo.
Das ist die Zukunft.
Das DLSS-Abo bei NVIDIA.
@@SebbS82 hey, nicht so laut! sonst bringt ihr die Hersteller noch auf dumme Gedanken
@@zuzkuk79 Auf die kommen die schon ganz alleine.
KI wird die Menschheit spalten in Premium Abo User und Freeloader, und das nicht nur beim Gaming.
@@Hexenkind1 So wird es kommen.
Ich habe überhaupt nichts gegen verbesserte Algorithmen, aber je mehr von Zusatzprogrammen dazugerechnet wird, umso größer sind nunmal zwangsläufig die Latenzen.
Das kann man durch Programm-Optimierung auch nur bedingt verbessern, vorallem auch, da die Berechnungen letztlich immer durch die Hardware limitiert werden.
Vollkommen korrekt
3DFX hat die CPU seinerzeits "egalisiert"
Respekt für dieses Video, endlich sagt es mal jemand.
Daumen hoch
7:20 OMG! Das ist SO SCHÖN mal bestätigt zu wissen... Ich hatte schon seit Monaten das Gefühl, dass UE5 einfach nur ein Dumpsterfire an Ballast ist, den die Devs einfach nicht optimieren wollen, aber ich hatte noch nie so eine Bestätigung gehört... Devs müssen endlich mal lernen ihre Spiele zu optimieren und nicht alles auf die GPU abwälzen, dann könnte man auch mit älteren GPUs wieder mehr rausholen
Wenn ich mir die Spiele in letzter Zeit so ansehe, dann wird bei den heutigen >nforderungen wie Alan Wake 2, Silent Hill 2 Remake, Indiana Jones oder Wukong ein ordentlicher Pixelbeschleuniger benötigt. Meine damit, ja, schon, aber zu hoffen, dass die 2080 deswegen nochmal mithalten könnte darf bezweifelt werden. Nebenbei gibt es auch andere Limitierungen wie den VRAM.
UVP heisst nicht dass diese mit dem Preis in den Handel kommen. Ich vermute eine nochmalige Preissteigerung von 200-300 Euro im Handel.
Ja ist leider fast immer so dass es richtung minimum 150-200€ geht
Besonders die beliebten Marken: ASUS, MSI, GIGABYTE
Den Rest kauft keiner. Zotac, Palit, PNY...Vielleicht Menschen die sparsam sind.
Aber es "existieren" quasi nur 3 Marken für die Mehrheit der Gamer.
Asus knallt eh OP obendrauf. MSi und Gigabyte sind da noch humaner unterwegs.
Man schaue sich zb. Mindfactory an.
Oder Caseking.
Die meisten GPUs, die verkauft werden (vermutlich weil Marke UND Design) sind halt ASUS,MSI, GIGABYTE.
Eben weil sie sehr schön sind. UND Power haben.
@@Sayako-sf2bn Zotac bis dato immer gute Custom Modelle erwischt
@@Sayako-sf2bn aber warum werden die Grafikkarten von Zotac, Palit, PNY weniger verkauft? Immerhin ist doch der Chipsatz der gleiche wie Asus, Msi und co... nun das habe ich auch nie so verstanden . Der Preisunterschied ist auch manchmal etwas größer bzw günstiger. Und die Leute greifen trotzdem zur teureren Variante???🤯
@@Sayako-sf2bn Die überzogenen Preise insbesondere bei ASUS Grafikkarten würde ich nie zahlen da mir der Mehrwert viel zu gering ist. Die letzen drei Karten von Gainward (2080, 4090) sowie PNY (3080Ti) laufen oder liefen alle problemlos. Übertakten ist bei der Grundleistung der Karten für mich ohnehin sinnfrei. Die 4090 läuft auf 75% Power Target.
5:49 ich kann dir (leider) sagen warum:
leider gottes ist es mittlerweile so, dass (aaa) spiele mit der intention entwickelt werden, dlss und co zu benutzen. so sparen sich die entwickler zeit, und vor allem geld bei der optimierung des spiels (die mit glück auch erst schleppend über jahre hinweg voran kommt, siehe cyberpunk). es gibt einfach nur noch selten bis gar keine neuen spiele, die optimiert und fertig auf den markt kommen. dlss war anfangs als eine nice addition für u.a. raytracing gedacht, damit man das spiel auch da flüssig/nutzbar spielen konnte. problem ist nur, entwickler "nutzen" diese technik aus, damit sie die spiele wie oben genannt, nicht (von anfang an) optimieren müssen. ich hoffe ich konnte das halbwegs gut darlegen.
Ja schuld sind immer nur die Entwickler. Werde mal selbst einer!
Woher kommt diese Annahme? Warum sollte es dazu führen weniger zu optimieren?
@@jiloon-ci9jl weil es günstiger und einfacher ist, ein feature zu implementieren, welches entweder niedrige auflösung hochskaliert oder künstliche bilder interpoliert, oder gar beides, als code aufwendig zu optimieren. siehe bspw. die UE5. die meisten, wenn nicht gar alle spiele, die auf dieser engine basieren, haben performance probleme. selbst epics eigenes spiel fortnite. einfach weil die engine so schlecht optimiert worden zu sein scheint. und das ist kein geheimnis, denn sehr viele menschen bemängeln das. außerdem gibts diese richtigen performance probleme erst, seitdem sich dlss richtig implementieren konnte, da alle gesehen haben, wie mächtig diese technologie eigentlich sein kann.
@@jiloon-ci9jl Geld wird gespart
@@ipadize Und das wäre bei mehr Rechenleistung anders?
6:24 is da das Rainerle vorbei gelaufen? 🤣
wer ist Rainer?
@ Drachenlord, wer ihn kennt weiß wer gemeint is..😅🤷♂️
Ja der wongelt schon ganz schön!
Was ich nicht verstehe ist, da wird sich aufgeregt, dass nicht mehr rohe Leistung durch übliche Bauteile auf der GPU erzeugt werden. Jetzt werden halt anstelle von CUDA- und Shader-Kernen die AI TOPS massiv erhöht. Meine RTX 3080 hat 238 und eine RTX 5080 hätte 1801. Das ist eine 750 Prozent Steigerung und daher kommt halt auch die Upsampling- und FrameGen-Power. Ist doch egal ob die Power aus den Bauteilen A oder B kommen, richtig? Fakt ist, ohne diese Verstärkung der KI-Komponenten wären wir von der Grafik immer noch in der PS4 Generation.
5070 ist mit 12 Gb bestückt. Nennt mich verrückt aber ich komme mit 16 Gb teilweise nicht aus. Was nützt DLLS 4 wenn der Speicher voll ist. Genau nichts mehr.
naja dann sage ich mal die dein problem ich bekomme meine 16 gb nicht voll auch mit mods nicht und mit dlss geht der verbrauch runter solltest du aber wissen wen du schon deine gb voll bekommst dann schaut man ja warum bis jetzt bibt es nur 2 games die mit 6gb nicht mehr laufen alles andere geht ober einfach mal 8k hd mods weg lassen oder halt eine 5090 wünschen ^^
@@ice98mja1 Naja, habe bei meiner 4090 u.U. 19 GB in 4K befüllt mit Raytracing + DLSS. Indiana Jones ist ja das letzte Paradebeispiel
Wie?
Meine Rtx 2060 hat 6 GB, man merkt zwar, dass es manchmal eng wird aber bisher bin ich vollkommen mit ausgekommen. 🤷♂️
@ Ok das ist doch gut. Ich hab das Problem das ich mit 16 schon nicht bei Jeden Game hinkommen und der Speicher Voll läuft
@@SebbS82 Jup kenne ich 😂
Sehe ich genauso, dass da oft viel Potential liegen gelassen wird. Gerade bei den aktuellen Titeln merkt man, dass oft rohe Power vor Optimierung geht. Schade eigentlich, denn mit ein bisschen mehr Feintuning könnten viel mehr Leute in den Genuss der neuesten Games kommen, auch ohne High-End-Rig.
Was mir da so auffällt (und das deckt sich ja auch mit dem, was hier im Video angesprochen wurde): Nanite und Lumen in der UE5 sind zwar absolute Gamechanger, was Detailgrad und Beleuchtung angeht, aber die fressen halt auch Ressourcen ohne Ende. Da muss man als Dev echt aufpassen, wie man die einsetzt. Adaptive Tessellation basierend auf der Distanz und der GPU-Performance wäre da ein super Ansatz. Oder auch dynamische Anpassung der Lumen-Qualität. Sowas in der Art wie eine "Lumen-DLSS"-Funktion, quasi. Dann könnten auch schwächere GPUs noch ein anständiges Bild bekommen, ohne komplett einzubrechen.
Und apropos DLSS: DLSS 3.0 und bald auch 4.0 sind natürlich krasse Technologien, die uns da echt weiterbringen. Aber auch da gilt: Es ist kein Allheilmittel. Man muss trotzdem noch sauber optimieren. Shader-Optimierung ist da ein riesen Thema. Da kann man so viel rausholen, wenn man da wirklich tief reingeht und unnötige Berechnungen vermeidet. Klar, komplexe Shader sehen geil aus, aber vielleicht muss man da für Low-End-Systeme einfachere Alternativen anbieten. Oder eben mit Techniken wie Ray Reconstruction arbeiten, um die Performance zu boosten.
Auch das Thema Culling und Occlusion Culling wird oft unterschätzt. Wenn man da wirklich präzise arbeitet, kann man so viele unnötige Render-Aufrufe vermeiden. Und was die Assets angeht: Texturkompression, LODs, effiziente Mesh-Optimierung - das sind Basics, die aber immer noch oft vernachlässigt werden. Gerade bei Open-World-Spielen, wo man riesige Welten rendern muss, ist das Gold wert.
Was die Grafik-APIs angeht (DX12, Vulkan): Async Compute ist da ein absolutes Muss. Wenn man das richtig einsetzt, kann man die GPU viel besser auslasten. Und den API-Overhead minimieren, ist natürlich auch wichtig. Batching von Draw-Calls ist da so ein Stichwort. Das sind zwar eher low-level Sachen, aber die machen am Ende echt einen Unterschied.
Und last but not least: Die Treiber. Da müssen die Hersteller natürlich auch mitziehen und spielspezifische Optimierungen liefern. Aber auch allgemeine Performance-Verbesserungen sind wichtig. Da ist die Zusammenarbeit zwischen Spieleentwicklern und Treiberherstellern entscheidend.
Ich finde es gut, dass hier im Video auch das Spieldesign angesprochen wurde. Reduzierung der Draw-Calls, sorgfältige Planung der Spielwelt - das sind alles Faktoren, die man von Anfang an berücksichtigen sollte. Wenn man da schon in der Planungsphase dran denkt, spart man sich später viel Ärger.
Ich bin echt gespannt, was die Zukunft da noch so bringt. Mit den neuen Technologien und den ganzen Optimierungsansätzen gibt es da noch so viel Potential. Hoffentlich setzen die Entwickler in Zukunft noch mehr auf Optimierung, damit wir alle, egal mit welcher Hardware, geile Games zocken können.
Die Karten sind "günstiger geworden".
Nur weil die 40er Serie jenseits von überteuert war.
Das heißt trotzdem nicht, das P/L OK ist.
Die 5070 TI kostet immer noch mehr als die absolute TOP 1080TI beim Launch.
Hatte diese Meinung über DLSS, VRAM etc schon vor der Veröffentlichung vertreten und einen Shitstorm erhalten.....
Denkt an eurem Vergangenheit-Ich vor 10 Jahren und sagt dem mal, dass wir überhaupt 4K und 240FPS schaffen heute. Und dass mit "KI" die 3 Bilder zwischen den Frames generiert, indem sie Bilder interpretiert, schärft usw. Das hätte doch niemand geglaubt.
Also alle die mimimi machen, die hätten auch am Pferd festgehalten, weil man mit einem Auto damals ja nur Schrittgeschwindigkeit fahren konnte. DLSS4 ist schon ein großer Sprung, generell ist DLSS ein großer Sprung gewesen, was ist in den nächsten 5 Jahren?
Aber ja ich finde es schade, dass Nvidia so Geldgeil ist und für Softwarelösungen neue Hardware verkaufen will.
Ich hätte gerne 120hz und bei jedem hz ein Frame=120fps
die Grafikkarte soll 30frames rendern und 3 frames werden bei jedem Frame dazwischen geschoben(Grafikkarte würde ca 150watt verbrauchen)
aber so ist es leider nicht.
Sondern so:
Die Graka rendert was soviel sie kann zb 85fps, dann macht daraus dlss4=255fps
davon werden dann 120fps im hz takt des Bildschimes angezeigt?
400watt verbrauch?
das Problem ist dass ich das jetzt immer noch nicht glaube^^ ich mit ner 4090 sehe ja wie gut das mit 1 Bild funktioniert.. 3 Bilder kann doch nicht funktionieren? und das bei gleich Kernen??
@@ericschulze1337 Das wird mit zwischen Bildern erreicht.Das führt aber zu einer höheren Latenz.
Weil keine Echtzeit Ausgabe statt finden kann:
Die Grafikkarte rendert zurest ein Frame und dann das zweite,
das wird dann noch nicht ausgegeben,
Sondern frame 1 wird mit 2 verglichen,
die zwischenbilder dazwischen gerechnet,
was viel schneller als rendern ist.
Danach wird es erst Zeitversetzt(Latenter)ausgegeben.
Das neue ist jetzt aber,
das sie nach Frame 1 nicht mehr mit Frame 2 vergleichen, sondern die Ai durch das Vorangegange raten lassen,es wird daher das zweite gerendert wärend die Ai gleichzeitig ratend die zwischen bilder ausgibt.
Da passen anscheinend 7 frames rein,bis das nächste Frame gerendert ist.
Ja, das vergisst man immer wieder schnell, da die Schritte nur nacheinander kommen.
Geht mir mit meiner 1080 auch so, ich dachte die ganze Zeit, dass ich damit noch oben mit dabei bin, bis ich vor kurzer Zeit dann doch realisiert habe, wie alt die schon wieder ist und was sich alles getan hat
Wir müssen die Realität genauer sehen: Die 5090 performt 20% in native Leistung besser als die 4090. Was bedeutet das wir für nur 20% bessere Performance 2000€ zahlen, alles andere ist nur wegen AI möglich
Und die Entwicklung bzw. Weiterentwicklung von ki/dlss/FG kostet deiner Meinung nach nichts? Deine Rechnung passt selbst ohne das hinten und vorne nicht. Wir zahlen letzten Endes bezogen auf die UVPs 4090 zur 5090 noch keine 400 Euro mehr. Und das für 20% native Leistung mehr, für mindestens 50% bessere Ki und 8gb gddr7 vram mehr sowie pcie 5.0. Da finde ich keine 400 Euro Aufpreis absolut in Ordnung
@@sts_gaming Ich würde mal sagen, 27% ist die rechnerische Geschwindigkeitszunahme. Dazu kommen sämtliche ai Funktionen. Man bemerkt allein in der Vorstellung schon, das sich die 5090 eher an die Creator, als an Spieler richtet. Warum sind nun alle so negativ dazu? weil sie meinen ihre ich stelle etwas dar 4090, muss so schnell bleiben wie die 5 Line. Bliebt sie aber nicht. Also wird alles niedergemacht. Gleichermaßen urteilen sie über Funktionen, die sie gar nicht kennen.Nehmen wir nun 27 % mehr Performance im Preis, kämen wir bei einer RTX 4090 auf 2700 euro. Da liegt aber die 5090 weit drunter. Hinzu kommt das die Power mehr wurde, mit 600 Watt. Was auch bedeutet, wenn es wie viel ? 70% wären ? wie viel Watt denn dann? 1000 ? Und wie bitte soll es denn weitergehen ? mit jeder Generation mehr Watt pro FPS ? Das wird nicht funktionieren. Irgendwann muss ein Umdenken her. Der Verbrauch muss runter, und die Technik höher. Aber das wollen sie weder wahr haben, noch verstehen sie es. Das herumgemoser um die 5070 ist genau so schlimm. Wenn die technische plattform passt, bringt DLSS4 da einen riesigen Zuwachs. Der Rest ist Erbsenzählen. Und für alte Spiele, reichten alte Grafikkarten, es geht um die nächsten kommenden, nicht um den alten Kram, der geht schon auf alten Karten entsprechend.
@@gl1tch133 20% mehr Leistung für 27% mehr Strom
@@sts_gaming die Preise sind einfach lächerlich, solch Preise für eine Grafikkarte ist absolut krank.
@opafritzsche Absolut. Ich verstehe das rungemoser zur 5090 auch nicht. Die 4090 hat doch genauso Ki genutzt um die volle Leistung zu haben. Die 4090 ist und bleibt eine tolle Karte und Tests werden den Vergleich zur 5070 schon noch zeigen. Ich vermute da eher die Rohleistung der 4090. Aber man sollte da doch auch mal das positive in der Entwicklung sehen. Ich kauf mir doch auch jetzt ne 5090 und bin in 2 Jahren nicht beleidigt weil die 6090 doppelt so schnell ist oder die 6070 an die Leistung dran kommt. Die 5070 wird mit ihren 12gb ja trotzdem schnell an Grenzen stoßen wogegen die 4090 da nur müde lächelt. Hat alles sein pro und Kontra aber im großen und ganzen hat nvidia erstmal auf dem Papier mit der Leistung und dem Preis abgeliefert. Keine der 4 genannten Karten hat für mich einen Haken. Die werden genau das können was man auch bezahlt. So sehe ich das
Im großen und Ganzen stimmt das alles leider hat NVIDIA die kleinen Karten sehr unnötig mal wieder durch VRAM gedrosselt. Was leider einem an für sich gutem Produkt ein bisschen dazu verhilft schon fast am Limit zu sein bevor es los geht 5070 hätte mit 16GB echt die nächste 1080ti für die Mittelklasse werden können denn der RAM wird ja leider auch für die ai Funktionen genutzt zumindest zum Teil wodurch die 12 gb ja eigentlich auch keine 12 sind sonst denke ich gehen die den richtigen Weg. Ich denke das ram Thema hat auch viel mit Produkt Schutz der eigenen Server und pro Hardware zu tun. Das es mit der nicht vorhandenen Spiele Optimierung nicht weiter gehen kann ist auch vollkommen klar. Manchmal habe ich das Gefühl das ältere Spiele besser liefen und nicht viel schlechter in der Grafik waren oder ohne die modernen raytracing Dinge sogar besser aussahen als aktuelle Spiele ohne da scheinbar keiner mehr Bock hat echte Software zu machen
Ich muss höchstens mal auf Toilette.
P.S. Bleibe immer noch bei meiner 2080 Super und 2080 Ti, seh kein Grund zu wechseln.
Die meisten Spiele brauchen auch nicht viel Leistung, oder sie sind woke, oder totaler Abfall. Ich sehe das genauso.
@jonnygudman1815 Wenn ich zocken will, nehme ich meistens eh die PS5 Pro zur Hand, macht mehr Spaß auf mein 65" oled, 120hz, 4k Bildschirm.
du armer
120hz oled und 45fps ps5 pro sie sind clever 🤌
@@Jobanov GT7 120Hz und 120FPS, 4k, reicht mir vollkommen und ein besseres VR Erlebnis, als ich es mit einer ähnlichen VR Brille in der Preisklasse haben könnte, als am PC. 🤙
Das Physikalische Grenzen gelaber, es gibt noch einige Stellschrauben an denen man drehen könnte, der Größe des DIE z.B. Aber das würde bei gleichem Preis weniger Gewinn für Nvidia bedeuten. Zudem steht NVIDIA in ihrem Business, außerhalb der Konkurrenz warum 5 MEter weit springen wenn 2 Meter reichen... Der Grund der Preise und der geringen Mehrleistung liegt einfach an den wirtschaftlichen Gründen der Gewinnmaximierung.
Mich wundert etwas die Verwunderung über die Empörung. 27% mehr Rohleistung für 2340 Euro sind nicht angemessen. Und zu den Frame-Generations-Diskussionen: Du siehst mehr Frames aber du spürst die 30 FPS. Das heißt der ursprüngliche Vorteil von FPS geht komplett verloren. Ich empfehle dazu das Video von Digital Foundry. Die zeigen den Delay recht gut.
Berechnet man das mit ein, finde ich die Aufregung gerechtfertigt.
Gerade weil so absurd viel Geld dafür genommen wird.
Das verstehen viele Nvidia Anhänger aber leider nicht...
wow deine rechnung ist mal so was von falsch 27% also mehr rohleistung kosten nicht 2340 euro wen man jetzt die 4090 nimmt die gerade so bei 3000 euro liegt dann würde es richtig heißen 27% mehr leistung bei minus 660 euro laut aktuellen preis!!! man kann nicht sagen 27% mehr und dan die uvp nenen lol wen müsste man den preis der verglichen gpu abrechnen dann ist es richtig aber das wollen viele nicht verstehen glaub ich oder sind einfach nur amd trolle firmen junger sind sowiso sehr eingeschränte menschen gleiche wie bei samsung appel oder asus gegen alle anderen lol auch ganz vergessen intel oder nokia ^^
Ich kenne auch noch die Zeiten der Voodoo Karten hatte selbst 2 Stück trotzdem beindrucken mich die Neuen Karten gar nicht die Ki muss jetzt alles machen statt bessere Gpus zu bauen.
Ganz im Ernst: Diese Geschichte von der 5070 mit 4090-Performance ist ein Marketing-Hoax und das weißt du selbst.
Wenn ich 30 fps mit DLSS auf 50 fps und dann mit MFG auf 200 fps jage, habe ich trotzdem nur 50 fps, die auf meine Eingabe reagieren. Alles dazwischen ist allenfalls nice to have und kein adäquater Vergleich. Zumal DLSS 4 (ohne MFG) zu allen RTX-Generationen kompatibel sein wird.
Genau den Vergleich stellt Nvidia hier aber mit ziemlicher Sicherheit an: 5070 mit 3 Fake-Frames = 4090 mit 1 Fake-Frame. Das deutet in der Realität eher auf ziemlich genau die halbe Performance der 4090 hin.
Nvidia hat die Strukturbreite nicht geändert, was wiederum den mutmaßlich kleinen Leistungssprung erklärt - wohl v.a. auch unterhalb der 5090. Dass die MSRP der 5080 im Vergleich zum Vorgänger gesunken ist, wird sicherlich dem erwartbar geringen Leistungszuwachs geschuldet sein und sonst nichts.
Das Argument mit den physikalischen Grenzen und, dass Moore's Law nicht mehr funktioniere, gibt es nicht erst seit ein paar Jahren - ist auch nicht falsch -, aber trotzdem sind immer wieder große Sprünge möglich, auch hinsichtlich der Rohleistung (3090 Ti → 4090).
Ich schaue deine Videos echt gerne und will auch gar nicht haten, aber dafür, dass du am Anfang betonst, dass das kein Fanboy-Gehabe sein soll, klingt der Take wie eine einzige Verteidigungs- und Rechtfertigungserklärung für Nvidia.
Ich war vorab ziemlich gehypt von der 5090, schaue den kommenden Tests mittlerweile aber mit großer Ernüchterung entgegen. Wenn das Teil am Ende tatsächlich nur rund 25 % mehr Leistung als der Vorgänger bringen sollte, wäre der Preis von >2300 Euro wirklich maßlos überzogen.
Das einzig Gute daran: Viele Enthusiasten werden sich dreimal überlegen, ob sie upgraden und Nvidia hoffentlich ein Stop-Schild vorzeigen. Eine Karte mit brachialem Leistungszuwachs zu sehr hohen Preisen anzubieten ist das eine, astronomische Preise für ein recht moderates Performance-Plus zu verlangen das andere.
Die 5070 hat die Leistung einer 4090?? Ich kenne dich als jemand der differenziert und genau recherchiert, aber hier einfach das Marketing Blabla von Ngreedia zu übernehmen finde ich alles andere als cool…
Er hat ja auch gesagt im zusammenhang mit DLSS4 und allem was es beinhaltet mit Multi Frame Generation.
@@Exploid hör besser zu
es kommt nicht auf die specs drauf an sondern was man raus holen kann. ist leider nunmal so versteht das doch endlich
@@LeonVossi Habe ich, danke. Komisch, höre Immer noch das Marketing blabla.
@@Exploid die größte Innovation in der GPU History als Marketing Blabla zu bezeichnen ist schon maximal hängen geblieben 😄
Hätte NVIDIA auf etwas Marge verzichtet und die TSMC 3nm statt 4 nm Fertigung für die RTX 50er Karten genutzt, dann hätte man bei gleicher Leistungsaufnahme ca. 30%-40% Mehrleistung (nur bei Rasterize & beim DLSS wäre dann noch mehr möglich) bekommen können. Ich kann das Gerede von physikalischen Grenzen von den ganzen Influencern nicht mehr hören. Zurzeit sind wir halt noch nicht an den physikalischen Grenzen. In diesem Jahr wird Apple voraussichtlich sogar schon die TSMC 2 nm Fertigung nutzen. NVIDIA hinkt also mit seinen RTX 50er Karten 2 Generationen in der Fertigung hinterher. Lasst euch also nicht für dumm verkaufen !!! NVIDIA geht es nur um die Marge (Gewinn) !
@alle Influencer
Hört endlich auf die Marketing-Ausreden bzgl. physikalische Grenzen von NVIDIA einfach unkritisch zu übernehmen !
1.
Sind wir noch bei keinen physikalischen Grenzen (nur zur Info: Selbst nach der TSMCs 1nm Fertigung werden wir nicht bei den physikalischen Grenzen angekommen sein)
2.
Selbst wenn wir irgendwann an die physikalischen Grenzen kommen werden, gibt es bereits heute neue Ansätze (z.B. 3D Chips bzw. gestapelte Chips, ...) um die Transistordichte weiter zu steigern
Daher informiert euch bitte bevor ihr solche Aussagen tätigt oder werdet ihr von NVIDIA zu solchen Aussagen gedrängt, um die neuesten Grafikkarten von NVIDIA kostenlos gestellt zu bekommen ?
Der Punkt meiner Meinung nach ist hier, dass Nvidia mittlerweile absurde Preise abruft und daher ist das Bashing mehr als gerechtfertigt...
so ein quatsch, den amds antwort lautet multi chiplet, meine damen und herren, lasst euch überraschen was da noch gehen wird mit silizium !!!
Okay, also auf deutsch übersetzt heißt das jetzt im Klartext: Wenn ich im Ernst weit über 2 Scheine für ne 5090 aufn Thresen kloppe, bezahle ich nichtmal annähernd die Hardware, und den Sprung, den sie gemacht hat, sondern eigentlich die Server für AI / DLSS, an sich zahle ich den Preis für die Software und weniger für die Hardware - denn, die ist es NICHT WERT! Das entnehme ich aus dem Video! Wenn also sowieso die Zukunft bei KI und Software liegt...tja, dann ist das wohl so!
200fps sind nicht gleich 200fps, heutzutage. 4N ist wohl ausgereizt.
Nichts ist ausgereizt. Es wird nur schlicht vie weniger aus der Hardware rausgeholt, weil nichts mehr optimiert wird.
@@Raja995mh33 wer lesen kann... Ich sagte "4N" ist ausgereizt. Nicht die kommenden Nodes.
es kann sehr wohl das gleiche sein wenn sie es mit dlss 4 schon soweit hinbekommen das man optisch zu nativen auflösungen bis 4k und 8 facher beschleunigung sprich 8 x mehr fps wie mit der 5090 gezeigt einfach keinen unterschied mehr sieht optisch zu nativ was macht es dann für einen unterschied ob die optische qualität nativ erstellt wird oder von der ai so kann man endlich mal die 240 hz OLED bildschirme mit auflösungen ab 3440 x 1440 aufwärts anständig zum zocken nutzen
Meine große Liebe Geforce 2 Ultra werde ich nie vergessen...😊🎉🎉🎉
Dioe leute sollen einfach aufhören immer "fake frames" zu sagen es ist nunmal jetzt die zeit für KI und wenn die möglichkeit bessteht es zu nutzen solle man es man sollte darauf einstellen das man so zukünfig neue karten kaufen wird.
Spannend, wie Nvidia mit DLSS 4.0 den Fokus von reiner Hardware-Power auf KI-gestützte Performance verlagert. Klar, physikalische Grenzen setzen der Chip-Entwicklung Limits, aber ich finde, die Kombination aus smarter Software und Hardware ist der richtige Weg in die Zukunft. Trotzdem bleibt die Frage: Warum sparen so viele Entwickler an der Optimierung? Mit besserem Code könnten wir auch aus älteren GPUs noch einiges rausholen.
Das Mooresches Gesetz kollidiert mit der Abbeschen Auflösungsgrenze beim EUV-Verfahren. Werden die UV-Strahlung durch Röntgenstrahlung ersetzt, könnten Transistoren noch kleiner gefertigt werden. Aktuell aber noch am Forschungsanfang, weil sich die Röntgenstrahlen nochmal anders verhalten und erzeugen lassen.
nvidias dlss und amd's x3d cpu's sind die erzwungene Antwort auf das extrem stark und permanent schnell sinkende interesse vernünftig fertige spiele auf den markt zu bringen egal ob PC Spiel oder konsole oder alle Plattformen zusammen das müssen die leute und gamer einfach mal begreifen anstatt sich wie hooligans aufzuführen
Bei den Strompreisen kann sich fast niemand mehr eine GPU erlauben.
Es gibt vielen wichtigen Punkten für die GPU-Cards-Entwicklung, macht aber keiner Hersteller heutzutage. Beispiele: Neue GPUs sollen enorme Rechenleistung haben. Trotzdem sollen sie kleiner, effektiver sein. Weniger Wärmer Abgabe, kleines Gehäuse haben, gesamte Stromaufnahme weniger sein..etc.... Es wird sicher nicht einfach zu sein und länger dauern. Aber es lohnt sich nach ca. 4 Jahren ein neues Produkt vorstellen, das mindestens 50% besser, schneller, kleiner etc.... Stattdessen machen alle Hersteller pro Jahr ein neues Produkt. Nur wegen magerer Verbesserung und inklusiv Fehler. Es ist Rohmaterial-Verschwendung.
Das mehr über KI geht ist ja ok aber dann müssen die Preise auch niedriger sein! Die Karten sind immer noch zu teuer und wie gut dann alles mit DLSS 4 aussehen wird, müssen wir noch sehen. Ich bin auch mal gespannt, wie sich die Latenz dann mit der neuen Frame Gen ändert
warum sollten die preise dadurch günstiger werden? es ist doch ein mehraufwand da die KI technologien DAZU kommen zur klassischen gpu entwicklung. es wäre vielleicht so, wenn man die rastergrafik elemente komplett rausnehmen und nur noch auf raytracing und KI setzen würde aber dann wären 99% aller games nicht mehr kompatibel...
Ich versteh das Problem nicht?
Ob die Leistung jetzt durch reine Power zustande kommt oder durch KI ist doch egal, wenn das Ergebnis passt.
Das verstehen viele nunmal nicht und würden lieber in der Zeit stehenbleiben.
@@nesnimu Latenz…..
Unreal enginge und aktuelle spiele sind einfach nur noch shit!
CP spiele ich 4k problemlos, andere laufen 1080p mit upscaling und runtergestellen Details sch.....
Fehlt nur noch das Nvidia Sponsoring
Es geht doch nicht darum, das die Hardware in der Rohleistung keine großen Spünge mehr macht. Das hatte NV schon zu Beginn der 4000 Serie gesagt. Es geht darum, das die Karten wieder Sack teuer sind, mehr Strom verbrauchen und nur mit DLSS schnell laufen und das die alten 4000 Karten z.b. kein DLSS 4.0 Support erhalten. Das ist das selbe wie mit den GSync Modulen.... Außerdem wird nie jedes Spiel ovn DLSS profitieren, es gibt zahlreiche kleine Spiele Entwickler, die keine Zeit und auch kein Geld für sowas wie Raytracing DLSS und was es nicht noch alles gibt haben. Die müssen mit ihren Geld ganz anders Haushalten. Keins der Spiele, was ich spiele, besitzt DLSS Support!
Danke, jemand der mir von der Seele spricht. Es ist genau das was ich mir auch denke und was wahrscheinlich auch viele dran stört das man "nur" für neuen KI Support eine teure Karten kaufen muss, obwohl die Leistungsdaten fast gleich sind.
@zerosnow5110 So sieht es aus, teures Software ABO System.
es werden auch kleine indi entwickler immer mehr auf dlss/fsr setzen! genau wie rt! und das gsync hat sich dieses jahr hoffentlich auch erledigt mit pulsar.
@@ice98mja1 Wann den? DLSS kam 2018. 🤣 Und so lange, spiele ich gefühlt bereits Spiele ohne DLSS und RT, weil die das nicht supporten. Und wenn ich ein Spiel einmal durch gespielt habe, installiere ich es nicht 3 Monate später nochmal, nur weil DLSS dazu gekommen ist. Das ist auch nochmal ein Punkt. 😂
@@ice98mja1 vor allem habe ich mit mal von Nvidia die Liste der Unterstützen Spiele angeschaut und die meisten haben nur DLSS 2.0, es sind auch einige mit 3.0/3.5 aber nicht die Mehrheit das es sich lohnt dafür in eine neue Karte zu investieren.
4:00 Diese Aussage ist schlichtweg falsch die du da sagst. Die 5070 leistet auf gar keine Fall so viel wie die 4090. Die Rohleistung ist bedeutend schlechter.
stimmt aber es wird immer mehr spiele geben die auf dlss oder fsr setzen von daher ist die rohleistung nicht mehr das mass der dinge!
bin ein absoluter Laie was Spiele Programmierung angeht, aber wenn die Optimierung den Entwicklern soviel Zeit und Geld kostet - warum kann bei einem fertigen Spiel - vor Release - nicht noch schnell die KI drüber huschen und in 3,5 Minuten das Spiel optimieren ? Gerade die KI müsste doch in diesem Umfeld zu einer riesen Revolution führen, oder nicht ? wenn ich Deinen Beitrag richtig verstanden habe muss der Endkunde mit teuren Grafikkarten den "Geiz und Faulheit" der Spieleentwickler bezahlen, korrekt ?
Als ob du alt genug wärst für eine Voodoo 1 🤣
Was soll das? Es ist wohl offensichtlich, dass die 5070 nicht so viel leistet, wie die 4090. NVIDIA nachplappern ohne Verstand? Schwach.
Spiele die kein DLSS unterstützen, profitieren gar nicht von diesen Software Performance Verbesserungen.
welche Spiele gibt es, die kein DLSS haben, bei denen es relevant wäre?
Dss wurde im Video gesagt btw.
Der Titel sagt es sehr schön, man muss beginnen umzudenken.
Ich glaube, der einzige Kritikpunkt momentan ist, dass eine 5080 mit "nur" 16GB kommt. Da hätte ich mehr erwartet. Aber noch kann eh keiner sagen, wie gut und schnell die neue Architektur und Speicher sind. Außerdem braucht Nvidia ja noch ein Verkaufsargument für die Ti Variante.
kriegst du irgendwie geld von nvidia für jedes " ich sag euch so wie es ist"? nur weil du das 50 mal im video sagst hast du noch lange nicht recht
Für diejenigen die sich für die genannte physikalische Grenze interessieren, hier mal grob und laienhaft angerissen. Wenn wir uns eine Leiterbahn wie eine Straße vorstellen sind auf beiden Seiten Barrieren durch die die Elektronen nicht passieren können. Nun ist die Position des Elektrons aber nicht fest bzw. punktförmig sondern eher als Wolke (der Wahrscheinlichkeiten) zu betrachten (siehe heisenbergsche Unschärferelation). Wird die Strukturbreite nun weiter gesenkt kann es passieren dass diese "Wolke" über den Rand der Leiterbahn reicht und sich das Elektron, mit einer gewissen Wahrscheinlichkeit, außerhalb befindet. Das wäre kurz gesagt schlecht. Wir reden hier natürlich vom Tunneleffekt. Man nutzt dies tatsächlich in Speicherchips aus um die Zellen mit Elektronen zu füllen aber das ist eine andere Geschichte :)
Was eher aufregt, ist dass die so am VRAM geizen
Ja, geht mir genau so, da ich vor allem größere LLMs lokal laufen lassen will und da ist vor allem der VRAM ausschlaggebend. Ob die Karte jetzt ein paar Shader mehr oder weniger hat, ist mir hingegen egal.
@@silentwater79das ist leider der grund warum sie mit dem vram geizen. Sehr viele hobbyists werden sich eine 5090 nicht wegen der performance sondern den 32GB vram kaufen
@@iamshiron 32gb braucht man bis dato nicht und bis man die braucht gibt es schon neue gpus das hat nichts mehr mit hobbyisten zu tun wer nicht auf geld schauen muss sagt auch nicht die sind viel zu teuer! alle die rum meckern wollen halt nur das beste was es gibt aber geschenkt die 5090 wird auch nicht die meistverkaufteste werden.
@@ice98mja1 Die 32GB Vram braucht man nicht fürs zocken, aber für das arbeiten mit größere KI Modelle
@@catdad44 also da würde ich aber keine gaming gpu/karte nehmen da gibt es andere optionen für
Also bei so einer komischen Preisspanne und bei der ''Leistung'' vorgetäuscht wird durch DLSS ist halt frech. Ich freue mich schon auf die Zukunft, wo keine Sau sich mehr Mühe geben muss ihre Programme zu optimieren oder die nötige Hardware zu bieten, die man für das Geld und gute Ergebnisse verlangen kann...
Wir gehen langsam aber sicher zur Grenze des Siliciums.
Ob Germanium-Zinn oder Graphen oder Champignons, wir brauchen eine durchsetzbare Alternative innerhalb nächsten 15 Jahren.
Also ich freue mich auf die 5000er und auch auf DLSS 4. Was ich sonst für ne Möglichkeit sehe für Performancesteigerungen, wären Multi-GPUs... Also z.B. 2x5090er auf ner Platine. Aber wie man das Kühlen will. Keine Ahnung.
Einfach bei FullHD bleiben dann braucht man nicht überteuerten Karten.
falsch es gibt so ganz schlaue zocker die bei fhd immer max fps haben wollen und denken die sind dan besser als andere lol
@ice98mja1 Wieso für FullHD braucht man keine Rtx5090 oder 5080. Da reicht auch eine 4070 oder Rx7800xt
@@matthiasheide5226 richtig aber man hört ja immer viele sagen die gpu soll ja zukunftsicher sein^^
Das Problem sind nicht die physikalischen Grenzen sondern einfach die Menschen. Ich komme auch aus der 3dfx Zeit und freue mich über jedes plus an Leistung. Viele verstehen nichts über die Architektur von GPUs oder CPUs. Ich finde es einfach nur faszinierend und da ich als IT Techniker unterwegs bin, hab ich wahrscheinlich eh ne andere Sicht auf die Dinge aber ein Großteil der Menschen sind einfach nur noch schrecklich!
Wie siehst du die Entwicklung für gaming GPUs in den nächsten 10 Jahren? Wird es bis dahin noch consumer grafikkarten geben? Ich würde mir wünschen, den Stromverbrauch der GPUs zu optimieren. Jedes Jahr wird mehr Strom für die Modelle gebraucht. Werden PSU mit 3000W in 10 Jahren der "Standard" sein?
das Problem ist das die Preise einfach frech sind.
@@Elabotrait woher soll den sonst solch eine brachiale Leistung kommen? Von gen zu gen ist viel Entwicklung dabei um das alles effizienter zu gestalten. Da ist der way to go einfach KI.
Das wird mMn die Leistung Aufnahme in Zukunft etwas drücken aber die top Karten werden immer gut schlucken. Das war die letzten 20 Jahre so 😅
Ich sag nur 8800 ultra 😅
@@SimonBauer7 Wir leben in verrückten Zeiten aber die Entwicklungsdauer und die dafür verbrauchten Ressourcen müssen ja auch irgendwie wieder rein gebracht werden 😁
@@SimonBauer7 echt sag das mal ferrari oder lambo oder die handy herseller aller lager und den bäcker was jetzt so ein brot kostet oder den stromanbieter oder gar die banken was die sich alles so nemen lol
Warum sagst du unreflektiert, dass die 5070 soviel leistet wie die 4090? Dieses Narrativ von Nvidia sollte man nicht unterstützen. OK, unter gewissen Umständen - DLSS MFG muss vom Spiel unterstützt werden - kann die 5070 wrsh ähnlich viele FPS bringen, wie die 4090 nur mit FG. Das heißt aber nicht, dass sie das selbe leistet. Dafür muss man erstmal Tests abwarten, was diese 3 generierten Frames mit der Qualität und mit dem Spielgefühl - Stichwort Latenz - macht. Gibt es mehr Artefakte? Und wenn es nur nach FPS geht, dann kann ich mir auch für 9 $ Losless Scaling kaufen und dann "leistet" meine 4080 mit 4x FG wrsh deutlich mehr als die 5090 in einem Game ohne DLSS FG.
Du sagst ein 5070 leistet so viel wie eine 4090? Das glaube ich nicht- lediglich Nvidia rechnet es sich schön mit DLSS. Aber 8 gb Speicher??? Ernsthaft. Das war bei der 20xx Serie schon zu wenig. Und sie machen es wieder. Selbst wenn DLSS extrem gut mit Speicher skalieren würde- es ist zu wenig. Viel zu wenig Speicher. Und ist es nicht genau im Gegenteil so das DLSS eher mehr Speicher braucht?
wenn sie die Transistoren nicht kleiner machen koennen warum vergrößern sie nicht die Fläche des Chips. Damit hätte man doch auch mehr Leistung oder nicht?
Je größer die Chips desto mehr Probleme hast du bei der Stromversorgung und Abwärme.
Lichtleiter Prozessoren und Transistoren. Keine Hitze Probleme und Lichtgeschwindigkeit. Was will man mehr? Ist schon in der Forschung, soweit ich mitbekommen habe.
Hey nerdy, ich möcht mir zum ersten mal einen PC bauen fürs zocken, Office software und Video editing. Ist dann die 5090 sinnvoll, oder ist raw power gefragt?(4090 usw.)
Aber ein geniales Video. AI ist super interessant, wird aber eh noch* auf viel Hass stoßen, wegen der überlegenheit. Aber für Grafik und FPS is AI genial und womöglich umweltfreundlicher.
Wenn du keinen 4k Monitor hast, brauchst du maximal eine 9070 xt
Ich denke mal in spätestens 10 Jahren wird es auch Quantenrechner geben die alles um ein mehrtausendfaches beschleunigen können mit dementsprechend entwickelter software. Gibt es jetzt schon aber noch riesig und noch nicht für den freien markt da in der Forschung.
die nviidia 5000 serie ist wie nvidia 3000 serie nur ein lüken füller , den 2027 komt nvidia r100 das ist eine echter leistungs sprung wie bei 3000 vs 4000 nvidia serie , wer eine 4000nvidia karte hat der braucht ganz und garnicht eine 5000 kartet , beser bis 2027 warten und dan richtiger 6000 nvidia karte kaufen . das ales kan man einmfach nachgoogeln
Doch! man kann immer noch aus dem reinsten silizium rausholen!
was ist mit 1nm ???
Werden wir (vlt) irgendwann erreichen. Aber was mit 0nm?
@@iamshiron 1.4 nm ist die Rede aber euch sollte klar sein von 4nm auf 3,2, 1nm wird nicht die Revolution bringen sondern nur kleine Verbesserungen. Es muss was anders kommen sonst ist erstmal stillstand!/hardwaretechnisch
@@endgamek7820 kam vlt falsch rueber aber mein Komentar war eher auf Sarkasmus aus. Deswegen auch die "0nm". Ich weiss selber dass es in der Zukunft irgendwann das aus fuer die aktuelle Silizium-Technik sein wird ausser wir erfinden Grafikchips komplett neu.
Selbes Problem aber auch mit CPUs. Wir sind langsam am Physikalischen Maximum was moeglich ist das sonst die Elektronen springen. Groesser koennen wir den die auch nicht machen wegen Latenzen und Bitfehler auf Grund von unterschiedlicher Laenge der Banen / zu lange Bahnen.
ich sehe das total entspannt, Spiele werden für den Massenmarkt Produziert und dazu gehören nun mal auch die Konsolen diese sind weit weg von der Power moderner Grafikkarten, grafische Sprünge werden noch auf sich warten lassen vor allem wenn man eine 4080 oder 4090 besitzt und in 4k zockt (am PC was die wenigsten Menschen machen ) mit DLSS ob mit oder ohne FG. AI,Ki ist nur Marketing und damit kann man im Moment sehr viel Geld verdienen. PS. für Grafik Programme (Anwender) sind die neuen Karten sicherlich eine bereicherung.
Nvidia will aber sicher auch nicht besser. Warum denn auch? Man hat im high end Bereich keine Konkurrenz außer sich selbst und die Leute kaufen die neuen Karten auch so.
Also lieber das Minimum machen und trotzdem Geld verdienen.
Dafür haben sie dann genug Reserven falls die echte Konkurrenz doch mal aufholen sollte.
04:02 "eine 5070 leistet mit AI so viel wie vorher eine 4090"
Das war erstmal nur das Werbeversprechen. Das würde ich so nicht als Fakt übernehmen, oder hat das schon mal jemand ernsthaft getestet?
Ich bin überrascht, dass so eine weit verbreitete Gameengine wie die Unreal Engine 5 noch so viel Optimierung benötigt bzw. so ineffizient ist. Sollte die Optimierung die Gameengine nicht automatisch machen?
such doch einfach mal im netz danach, was optimierung von spielen eigentlich ist ;)
Habe ich vor 30 Jahren schon gesagt Wollte keiner hören,mit den Lichtleiter.
Gamer sind offenbar eine seltsame Art Mensch... Nie zufrieden, immer mehr wollend und sich an kleinen Pixelfehlern aufgeilen, die sicher 99% nie von allein sehen würden...
Vielleicht mal öfter nach draußen vor die Tür gehen und die Realität genießen. Von dem, was ihr für diese Grafikmonster ausgeht, leben einige Menschen einen ganzen Monat.
"Wir" regen uns auf, weil es halt denn doch "erfundene" Frames sind. Das ist auch kein Weg, dass die KI-Engine rät, was so passieren könnte und mir das dann halt anzeigt. Die Frage ist doch, ob diese KI-Sachen das Geld wert sind. Müssten die Grafikkarten nicht eigentlich deutlich billiger werden, weil die Herstellung billiger wird und der Augenmerk tatsächlich auf die Qualität der Spiele-Engines und der Spiele selbst gelegt werden, statt auf Frame-Abschätz-Algorithmen? Soll die nächste Generation dann aus 10 fps 300 fps hochrechnen, weil wir "Qualität" in fps messen? Der Computer spielt dann mit sich selber und ich schau nur noch zu? Auf die Nais reagiert das Spiel dann nur noch sporadisch und ivh schaue praktisch einen Film.
Es ist völlig richtig, dass die Optimierung an Grenzen stößt und zwar nicht nur aufgrund der Herstellungstechnik. Wir gehen langsam Richtung eine Atombreite - da machste nix mehr, egal wieste es baust. Die Frage ist ja auch, brauche ich 4K oder sogar 8K? Seien wir mal ehrlich, die Immersion hat jetzt seit Counter Strike 1.6 keine Riesensprünge mehr gemacht. Jedes 768 x 576 PAL-Fernsehbild mit 25 Hz interlaced sieht realistischer aus. Vielleicht sind wird auch in eine falsche Richtung gerannt.
Aber die Frage ist ja. Soll ich aufrüsten? Und die Frage stellt sich nicht nur bei Grafikkarten. Fr8her habe ich ständig meine CPU gewechselt. K6, K6-2, K6III, Duron, Phenom-II... Und jetzt habe ich seit 10 Jahren einen i7-4771. Ja, jetzt hole ich mir mal einen neuen Rechner, weil Windows 11 nicht megr läuft und das Ding jetzt einfach alt ist. Aber das man damit nicht mehr arbeiten und auch einjges spielen könnte... ist nicht der Fall. Steckt ne GTX970 drin. Die spielt Manor Lords und Coutnrr Strike Global Offensive und CIV V (VI und VII habe ich nicht probiert). Natürlich spielt sie Counter Strike nicht kompetitiv gegen moderne Hardware und geübte Spieler, aber das Spiel läuff...
Kann ja sein, dass das Leistungsplus nun vermehrt über Software und darauf optimierte Transistorschaltungen kommt, als durch Innovationsspünge in den Fertigungsprozessen. Leider unterschlägst du, das dieses ganze AI Zeug viel schnellen GPU-Speicher braucht und da treten die Geforce-Karten schon seit Jahren auf der Stelle.
Generell ist es beim Gaming wie im Märchen "Der Hase und der Igel", Entwickler und Hardwarehersteller werden immer darüber streiten wer, wie Games schneller und besser gemacht hat bzw. wer hier wen out smarted.
Wir müssen Neu denken???
Ok, ich denk mal neu:
Nehmen wir einen PC (RTX5090,9800X3D usw ca. 600-800Watt Verbrauch.)
Ich nehme nun eine Knopfzelle und ändere den Strom quasi Homeopathisch=
Potenzierung ins Unermessliche (Spannung) im Gegenzug (Ampere)ausdünnung ins Unermessliche.
Der PC bleibt obeflächlich Materiel aus, kein Mosfet wird einen Strom sperren oder öffnen,
aber der in der Materie feinstoffliche Anteil wird trotzdem arbeiten, genauso wie wenn der Materielle Anteil mit 600-800Watt
alles Antreiben würden,mit dem Unterschied: der PC läuft mit einer Knopfzelle theoretisch dann 1000jahre(ps.Die Knopfzelle hält nicht solange, sie wäre wegen selbst Entladung nach Jahren schon defekt).
Wir müssten nur die Ausgabe wieder zurück Potensieren?
In der Medizin (mit dem Körper) funktioniert es ja, unfassbar eigentlich.
Und wer weiss wie weit das zu Übertakten wäre(Unermesslich)
Wenn Nvidia dann auch meine Stromkosten Übernimmt.😂
Ich verstehe auch die ganze Aufregung über die neuen Nvidia Grafikkarten nicht. Wie schon im Video gesagt wurde DLSS ist die Zukunft. Und wenn man die neuste Version von DLSS, DLSS 4 benutzen will, dann muss man eben die neuen Grafikkarten kaufen. Diese Systeme zu entwickeln und zu trainieren ist mit einer menge Entwicklungsarbeit und entsprechenden Kosten verbunden. Das will Nvidia zurecht bezahlen lassen. Nur was den Vram angeht kann ich die Kritik verstehen. 16 GB sollten mittlerweile der Standard sein. Das die 5070 nur 12 GB bekommen hat finde ich dürftig.
Man sollte dabei aber nicht vergessen, das beim einschalten der KI Funktionen, Die V-Sync Option nicht mehr aktiv sind. Das ist MIR persönlich wichtiger als FPS.
echt? eigentlich nicht.. kann man alles zusätzlich noch aktivieren..
@ lass mich gern eines besseren belehren. In allen Spielen die ich kenne werden die Optionen nach einschalten der Framegeneration ausgegraut.
Was willst du heutzutage auch noch mit V-Sync, wenn du eh deine FPS in jedem Game selbst begrenzen kannst, egal ob im Spiel selbst oder im Treiber für jedes einzelne Spiel?
Du bekommst doch mittlerweile schon gute Monitor mit 144Hz und aufwärts ab teilweise 250€.
Ich selbst nutze V-Sync bestimmt schon fast 10 Jahre nicht mehr...
Ich hab nen 144Hz Monitor und limitiere per RTSS auf 48 oder 72 Frames. Geht auch mit DLSS.
Es ist die Zukunft, keine Frage, aber bisher spüre ich die zustzlichen von Ai generierten FPS nicht in der Maus und solange das nicht funktioniert, habe ich an FrameGen etc. kein Interesse.
Fake Müll halt.. Ich deaktiviere den ganzen Dreck
@@Jobanov Naja, das ist die Zukunft, da die Physik bald einen Strich durch die Rechnung macht und Entwickler ihre Spiele nicht mehr gut optimieren (dürfen). Es steht für sie ja viel Leistung zur Verfügung.
Solange aber Nvidia und CO mit Ihrer KI nicht erreichen, dass ich die FPS spüre, sind sie nahezu nutzlos.
Warum sich viele aufregen ist, weil die einzige echte Verbesserung in der Software und gar nicht in der Hardware liegt. DLSS 4 könnte auch auf RTX4000er Karten laufen, wenn Nvidia das wollen würde. Aber es wird als Kaufargument für eine neue Hardwaregeneration angeführt, die (abgesehen von der 5090) nahezu die gleichen Specs haben wie ihre Vorgänger inclusive dem geizig bemessenen VRAM.
Ich bleibe bei meiner 4070 Super braucht nur 165 Watt Undervoltet und reicht für WQHD völlig aus.
Das meine wohl ich auch habe bloß noch das ti danach, da vor 3080 s ti aber der Strom verbrauch ist stärker
@@pusa5pusa ja das stimmt.
@@Lottergeist-Beetlejuice
Sogar meine 3060 Mobile reicht für WQHD völlig aus.
wow also ich hab bei meiner 4080 im schnitt 55w aber ich mach mit ein fps capp rein was ich ja für jeden spiel einstellen kann warum sollten man auch mehr fps als hz vom monitor haben und ich hab nicht mal uv gemacht
Ich sehe es gar nicht ein, so viel zu bezahlen.
Daher warte ich auf die großen Karten von Intel.
Als ich XESS zum ersten mal sah, war ich begeistert.
Es war auf dem selben Niveau, wie Nvidia.
Mit besseren Kühlern wäre mehr drin gewesen bei RTX 5000.
Du weißt schon bei Spielen die kein DLLS unterstützen ist eine RTX 5090 nicht sehr sinnvoll.
Mr. Nerd over Tech, kaufst du dir eine RTX 5090 sofort? 😁
3dfx das waren noch Zeiten diesen wow Effekt hatte nie wieder... Was ich an den neuen Karten schade finde ist die doch für die heutige zeit geringe Speicher Ausstattung.
Bei dern CPU's müssen endlich die alten Lasten abgeworfen werden, x86 ist einfach nicht mehr Zeitgemäß. Klar das wäre für die Branche ungemütlich und das hält auch die CPU Hersteller zurück. Aber nur so könnte man wirklich riesen Sprünge machen. Wenn man überlegt das Apple mit der ARM Architektur mit einem drittel der Stromabnahme und daher fast ohne Kühlung mehr Leistung rausholt in Anwendungen als zb. aktuelle Gaming CPU's? Klar das würde bedeuten das ohne neu Kompilierung alter Spiele diese nicht mehr Funktionieren würden ohne Emulation, aber sollte das die ganze Branche zurückhalten?
Solange die Software der Hardware angepasst wird, ist das ja auch okay. Leider sind die aktuellen Spiele ja noch nicht mal auf die höheren Auflösungen optimiert, sage nur Final Fantasy XVI, dass da die Community mit Mods ran darf/ muss, ist nicht zu entschuldigen.
Größe Sprünge habe ich nicht erwartet, dachte mir schon das DLSS eine neue Version bekommt, bin mal gespannt was an Strom aus der Steckdose gezogen wird. Da ich erst eine 4080 Super erstanden habe, hatte ich noch keine Lust mir die neuen Specs anzusehen. Warte auf eine Zusammenfassung in einem Magazin. Die RAM-Bestückung bei der 5090 soll ja höher ausfallen, wenn ich richtig gelesen habe. Denke, das könnte, die Enthusiasten locken, mich jedenfalls nicht.😉
Wir werden wieder auf multi GPU gehen.. Ihr werdet sehen.
nein das hatten wir doch und es war nie gut
@@bp-it3ve Ja aber es gab da auch keine riesen Entwicklung weil man es nicht gebraucht hat
@@phoenixioon Weil es nie gut war Mikroruckler und oft lief es nicht.
Was kommt den dann als nächstes, wenn die Transistoren nicht mehr kleiner und die Software nicht mehr besser werden können, Quantenprozessoren 🤔?
Es ist Unsinn zu behaupten, dass man an ein Hardware-Limit stößt. Die Realität ist, dass die Hersteller oft den einfachsten Weg gehen. Wenn KI gerade boomt, nutzen sie das aus und werben damit.
Ein Beispiel: Die PS5 ist keine echte 4K-Konsole. Sie ist im Grunde eine 2K-Konsole und schafft nicht einmal das zuverlässig. Trotzdem wird sie als 4K- oder sogar 8K-Konsole beworben. Das war bei der PS4 und PS3 genauso. Die PS4 konnte eigentlich nur 900p und wurde auf 1080p hochskaliert, wurde aber dennoch als vollwertige Full-HD-Konsole beworben.
Die DLSS-Technologie oder ähnliche Ansätze haben also nichts mit echten Hardware-Grenzen zu tun, sondern sind schlicht Marketing. Niemand stößt tatsächlich an diese Grenzen. Aber wenn es keine Konkurrenz gibt, warum sollte ein Unternehmen die Messlatte weiter anheben? Aus unternehmerischer Sicht ergibt es wenig Sinn, großartig mehr zu investieren, wenn man ohnehin keine Anreize dazu hat.
100% deiner Meinung. Ich spiele fast immer FS2024. Ein extrem FPS forderndes Spiel. FS2024 hat angekündigt DLSS zu unterstützen, sobald die Karten verfügbar sind. Damit steht fest ich kaufe die Karte. Vielleicht erreiche ich damit ja 100FPS knackscharf und mit allen Optionen auf Ultra gestellt.
Dlss4 ist gemeint.
Jeeein... Wir werden schon weiterhin grosse spruenge machen - das was du beschreibst wird eher ein Problem RISC sein, denn in Zukunft wird es viel mehr auf custom circuits (befehlsaetze) gehen sowie co processoren die keine general cpus mehr sind. Beispiele sind zB AES, GPUs und co.. CPUs sind einfach in allem schlecht, weil sie immer sehr ineffizient sind, aber halt einfach zu programmieren - wo brauchen wir denn mehr leistung? es sind immer sehr spezielle bereiche.
Natürlich lässt sich die Leistung noch weiter steigern - das Stichwort heißt Paalellisierung, aber man will ja den Profit Maximieren. Einen anderen Grund gibt es nicht, oder ist vorgeschoben.
Wenn das so simple ist würde mans tun. Schau dir mal an wie problematisch parallelisierung auf der CPU ist und da haben wir 16 Kerne, geschweige von 21000 Kernen.
nein echt jetzt eine firma will auf unsere kosten gewinn machen sowas gehört verboten lol
Kurz, es ist nicht mehr als ein upscaling der 5090 gegenüber der 4090... Alles andere ist Marketing
Alles KI Fake. sollen sie die 5090 doch 8 Slots und 3KG schwer mit 1000W machen, mir egal, aber ich will keine fakeframes
Find DLSS super, leider nutzen es AAA firmen aus.
Finde wir sind bei Spielen am Ende der Grafik angekommen. Was ich hoffe ist richtiges gameplay. Kein boring 5v5 "tac" shooter. Kein neuen hero shooter, kein story game wo man von A nach B lauft. Jetzt ist gameplay gefordert
Sehr gute Zusammenfassung! Top!
Probleme bleiben trotzdem weiterhin mit immer neuen Techniken. Wie oft hat NVIDIA Probleme mit ihren Treibern seitdem sie RTX auf den Markt haben. Mehr Probleme als zuvor. Software/Spiele Entwickler könnten noch so viel aus den Spielen raus holen wenn anständig programmiert und optimiert wäre. Oft kommen Spiele Updates erst zu spät wenn es Nachfolger der Spiele raus kommen wo man sieht das alte Hardware es schneller macht und so flüssig wie nie gedacht. Da gibt es reichlich Spiele die einfach immer weiter optimiert werden und Updates erhalten. Siehe Gta5 und battlefield teile und viele weitere!
aber der Sprung von 2 Nanometer auf 1 Nanometer würde eine theoretische verdopplung der Leistung bedeuten oder nicht?
Ja, Genau wie von 4 auf 2(was ja voerst erfolgreich beim lithografieren bei TSMC gelang ).
Aber 1nm ist noch Illusion
Bin der Meinung das, Natives Gaming einfach schöner ist, ich habe generell DLSS aus. Das sind so Bildverschlimmbesserer wie man in AV Cinema Kreisen es nennt. Wenn die Grafikkarten die Leistung nicht bringen um damit auf 4K zu zocken mit 60FPS, naja dann sind sie einfach zu schwach auf der Brust und wir müssen uns damit abfinden. Eventuell stellt man sich mal die Frage ob X86 noch die richtige Architektur ist und man nicht in Richtung ARM geht, wenn es bei einem Betriebssystem möglich ist dann vielleicht auch bei einem Game? Immer mehr Leistung ist nicht immer der richtige weg.
Dann dürfen wir es aber nicht mehr Leistung nennen. Das ist faktisch der falsche Begriff. Habe weiter oben gelesen Effizienz - das ist vlt der neue Maßstab. Es ist halt optimiert.
Mich regt an der ganzen Sache auf, dass man durch die Darstellung unterschwellig gesagt bekommt, alle alten Karten sind Müll.
Wieso sollte die Fertigung nicht auch im dreistelligen Angströmbereich verfeinert werden können?
Man muss gar nichts. Man muss auch nicht immer alles mitmachen. Nvidia kennt die Kundschaft sehr gut. Dem gemeinen " Gamer " kann man alles verkaufen.
Mehr Frames schön und gut aber was ist mit den Latenzen und input lags durch Frame Generation.. Wichtig ist dass sich das zocken super flüssig UND Direkt anfühlt..und nicht wie viel FPS da irgendwo auf nem counter angezeigt wird...
Die Mehrperformance von 20-30% zum gleichen Preis (außer bei der 5090) finde ich durchaus ok und wenn das DLSS4 die Schwierigkeiten mit Artefakten/Schlieren und Latenz älterer Versionen reduziert und als Bonus sogar noch deutlich mehr bringt, sehe ich auch das Problem nicht was einige Leute damit haben die meinen nur Native sei das wirklich wahre...
Wenn es keine bösen Überraschung gibt wird es bei mir eine 5070TI - die muss bei dem hohen Preis dann zwar etwas länger halten, aber ich hätte mir beinah vor einem Jahr eine 4070TIS gekauft die ähnlich viel gekostet hätte aber von der Grundleistung her halt 20-30% langsamer gewesen wäre, was ein deutlich besseres FPS/€-Verhältnis bedeutet und mit DLSS4 sowieso...
Danke für die Zusammenfassung - it is like it is 👍
1nm währe noch möglich alles darunter würde dann dazu führen das Elektronen springen also die Gates nicht mehr so funktionieren wie sie müssten.
Zu "Worüber Regen wir uns auf?" --- Hauptsächlich über den Preis!!
Gutes Video von dir ... stimmt genau was du sagst ! Komm auch aus der 3 dfx zeit .
Also ich muss ehrlich sagen, ich hab ne rx 6700xt und zocke eigentlich jedes game am TV mit UHD und FSR P. Es läuft super, eigentlich bekomm ich jedes game mit angepassten settings auf 60fps und es sieht mit dem richtigen display/TV einfach fantastisch aus. Klar geht noch bisschen mehr Schärfe oder sowas aber ganz ehrlich. Das ist mir zumindest bisher noch keine neue Karte wert