RTX 5090 - Wir müssen NEU denken!

Поделиться
HTML-код
  • Опубликовано: 24 янв 2025

Комментарии • 360

  • @GroundCap
    @GroundCap 15 дней назад +64

    Es wird langsam Zeit sich auf effizient bei gleicher Leistung zu konzentrieren

    • @N.M49
      @N.M49 15 дней назад +4

      Das kann man selbst herbeiführen = undervolting. Meine 4080S braucht out of the BOX 315 Watt im Peak, bei niedrigstmöglicher Spannung schafft sie nahezu den Stock Takt, verbraucht aber nur noch 230 Watt bei 95% Leistung. Ich nutze sie sogar noch underclocked mit 2200MHz, womit sie nur noch knapp 180Watt braucht, aber noch immer 80%+ an Leistung liefert. Möglich sind 3045MHz mit 400 Watt.

    • @shadowwhite9324
      @shadowwhite9324 15 дней назад +1

      Man kann Vsync nutzen lass die GPU nicht unlimitiert laufen

    • @AncapDude
      @AncapDude 14 дней назад

      ​​@@shadowwhite9324Nutze RTSS. Bei vielen Games reichen mir 48fps, manchmal auch 72. Die 144 des Monitors nutze ich eigentlich nur in 2D. Ergebnis: Weniger Hitze, Krach und Verbrauch.

    • @StefFault
      @StefFault 14 дней назад

      @GroundCap + Ki Verbesserung. Warum sollte man das nicht nutzen

    • @N.M49
      @N.M49 14 дней назад

      @@shadowwhite9324 mit 120 Hz bist du auch im vsync am schwitzen

  • @Hexenkind1
    @Hexenkind1 15 дней назад +24

    Ich sehe es schon kommen: Wir werden bald bessere KI Modelle kaufen müssen um mehr Leistung zu bekommen.
    Am besten noch im Abo.
    Das ist die Zukunft.

    • @SebbS82
      @SebbS82 15 дней назад +5

      Das DLSS-Abo bei NVIDIA.

    • @zuzkuk79
      @zuzkuk79 15 дней назад +4

      @@SebbS82 hey, nicht so laut! sonst bringt ihr die Hersteller noch auf dumme Gedanken

    • @Hexenkind1
      @Hexenkind1 15 дней назад +4

      @@zuzkuk79 Auf die kommen die schon ganz alleine.

    • @AncapDude
      @AncapDude 14 дней назад +4

      KI wird die Menschheit spalten in Premium Abo User und Freeloader, und das nicht nur beim Gaming.

    • @niasboiii
      @niasboiii 14 дней назад +1

      @@Hexenkind1 So wird es kommen.

  • @llRobkobll
    @llRobkobll 15 дней назад +8

    Ich habe überhaupt nichts gegen verbesserte Algorithmen, aber je mehr von Zusatzprogrammen dazugerechnet wird, umso größer sind nunmal zwangsläufig die Latenzen.
    Das kann man durch Programm-Optimierung auch nur bedingt verbessern, vorallem auch, da die Berechnungen letztlich immer durch die Hardware limitiert werden.

    • @Nasty134
      @Nasty134 15 дней назад +1

      Vollkommen korrekt

  • @perpsen
    @perpsen 15 дней назад +4

    3DFX hat die CPU seinerzeits "egalisiert"
    Respekt für dieses Video, endlich sagt es mal jemand.
    Daumen hoch

  • @marvj13
    @marvj13 15 дней назад +10

    7:20 OMG! Das ist SO SCHÖN mal bestätigt zu wissen... Ich hatte schon seit Monaten das Gefühl, dass UE5 einfach nur ein Dumpsterfire an Ballast ist, den die Devs einfach nicht optimieren wollen, aber ich hatte noch nie so eine Bestätigung gehört... Devs müssen endlich mal lernen ihre Spiele zu optimieren und nicht alles auf die GPU abwälzen, dann könnte man auch mit älteren GPUs wieder mehr rausholen

    • @N.M49
      @N.M49 15 дней назад +1

      Wenn ich mir die Spiele in letzter Zeit so ansehe, dann wird bei den heutigen >nforderungen wie Alan Wake 2, Silent Hill 2 Remake, Indiana Jones oder Wukong ein ordentlicher Pixelbeschleuniger benötigt. Meine damit, ja, schon, aber zu hoffen, dass die 2080 deswegen nochmal mithalten könnte darf bezweifelt werden. Nebenbei gibt es auch andere Limitierungen wie den VRAM.

  • @Darkicecold
    @Darkicecold 15 дней назад +25

    UVP heisst nicht dass diese mit dem Preis in den Handel kommen. Ich vermute eine nochmalige Preissteigerung von 200-300 Euro im Handel.

    • @pausenbrotdiebdergrundschu8255
      @pausenbrotdiebdergrundschu8255 15 дней назад +2

      Ja ist leider fast immer so dass es richtung minimum 150-200€ geht

    • @Sayako-sf2bn
      @Sayako-sf2bn 15 дней назад +2

      Besonders die beliebten Marken: ASUS, MSI, GIGABYTE
      Den Rest kauft keiner. Zotac, Palit, PNY...Vielleicht Menschen die sparsam sind.
      Aber es "existieren" quasi nur 3 Marken für die Mehrheit der Gamer.
      Asus knallt eh OP obendrauf. MSi und Gigabyte sind da noch humaner unterwegs.
      Man schaue sich zb. Mindfactory an.
      Oder Caseking.
      Die meisten GPUs, die verkauft werden (vermutlich weil Marke UND Design) sind halt ASUS,MSI, GIGABYTE.
      Eben weil sie sehr schön sind. UND Power haben.

    • @shadowwhite9324
      @shadowwhite9324 15 дней назад +1

      ​@@Sayako-sf2bn Zotac bis dato immer gute Custom Modelle erwischt

    • @Fleischi1980
      @Fleischi1980 15 дней назад +2

      @@Sayako-sf2bn aber warum werden die Grafikkarten von Zotac, Palit, PNY weniger verkauft? Immerhin ist doch der Chipsatz der gleiche wie Asus, Msi und co... nun das habe ich auch nie so verstanden . Der Preisunterschied ist auch manchmal etwas größer bzw günstiger. Und die Leute greifen trotzdem zur teureren Variante???🤯

    • @perfectpotato_eu4129
      @perfectpotato_eu4129 15 дней назад

      @@Sayako-sf2bn Die überzogenen Preise insbesondere bei ASUS Grafikkarten würde ich nie zahlen da mir der Mehrwert viel zu gering ist. Die letzen drei Karten von Gainward (2080, 4090) sowie PNY (3080Ti) laufen oder liefen alle problemlos. Übertakten ist bei der Grundleistung der Karten für mich ohnehin sinnfrei. Die 4090 läuft auf 75% Power Target.

  • @tendoboy_viewer
    @tendoboy_viewer 15 дней назад +18

    5:49 ich kann dir (leider) sagen warum:
    leider gottes ist es mittlerweile so, dass (aaa) spiele mit der intention entwickelt werden, dlss und co zu benutzen. so sparen sich die entwickler zeit, und vor allem geld bei der optimierung des spiels (die mit glück auch erst schleppend über jahre hinweg voran kommt, siehe cyberpunk). es gibt einfach nur noch selten bis gar keine neuen spiele, die optimiert und fertig auf den markt kommen. dlss war anfangs als eine nice addition für u.a. raytracing gedacht, damit man das spiel auch da flüssig/nutzbar spielen konnte. problem ist nur, entwickler "nutzen" diese technik aus, damit sie die spiele wie oben genannt, nicht (von anfang an) optimieren müssen. ich hoffe ich konnte das halbwegs gut darlegen.

    • @opafritzsche
      @opafritzsche 15 дней назад +1

      Ja schuld sind immer nur die Entwickler. Werde mal selbst einer!

    • @jiloon-ci9jl
      @jiloon-ci9jl 15 дней назад +1

      Woher kommt diese Annahme? Warum sollte es dazu führen weniger zu optimieren?

    • @tendoboy_viewer
      @tendoboy_viewer 15 дней назад

      @@jiloon-ci9jl weil es günstiger und einfacher ist, ein feature zu implementieren, welches entweder niedrige auflösung hochskaliert oder künstliche bilder interpoliert, oder gar beides, als code aufwendig zu optimieren. siehe bspw. die UE5. die meisten, wenn nicht gar alle spiele, die auf dieser engine basieren, haben performance probleme. selbst epics eigenes spiel fortnite. einfach weil die engine so schlecht optimiert worden zu sein scheint. und das ist kein geheimnis, denn sehr viele menschen bemängeln das. außerdem gibts diese richtigen performance probleme erst, seitdem sich dlss richtig implementieren konnte, da alle gesehen haben, wie mächtig diese technologie eigentlich sein kann.

    • @ipadize
      @ipadize 15 дней назад +3

      @@jiloon-ci9jl Geld wird gespart

    • @jiloon-ci9jl
      @jiloon-ci9jl 15 дней назад

      ​@@ipadize Und das wäre bei mehr Rechenleistung anders?

  • @AHPB_lel
    @AHPB_lel 15 дней назад +7

    6:24 is da das Rainerle vorbei gelaufen? 🤣

    • @zuzkuk79
      @zuzkuk79 15 дней назад

      wer ist Rainer?

    • @AHPB_lel
      @AHPB_lel 15 дней назад +3

      @ Drachenlord, wer ihn kennt weiß wer gemeint is..😅🤷‍♂️

    • @Bransen96
      @Bransen96 15 дней назад +2

      Ja der wongelt schon ganz schön!

  • @germanCouchWarrior
    @germanCouchWarrior 15 дней назад +3

    Was ich nicht verstehe ist, da wird sich aufgeregt, dass nicht mehr rohe Leistung durch übliche Bauteile auf der GPU erzeugt werden. Jetzt werden halt anstelle von CUDA- und Shader-Kernen die AI TOPS massiv erhöht. Meine RTX 3080 hat 238 und eine RTX 5080 hätte 1801. Das ist eine 750 Prozent Steigerung und daher kommt halt auch die Upsampling- und FrameGen-Power. Ist doch egal ob die Power aus den Bauteilen A oder B kommen, richtig? Fakt ist, ohne diese Verstärkung der KI-Komponenten wären wir von der Grafik immer noch in der PS4 Generation.

  • @elmothlas5373
    @elmothlas5373 15 дней назад +11

    5070 ist mit 12 Gb bestückt. Nennt mich verrückt aber ich komme mit 16 Gb teilweise nicht aus. Was nützt DLLS 4 wenn der Speicher voll ist. Genau nichts mehr.

    • @ice98mja1
      @ice98mja1 14 дней назад

      naja dann sage ich mal die dein problem ich bekomme meine 16 gb nicht voll auch mit mods nicht und mit dlss geht der verbrauch runter solltest du aber wissen wen du schon deine gb voll bekommst dann schaut man ja warum bis jetzt bibt es nur 2 games die mit 6gb nicht mehr laufen alles andere geht ober einfach mal 8k hd mods weg lassen oder halt eine 5090 wünschen ^^

    • @SebbS82
      @SebbS82 14 дней назад +1

      @@ice98mja1 Naja, habe bei meiner 4090 u.U. 19 GB in 4K befüllt mit Raytracing + DLSS. Indiana Jones ist ja das letzte Paradebeispiel

    • @Erik-lh9jh
      @Erik-lh9jh 13 дней назад

      Wie?
      Meine Rtx 2060 hat 6 GB, man merkt zwar, dass es manchmal eng wird aber bisher bin ich vollkommen mit ausgekommen. 🤷‍♂️

    • @elmothlas5373
      @elmothlas5373 13 дней назад

      @ Ok das ist doch gut. Ich hab das Problem das ich mit 16 schon nicht bei Jeden Game hinkommen und der Speicher Voll läuft

    • @elmothlas5373
      @elmothlas5373 13 дней назад

      @@SebbS82 Jup kenne ich 😂

  • @Dr.Ne0Gen3tic.of.Investigation
    @Dr.Ne0Gen3tic.of.Investigation 13 дней назад +1

    Sehe ich genauso, dass da oft viel Potential liegen gelassen wird. Gerade bei den aktuellen Titeln merkt man, dass oft rohe Power vor Optimierung geht. Schade eigentlich, denn mit ein bisschen mehr Feintuning könnten viel mehr Leute in den Genuss der neuesten Games kommen, auch ohne High-End-Rig.
    Was mir da so auffällt (und das deckt sich ja auch mit dem, was hier im Video angesprochen wurde): Nanite und Lumen in der UE5 sind zwar absolute Gamechanger, was Detailgrad und Beleuchtung angeht, aber die fressen halt auch Ressourcen ohne Ende. Da muss man als Dev echt aufpassen, wie man die einsetzt. Adaptive Tessellation basierend auf der Distanz und der GPU-Performance wäre da ein super Ansatz. Oder auch dynamische Anpassung der Lumen-Qualität. Sowas in der Art wie eine "Lumen-DLSS"-Funktion, quasi. Dann könnten auch schwächere GPUs noch ein anständiges Bild bekommen, ohne komplett einzubrechen.
    Und apropos DLSS: DLSS 3.0 und bald auch 4.0 sind natürlich krasse Technologien, die uns da echt weiterbringen. Aber auch da gilt: Es ist kein Allheilmittel. Man muss trotzdem noch sauber optimieren. Shader-Optimierung ist da ein riesen Thema. Da kann man so viel rausholen, wenn man da wirklich tief reingeht und unnötige Berechnungen vermeidet. Klar, komplexe Shader sehen geil aus, aber vielleicht muss man da für Low-End-Systeme einfachere Alternativen anbieten. Oder eben mit Techniken wie Ray Reconstruction arbeiten, um die Performance zu boosten.
    Auch das Thema Culling und Occlusion Culling wird oft unterschätzt. Wenn man da wirklich präzise arbeitet, kann man so viele unnötige Render-Aufrufe vermeiden. Und was die Assets angeht: Texturkompression, LODs, effiziente Mesh-Optimierung - das sind Basics, die aber immer noch oft vernachlässigt werden. Gerade bei Open-World-Spielen, wo man riesige Welten rendern muss, ist das Gold wert.
    Was die Grafik-APIs angeht (DX12, Vulkan): Async Compute ist da ein absolutes Muss. Wenn man das richtig einsetzt, kann man die GPU viel besser auslasten. Und den API-Overhead minimieren, ist natürlich auch wichtig. Batching von Draw-Calls ist da so ein Stichwort. Das sind zwar eher low-level Sachen, aber die machen am Ende echt einen Unterschied.
    Und last but not least: Die Treiber. Da müssen die Hersteller natürlich auch mitziehen und spielspezifische Optimierungen liefern. Aber auch allgemeine Performance-Verbesserungen sind wichtig. Da ist die Zusammenarbeit zwischen Spieleentwicklern und Treiberherstellern entscheidend.
    Ich finde es gut, dass hier im Video auch das Spieldesign angesprochen wurde. Reduzierung der Draw-Calls, sorgfältige Planung der Spielwelt - das sind alles Faktoren, die man von Anfang an berücksichtigen sollte. Wenn man da schon in der Planungsphase dran denkt, spart man sich später viel Ärger.
    Ich bin echt gespannt, was die Zukunft da noch so bringt. Mit den neuen Technologien und den ganzen Optimierungsansätzen gibt es da noch so viel Potential. Hoffentlich setzen die Entwickler in Zukunft noch mehr auf Optimierung, damit wir alle, egal mit welcher Hardware, geile Games zocken können.

  • @pcfan1986
    @pcfan1986 15 дней назад +8

    Die Karten sind "günstiger geworden".
    Nur weil die 40er Serie jenseits von überteuert war.
    Das heißt trotzdem nicht, das P/L OK ist.
    Die 5070 TI kostet immer noch mehr als die absolute TOP 1080TI beim Launch.

  • @markuslieblich
    @markuslieblich 11 дней назад +1

    Hatte diese Meinung über DLSS, VRAM etc schon vor der Veröffentlichung vertreten und einen Shitstorm erhalten.....

  • @R-Byte-3D
    @R-Byte-3D 15 дней назад +4

    Denkt an eurem Vergangenheit-Ich vor 10 Jahren und sagt dem mal, dass wir überhaupt 4K und 240FPS schaffen heute. Und dass mit "KI" die 3 Bilder zwischen den Frames generiert, indem sie Bilder interpretiert, schärft usw. Das hätte doch niemand geglaubt.
    Also alle die mimimi machen, die hätten auch am Pferd festgehalten, weil man mit einem Auto damals ja nur Schrittgeschwindigkeit fahren konnte. DLSS4 ist schon ein großer Sprung, generell ist DLSS ein großer Sprung gewesen, was ist in den nächsten 5 Jahren?
    Aber ja ich finde es schade, dass Nvidia so Geldgeil ist und für Softwarelösungen neue Hardware verkaufen will.

    • @mikehaertsch
      @mikehaertsch 15 дней назад +1

      Ich hätte gerne 120hz und bei jedem hz ein Frame=120fps
      die Grafikkarte soll 30frames rendern und 3 frames werden bei jedem Frame dazwischen geschoben(Grafikkarte würde ca 150watt verbrauchen)
      aber so ist es leider nicht.
      Sondern so:
      Die Graka rendert was soviel sie kann zb 85fps, dann macht daraus dlss4=255fps
      davon werden dann 120fps im hz takt des Bildschimes angezeigt?
      400watt verbrauch?

    • @ericschulze1337
      @ericschulze1337 15 дней назад

      das Problem ist dass ich das jetzt immer noch nicht glaube^^ ich mit ner 4090 sehe ja wie gut das mit 1 Bild funktioniert.. 3 Bilder kann doch nicht funktionieren? und das bei gleich Kernen??

    • @mikehaertsch
      @mikehaertsch 15 дней назад

      @@ericschulze1337 Das wird mit zwischen Bildern erreicht.Das führt aber zu einer höheren Latenz.
      Weil keine Echtzeit Ausgabe statt finden kann:
      Die Grafikkarte rendert zurest ein Frame und dann das zweite,
      das wird dann noch nicht ausgegeben,
      Sondern frame 1 wird mit 2 verglichen,
      die zwischenbilder dazwischen gerechnet,
      was viel schneller als rendern ist.
      Danach wird es erst Zeitversetzt(Latenter)ausgegeben.
      Das neue ist jetzt aber,
      das sie nach Frame 1 nicht mehr mit Frame 2 vergleichen, sondern die Ai durch das Vorangegange raten lassen,es wird daher das zweite gerendert wärend die Ai gleichzeitig ratend die zwischen bilder ausgibt.
      Da passen anscheinend 7 frames rein,bis das nächste Frame gerendert ist.

    • @justchris5806
      @justchris5806 14 дней назад

      Ja, das vergisst man immer wieder schnell, da die Schritte nur nacheinander kommen.
      Geht mir mit meiner 1080 auch so, ich dachte die ganze Zeit, dass ich damit noch oben mit dabei bin, bis ich vor kurzer Zeit dann doch realisiert habe, wie alt die schon wieder ist und was sich alles getan hat

  • @gl1tch133
    @gl1tch133 15 дней назад +50

    Wir müssen die Realität genauer sehen: Die 5090 performt 20% in native Leistung besser als die 4090. Was bedeutet das wir für nur 20% bessere Performance 2000€ zahlen, alles andere ist nur wegen AI möglich

    • @sts_gaming
      @sts_gaming 15 дней назад +24

      Und die Entwicklung bzw. Weiterentwicklung von ki/dlss/FG kostet deiner Meinung nach nichts? Deine Rechnung passt selbst ohne das hinten und vorne nicht. Wir zahlen letzten Endes bezogen auf die UVPs 4090 zur 5090 noch keine 400 Euro mehr. Und das für 20% native Leistung mehr, für mindestens 50% bessere Ki und 8gb gddr7 vram mehr sowie pcie 5.0. Da finde ich keine 400 Euro Aufpreis absolut in Ordnung

    • @opafritzsche
      @opafritzsche 15 дней назад +3

      ​@@sts_gaming Ich würde mal sagen, 27% ist die rechnerische Geschwindigkeitszunahme. Dazu kommen sämtliche ai Funktionen. Man bemerkt allein in der Vorstellung schon, das sich die 5090 eher an die Creator, als an Spieler richtet. Warum sind nun alle so negativ dazu? weil sie meinen ihre ich stelle etwas dar 4090, muss so schnell bleiben wie die 5 Line. Bliebt sie aber nicht. Also wird alles niedergemacht. Gleichermaßen urteilen sie über Funktionen, die sie gar nicht kennen.Nehmen wir nun 27 % mehr Performance im Preis, kämen wir bei einer RTX 4090 auf 2700 euro. Da liegt aber die 5090 weit drunter. Hinzu kommt das die Power mehr wurde, mit 600 Watt. Was auch bedeutet, wenn es wie viel ? 70% wären ? wie viel Watt denn dann? 1000 ? Und wie bitte soll es denn weitergehen ? mit jeder Generation mehr Watt pro FPS ? Das wird nicht funktionieren. Irgendwann muss ein Umdenken her. Der Verbrauch muss runter, und die Technik höher. Aber das wollen sie weder wahr haben, noch verstehen sie es. Das herumgemoser um die 5070 ist genau so schlimm. Wenn die technische plattform passt, bringt DLSS4 da einen riesigen Zuwachs. Der Rest ist Erbsenzählen. Und für alte Spiele, reichten alte Grafikkarten, es geht um die nächsten kommenden, nicht um den alten Kram, der geht schon auf alten Karten entsprechend.

    • @panamera0607
      @panamera0607 15 дней назад +6

      @@gl1tch133 20% mehr Leistung für 27% mehr Strom

    • @1992zalman
      @1992zalman 15 дней назад +4

      @@sts_gaming die Preise sind einfach lächerlich, solch Preise für eine Grafikkarte ist absolut krank.

    • @sts_gaming
      @sts_gaming 15 дней назад +3

      @opafritzsche Absolut. Ich verstehe das rungemoser zur 5090 auch nicht. Die 4090 hat doch genauso Ki genutzt um die volle Leistung zu haben. Die 4090 ist und bleibt eine tolle Karte und Tests werden den Vergleich zur 5070 schon noch zeigen. Ich vermute da eher die Rohleistung der 4090. Aber man sollte da doch auch mal das positive in der Entwicklung sehen. Ich kauf mir doch auch jetzt ne 5090 und bin in 2 Jahren nicht beleidigt weil die 6090 doppelt so schnell ist oder die 6070 an die Leistung dran kommt. Die 5070 wird mit ihren 12gb ja trotzdem schnell an Grenzen stoßen wogegen die 4090 da nur müde lächelt. Hat alles sein pro und Kontra aber im großen und ganzen hat nvidia erstmal auf dem Papier mit der Leistung und dem Preis abgeliefert. Keine der 4 genannten Karten hat für mich einen Haken. Die werden genau das können was man auch bezahlt. So sehe ich das

  • @ckay1988ck
    @ckay1988ck 15 дней назад +5

    Im großen und Ganzen stimmt das alles leider hat NVIDIA die kleinen Karten sehr unnötig mal wieder durch VRAM gedrosselt. Was leider einem an für sich gutem Produkt ein bisschen dazu verhilft schon fast am Limit zu sein bevor es los geht 5070 hätte mit 16GB echt die nächste 1080ti für die Mittelklasse werden können denn der RAM wird ja leider auch für die ai Funktionen genutzt zumindest zum Teil wodurch die 12 gb ja eigentlich auch keine 12 sind sonst denke ich gehen die den richtigen Weg. Ich denke das ram Thema hat auch viel mit Produkt Schutz der eigenen Server und pro Hardware zu tun. Das es mit der nicht vorhandenen Spiele Optimierung nicht weiter gehen kann ist auch vollkommen klar. Manchmal habe ich das Gefühl das ältere Spiele besser liefen und nicht viel schlechter in der Grafik waren oder ohne die modernen raytracing Dinge sogar besser aussahen als aktuelle Spiele ohne da scheinbar keiner mehr Bock hat echte Software zu machen

  • @lasershark8833
    @lasershark8833 15 дней назад +9

    Ich muss höchstens mal auf Toilette.
    P.S. Bleibe immer noch bei meiner 2080 Super und 2080 Ti, seh kein Grund zu wechseln.

    • @jonnygudman1815
      @jonnygudman1815 15 дней назад +1

      Die meisten Spiele brauchen auch nicht viel Leistung, oder sie sind woke, oder totaler Abfall. Ich sehe das genauso.

    • @lasershark8833
      @lasershark8833 15 дней назад +1

      @jonnygudman1815 Wenn ich zocken will, nehme ich meistens eh die PS5 Pro zur Hand, macht mehr Spaß auf mein 65" oled, 120hz, 4k Bildschirm.

    • @ChowdongsFameCrew
      @ChowdongsFameCrew 15 дней назад

      du armer

    • @Jobanov
      @Jobanov 14 дней назад

      120hz oled und 45fps ps5 pro sie sind clever 🤌

    • @lasershark8833
      @lasershark8833 14 дней назад +1

      @@Jobanov GT7 120Hz und 120FPS, 4k, reicht mir vollkommen und ein besseres VR Erlebnis, als ich es mit einer ähnlichen VR Brille in der Preisklasse haben könnte, als am PC. 🤙

  • @damengambid
    @damengambid 15 дней назад +1

    Das Physikalische Grenzen gelaber, es gibt noch einige Stellschrauben an denen man drehen könnte, der Größe des DIE z.B. Aber das würde bei gleichem Preis weniger Gewinn für Nvidia bedeuten. Zudem steht NVIDIA in ihrem Business, außerhalb der Konkurrenz warum 5 MEter weit springen wenn 2 Meter reichen... Der Grund der Preise und der geringen Mehrleistung liegt einfach an den wirtschaftlichen Gründen der Gewinnmaximierung.

  • @suschygaming9292
    @suschygaming9292 15 дней назад +4

    Mich wundert etwas die Verwunderung über die Empörung. 27% mehr Rohleistung für 2340 Euro sind nicht angemessen. Und zu den Frame-Generations-Diskussionen: Du siehst mehr Frames aber du spürst die 30 FPS. Das heißt der ursprüngliche Vorteil von FPS geht komplett verloren. Ich empfehle dazu das Video von Digital Foundry. Die zeigen den Delay recht gut.
    Berechnet man das mit ein, finde ich die Aufregung gerechtfertigt.
    Gerade weil so absurd viel Geld dafür genommen wird.

    • @Nasty134
      @Nasty134 15 дней назад +2

      Das verstehen viele Nvidia Anhänger aber leider nicht...

    • @ice98mja1
      @ice98mja1 14 дней назад

      wow deine rechnung ist mal so was von falsch 27% also mehr rohleistung kosten nicht 2340 euro wen man jetzt die 4090 nimmt die gerade so bei 3000 euro liegt dann würde es richtig heißen 27% mehr leistung bei minus 660 euro laut aktuellen preis!!! man kann nicht sagen 27% mehr und dan die uvp nenen lol wen müsste man den preis der verglichen gpu abrechnen dann ist es richtig aber das wollen viele nicht verstehen glaub ich oder sind einfach nur amd trolle firmen junger sind sowiso sehr eingeschränte menschen gleiche wie bei samsung appel oder asus gegen alle anderen lol auch ganz vergessen intel oder nokia ^^

  • @bp-it3ve
    @bp-it3ve 15 дней назад +1

    Ich kenne auch noch die Zeiten der Voodoo Karten hatte selbst 2 Stück trotzdem beindrucken mich die Neuen Karten gar nicht die Ki muss jetzt alles machen statt bessere Gpus zu bauen.

  • @Capone2412
    @Capone2412 15 дней назад +1

    Ganz im Ernst: Diese Geschichte von der 5070 mit 4090-Performance ist ein Marketing-Hoax und das weißt du selbst.
    Wenn ich 30 fps mit DLSS auf 50 fps und dann mit MFG auf 200 fps jage, habe ich trotzdem nur 50 fps, die auf meine Eingabe reagieren. Alles dazwischen ist allenfalls nice to have und kein adäquater Vergleich. Zumal DLSS 4 (ohne MFG) zu allen RTX-Generationen kompatibel sein wird.
    Genau den Vergleich stellt Nvidia hier aber mit ziemlicher Sicherheit an: 5070 mit 3 Fake-Frames = 4090 mit 1 Fake-Frame. Das deutet in der Realität eher auf ziemlich genau die halbe Performance der 4090 hin.
    Nvidia hat die Strukturbreite nicht geändert, was wiederum den mutmaßlich kleinen Leistungssprung erklärt - wohl v.a. auch unterhalb der 5090. Dass die MSRP der 5080 im Vergleich zum Vorgänger gesunken ist, wird sicherlich dem erwartbar geringen Leistungszuwachs geschuldet sein und sonst nichts.
    Das Argument mit den physikalischen Grenzen und, dass Moore's Law nicht mehr funktioniere, gibt es nicht erst seit ein paar Jahren - ist auch nicht falsch -, aber trotzdem sind immer wieder große Sprünge möglich, auch hinsichtlich der Rohleistung (3090 Ti → 4090).
    Ich schaue deine Videos echt gerne und will auch gar nicht haten, aber dafür, dass du am Anfang betonst, dass das kein Fanboy-Gehabe sein soll, klingt der Take wie eine einzige Verteidigungs- und Rechtfertigungserklärung für Nvidia.
    Ich war vorab ziemlich gehypt von der 5090, schaue den kommenden Tests mittlerweile aber mit großer Ernüchterung entgegen. Wenn das Teil am Ende tatsächlich nur rund 25 % mehr Leistung als der Vorgänger bringen sollte, wäre der Preis von >2300 Euro wirklich maßlos überzogen.
    Das einzig Gute daran: Viele Enthusiasten werden sich dreimal überlegen, ob sie upgraden und Nvidia hoffentlich ein Stop-Schild vorzeigen. Eine Karte mit brachialem Leistungszuwachs zu sehr hohen Preisen anzubieten ist das eine, astronomische Preise für ein recht moderates Performance-Plus zu verlangen das andere.

  • @Exploid
    @Exploid 15 дней назад +16

    Die 5070 hat die Leistung einer 4090?? Ich kenne dich als jemand der differenziert und genau recherchiert, aber hier einfach das Marketing Blabla von Ngreedia zu übernehmen finde ich alles andere als cool…

    • @nexariusrex
      @nexariusrex 15 дней назад +5

      Er hat ja auch gesagt im zusammenhang mit DLSS4 und allem was es beinhaltet mit Multi Frame Generation.

    • @LeonVossi
      @LeonVossi 15 дней назад +2

      @@Exploid hör besser zu

    • @D4RKAG3S
      @D4RKAG3S 15 дней назад +1

      es kommt nicht auf die specs drauf an sondern was man raus holen kann. ist leider nunmal so versteht das doch endlich

    • @Exploid
      @Exploid 14 дней назад +3

      @@LeonVossi Habe ich, danke. Komisch, höre Immer noch das Marketing blabla.

    • @perpsen
      @perpsen 14 дней назад

      @@Exploid die größte Innovation in der GPU History als Marketing Blabla zu bezeichnen ist schon maximal hängen geblieben 😄

  • @meinkonto3508
    @meinkonto3508 9 дней назад +1

    Hätte NVIDIA auf etwas Marge verzichtet und die TSMC 3nm statt 4 nm Fertigung für die RTX 50er Karten genutzt, dann hätte man bei gleicher Leistungsaufnahme ca. 30%-40% Mehrleistung (nur bei Rasterize & beim DLSS wäre dann noch mehr möglich) bekommen können. Ich kann das Gerede von physikalischen Grenzen von den ganzen Influencern nicht mehr hören. Zurzeit sind wir halt noch nicht an den physikalischen Grenzen. In diesem Jahr wird Apple voraussichtlich sogar schon die TSMC 2 nm Fertigung nutzen. NVIDIA hinkt also mit seinen RTX 50er Karten 2 Generationen in der Fertigung hinterher. Lasst euch also nicht für dumm verkaufen !!! NVIDIA geht es nur um die Marge (Gewinn) !
    @alle Influencer
    Hört endlich auf die Marketing-Ausreden bzgl. physikalische Grenzen von NVIDIA einfach unkritisch zu übernehmen !
    1.
    Sind wir noch bei keinen physikalischen Grenzen (nur zur Info: Selbst nach der TSMCs 1nm Fertigung werden wir nicht bei den physikalischen Grenzen angekommen sein)
    2.
    Selbst wenn wir irgendwann an die physikalischen Grenzen kommen werden, gibt es bereits heute neue Ansätze (z.B. 3D Chips bzw. gestapelte Chips, ...) um die Transistordichte weiter zu steigern
    Daher informiert euch bitte bevor ihr solche Aussagen tätigt oder werdet ihr von NVIDIA zu solchen Aussagen gedrängt, um die neuesten Grafikkarten von NVIDIA kostenlos gestellt zu bekommen ?

  • @fistandante4245
    @fistandante4245 15 дней назад +2

    Der Punkt meiner Meinung nach ist hier, dass Nvidia mittlerweile absurde Preise abruft und daher ist das Bashing mehr als gerechtfertigt...

  • @gecan9580
    @gecan9580 10 дней назад +1

    so ein quatsch, den amds antwort lautet multi chiplet, meine damen und herren, lasst euch überraschen was da noch gehen wird mit silizium !!!

  • @crossandblood1995
    @crossandblood1995 15 дней назад +2

    Okay, also auf deutsch übersetzt heißt das jetzt im Klartext: Wenn ich im Ernst weit über 2 Scheine für ne 5090 aufn Thresen kloppe, bezahle ich nichtmal annähernd die Hardware, und den Sprung, den sie gemacht hat, sondern eigentlich die Server für AI / DLSS, an sich zahle ich den Preis für die Software und weniger für die Hardware - denn, die ist es NICHT WERT! Das entnehme ich aus dem Video! Wenn also sowieso die Zukunft bei KI und Software liegt...tja, dann ist das wohl so!

  • @Marcus221179
    @Marcus221179 15 дней назад +6

    200fps sind nicht gleich 200fps, heutzutage. 4N ist wohl ausgereizt.

    • @Raja995mh33
      @Raja995mh33 15 дней назад +4

      Nichts ist ausgereizt. Es wird nur schlicht vie weniger aus der Hardware rausgeholt, weil nichts mehr optimiert wird.

    • @Marcus221179
      @Marcus221179 15 дней назад +1

      @@Raja995mh33 wer lesen kann... Ich sagte "4N" ist ausgereizt. Nicht die kommenden Nodes.

    • @DarkSoul45456
      @DarkSoul45456 15 дней назад +1

      es kann sehr wohl das gleiche sein wenn sie es mit dlss 4 schon soweit hinbekommen das man optisch zu nativen auflösungen bis 4k und 8 facher beschleunigung sprich 8 x mehr fps wie mit der 5090 gezeigt einfach keinen unterschied mehr sieht optisch zu nativ was macht es dann für einen unterschied ob die optische qualität nativ erstellt wird oder von der ai so kann man endlich mal die 240 hz OLED bildschirme mit auflösungen ab 3440 x 1440 aufwärts anständig zum zocken nutzen

  • @duckstein333
    @duckstein333 12 дней назад +1

    Meine große Liebe Geforce 2 Ultra werde ich nie vergessen...😊🎉🎉🎉

  • @shock-blitz77
    @shock-blitz77 14 дней назад +1

    Dioe leute sollen einfach aufhören immer "fake frames" zu sagen es ist nunmal jetzt die zeit für KI und wenn die möglichkeit bessteht es zu nutzen solle man es man sollte darauf einstellen das man so zukünfig neue karten kaufen wird.

  • @GameFlashDEU
    @GameFlashDEU 14 дней назад

    Spannend, wie Nvidia mit DLSS 4.0 den Fokus von reiner Hardware-Power auf KI-gestützte Performance verlagert. Klar, physikalische Grenzen setzen der Chip-Entwicklung Limits, aber ich finde, die Kombination aus smarter Software und Hardware ist der richtige Weg in die Zukunft. Trotzdem bleibt die Frage: Warum sparen so viele Entwickler an der Optimierung? Mit besserem Code könnten wir auch aus älteren GPUs noch einiges rausholen.

  • @steffenschneider3266
    @steffenschneider3266 14 дней назад

    Das Mooresches Gesetz kollidiert mit der Abbeschen Auflösungsgrenze beim EUV-Verfahren. Werden die UV-Strahlung durch Röntgenstrahlung ersetzt, könnten Transistoren noch kleiner gefertigt werden. Aktuell aber noch am Forschungsanfang, weil sich die Röntgenstrahlen nochmal anders verhalten und erzeugen lassen.

  • @DarkSoul45456
    @DarkSoul45456 15 дней назад +1

    nvidias dlss und amd's x3d cpu's sind die erzwungene Antwort auf das extrem stark und permanent schnell sinkende interesse vernünftig fertige spiele auf den markt zu bringen egal ob PC Spiel oder konsole oder alle Plattformen zusammen das müssen die leute und gamer einfach mal begreifen anstatt sich wie hooligans aufzuführen

  • @LeicaM11
    @LeicaM11 8 дней назад +1

    Bei den Strompreisen kann sich fast niemand mehr eine GPU erlauben.

    • @SwimBikeRun222
      @SwimBikeRun222 5 дней назад

      Es gibt vielen wichtigen Punkten für die GPU-Cards-Entwicklung, macht aber keiner Hersteller heutzutage. Beispiele: Neue GPUs sollen enorme Rechenleistung haben. Trotzdem sollen sie kleiner, effektiver sein. Weniger Wärmer Abgabe, kleines Gehäuse haben, gesamte Stromaufnahme weniger sein..etc.... Es wird sicher nicht einfach zu sein und länger dauern. Aber es lohnt sich nach ca. 4 Jahren ein neues Produkt vorstellen, das mindestens 50% besser, schneller, kleiner etc.... Stattdessen machen alle Hersteller pro Jahr ein neues Produkt. Nur wegen magerer Verbesserung und inklusiv Fehler. Es ist Rohmaterial-Verschwendung.

  • @lordecke
    @lordecke 15 дней назад +4

    Das mehr über KI geht ist ja ok aber dann müssen die Preise auch niedriger sein! Die Karten sind immer noch zu teuer und wie gut dann alles mit DLSS 4 aussehen wird, müssen wir noch sehen. Ich bin auch mal gespannt, wie sich die Latenz dann mit der neuen Frame Gen ändert

    • @Ransom-
      @Ransom- 15 дней назад +1

      warum sollten die preise dadurch günstiger werden? es ist doch ein mehraufwand da die KI technologien DAZU kommen zur klassischen gpu entwicklung. es wäre vielleicht so, wenn man die rastergrafik elemente komplett rausnehmen und nur noch auf raytracing und KI setzen würde aber dann wären 99% aller games nicht mehr kompatibel...

  • @nesnimu
    @nesnimu 14 дней назад +1

    Ich versteh das Problem nicht?
    Ob die Leistung jetzt durch reine Power zustande kommt oder durch KI ist doch egal, wenn das Ergebnis passt.

    • @perpsen
      @perpsen 14 дней назад +1

      Das verstehen viele nunmal nicht und würden lieber in der Zeit stehenbleiben.

    • @iPh1l1pp
      @iPh1l1pp 13 дней назад

      @@nesnimu Latenz…..

  • @felixhofer8217
    @felixhofer8217 9 дней назад +1

    Unreal enginge und aktuelle spiele sind einfach nur noch shit!
    CP spiele ich 4k problemlos, andere laufen 1080p mit upscaling und runtergestellen Details sch.....

  • @sapinenem
    @sapinenem 15 дней назад +1

    Fehlt nur noch das Nvidia Sponsoring

  • @steffanzwerg3424
    @steffanzwerg3424 15 дней назад +2

    Es geht doch nicht darum, das die Hardware in der Rohleistung keine großen Spünge mehr macht. Das hatte NV schon zu Beginn der 4000 Serie gesagt. Es geht darum, das die Karten wieder Sack teuer sind, mehr Strom verbrauchen und nur mit DLSS schnell laufen und das die alten 4000 Karten z.b. kein DLSS 4.0 Support erhalten. Das ist das selbe wie mit den GSync Modulen.... Außerdem wird nie jedes Spiel ovn DLSS profitieren, es gibt zahlreiche kleine Spiele Entwickler, die keine Zeit und auch kein Geld für sowas wie Raytracing DLSS und was es nicht noch alles gibt haben. Die müssen mit ihren Geld ganz anders Haushalten. Keins der Spiele, was ich spiele, besitzt DLSS Support!

    • @zerosnow5110
      @zerosnow5110 15 дней назад +1

      Danke, jemand der mir von der Seele spricht. Es ist genau das was ich mir auch denke und was wahrscheinlich auch viele dran stört das man "nur" für neuen KI Support eine teure Karten kaufen muss, obwohl die Leistungsdaten fast gleich sind.

    • @steffanzwerg3424
      @steffanzwerg3424 15 дней назад

      @zerosnow5110 So sieht es aus, teures Software ABO System.

    • @ice98mja1
      @ice98mja1 14 дней назад

      es werden auch kleine indi entwickler immer mehr auf dlss/fsr setzen! genau wie rt! und das gsync hat sich dieses jahr hoffentlich auch erledigt mit pulsar.

    • @steffanzwerg3424
      @steffanzwerg3424 14 дней назад +1

      @@ice98mja1 Wann den? DLSS kam 2018. 🤣 Und so lange, spiele ich gefühlt bereits Spiele ohne DLSS und RT, weil die das nicht supporten. Und wenn ich ein Spiel einmal durch gespielt habe, installiere ich es nicht 3 Monate später nochmal, nur weil DLSS dazu gekommen ist. Das ist auch nochmal ein Punkt. 😂

    • @zerosnow5110
      @zerosnow5110 14 дней назад

      @@ice98mja1 vor allem habe ich mit mal von Nvidia die Liste der Unterstützen Spiele angeschaut und die meisten haben nur DLSS 2.0, es sind auch einige mit 3.0/3.5 aber nicht die Mehrheit das es sich lohnt dafür in eine neue Karte zu investieren.

  • @TheDahakakiller
    @TheDahakakiller 14 дней назад

    4:00 Diese Aussage ist schlichtweg falsch die du da sagst. Die 5070 leistet auf gar keine Fall so viel wie die 4090. Die Rohleistung ist bedeutend schlechter.

    • @ice98mja1
      @ice98mja1 14 дней назад

      stimmt aber es wird immer mehr spiele geben die auf dlss oder fsr setzen von daher ist die rohleistung nicht mehr das mass der dinge!

  • @monsterduc747
    @monsterduc747 14 дней назад

    bin ein absoluter Laie was Spiele Programmierung angeht, aber wenn die Optimierung den Entwicklern soviel Zeit und Geld kostet - warum kann bei einem fertigen Spiel - vor Release - nicht noch schnell die KI drüber huschen und in 3,5 Minuten das Spiel optimieren ? Gerade die KI müsste doch in diesem Umfeld zu einer riesen Revolution führen, oder nicht ? wenn ich Deinen Beitrag richtig verstanden habe muss der Endkunde mit teuren Grafikkarten den "Geiz und Faulheit" der Spieleentwickler bezahlen, korrekt ?

  • @BBFPV
    @BBFPV 15 дней назад +1

    Als ob du alt genug wärst für eine Voodoo 1 🤣

  • @y0urselfishment
    @y0urselfishment 15 дней назад +2

    Was soll das? Es ist wohl offensichtlich, dass die 5070 nicht so viel leistet, wie die 4090. NVIDIA nachplappern ohne Verstand? Schwach.
    Spiele die kein DLSS unterstützen, profitieren gar nicht von diesen Software Performance Verbesserungen.

    • @jiloon-ci9jl
      @jiloon-ci9jl 15 дней назад

      welche Spiele gibt es, die kein DLSS haben, bei denen es relevant wäre?

    • @iamshiron
      @iamshiron 15 дней назад

      Dss wurde im Video gesagt btw.

  • @LaMaSt
    @LaMaSt 14 дней назад

    Der Titel sagt es sehr schön, man muss beginnen umzudenken.
    Ich glaube, der einzige Kritikpunkt momentan ist, dass eine 5080 mit "nur" 16GB kommt. Da hätte ich mehr erwartet. Aber noch kann eh keiner sagen, wie gut und schnell die neue Architektur und Speicher sind. Außerdem braucht Nvidia ja noch ein Verkaufsargument für die Ti Variante.

  • @madhausnintyone259
    @madhausnintyone259 15 дней назад +1

    kriegst du irgendwie geld von nvidia für jedes " ich sag euch so wie es ist"? nur weil du das 50 mal im video sagst hast du noch lange nicht recht

  • @fruchttiger000x0
    @fruchttiger000x0 14 дней назад

    Für diejenigen die sich für die genannte physikalische Grenze interessieren, hier mal grob und laienhaft angerissen. Wenn wir uns eine Leiterbahn wie eine Straße vorstellen sind auf beiden Seiten Barrieren durch die die Elektronen nicht passieren können. Nun ist die Position des Elektrons aber nicht fest bzw. punktförmig sondern eher als Wolke (der Wahrscheinlichkeiten) zu betrachten (siehe heisenbergsche Unschärferelation). Wird die Strukturbreite nun weiter gesenkt kann es passieren dass diese "Wolke" über den Rand der Leiterbahn reicht und sich das Elektron, mit einer gewissen Wahrscheinlichkeit, außerhalb befindet. Das wäre kurz gesagt schlecht. Wir reden hier natürlich vom Tunneleffekt. Man nutzt dies tatsächlich in Speicherchips aus um die Zellen mit Elektronen zu füllen aber das ist eine andere Geschichte :)

  • @catdad44
    @catdad44 15 дней назад +8

    Was eher aufregt, ist dass die so am VRAM geizen

    • @silentwater79
      @silentwater79 15 дней назад +1

      Ja, geht mir genau so, da ich vor allem größere LLMs lokal laufen lassen will und da ist vor allem der VRAM ausschlaggebend. Ob die Karte jetzt ein paar Shader mehr oder weniger hat, ist mir hingegen egal.

    • @iamshiron
      @iamshiron 15 дней назад +1

      ​@@silentwater79das ist leider der grund warum sie mit dem vram geizen. Sehr viele hobbyists werden sich eine 5090 nicht wegen der performance sondern den 32GB vram kaufen

    • @ice98mja1
      @ice98mja1 14 дней назад

      @@iamshiron 32gb braucht man bis dato nicht und bis man die braucht gibt es schon neue gpus das hat nichts mehr mit hobbyisten zu tun wer nicht auf geld schauen muss sagt auch nicht die sind viel zu teuer! alle die rum meckern wollen halt nur das beste was es gibt aber geschenkt die 5090 wird auch nicht die meistverkaufteste werden.

    • @catdad44
      @catdad44 14 дней назад

      @@ice98mja1 Die 32GB Vram braucht man nicht fürs zocken, aber für das arbeiten mit größere KI Modelle

    • @ice98mja1
      @ice98mja1 14 дней назад

      @@catdad44 also da würde ich aber keine gaming gpu/karte nehmen da gibt es andere optionen für

  • @98RudolphXmas
    @98RudolphXmas 14 дней назад

    Also bei so einer komischen Preisspanne und bei der ''Leistung'' vorgetäuscht wird durch DLSS ist halt frech. Ich freue mich schon auf die Zukunft, wo keine Sau sich mehr Mühe geben muss ihre Programme zu optimieren oder die nötige Hardware zu bieten, die man für das Geld und gute Ergebnisse verlangen kann...

  • @Karl_Jimmy
    @Karl_Jimmy 15 дней назад

    Wir gehen langsam aber sicher zur Grenze des Siliciums.
    Ob Germanium-Zinn oder Graphen oder Champignons, wir brauchen eine durchsetzbare Alternative innerhalb nächsten 15 Jahren.

  • @mangold81
    @mangold81 12 дней назад

    Also ich freue mich auf die 5000er und auch auf DLSS 4. Was ich sonst für ne Möglichkeit sehe für Performancesteigerungen, wären Multi-GPUs... Also z.B. 2x5090er auf ner Platine. Aber wie man das Kühlen will. Keine Ahnung.

  • @matthiasheide5226
    @matthiasheide5226 15 дней назад +6

    Einfach bei FullHD bleiben dann braucht man nicht überteuerten Karten.

    • @ice98mja1
      @ice98mja1 14 дней назад

      falsch es gibt so ganz schlaue zocker die bei fhd immer max fps haben wollen und denken die sind dan besser als andere lol

    • @matthiasheide5226
      @matthiasheide5226 14 дней назад

      @ice98mja1 Wieso für FullHD braucht man keine Rtx5090 oder 5080. Da reicht auch eine 4070 oder Rx7800xt

    • @ice98mja1
      @ice98mja1 14 дней назад

      @@matthiasheide5226 richtig aber man hört ja immer viele sagen die gpu soll ja zukunftsicher sein^^

  • @or4life89
    @or4life89 15 дней назад +7

    Das Problem sind nicht die physikalischen Grenzen sondern einfach die Menschen. Ich komme auch aus der 3dfx Zeit und freue mich über jedes plus an Leistung. Viele verstehen nichts über die Architektur von GPUs oder CPUs. Ich finde es einfach nur faszinierend und da ich als IT Techniker unterwegs bin, hab ich wahrscheinlich eh ne andere Sicht auf die Dinge aber ein Großteil der Menschen sind einfach nur noch schrecklich!

    • @Elabotrait
      @Elabotrait 15 дней назад

      Wie siehst du die Entwicklung für gaming GPUs in den nächsten 10 Jahren? Wird es bis dahin noch consumer grafikkarten geben? Ich würde mir wünschen, den Stromverbrauch der GPUs zu optimieren. Jedes Jahr wird mehr Strom für die Modelle gebraucht. Werden PSU mit 3000W in 10 Jahren der "Standard" sein?

    • @SimonBauer7
      @SimonBauer7 15 дней назад +1

      das Problem ist das die Preise einfach frech sind.

    • @or4life89
      @or4life89 15 дней назад +1

      @@Elabotrait woher soll den sonst solch eine brachiale Leistung kommen? Von gen zu gen ist viel Entwicklung dabei um das alles effizienter zu gestalten. Da ist der way to go einfach KI.
      Das wird mMn die Leistung Aufnahme in Zukunft etwas drücken aber die top Karten werden immer gut schlucken. Das war die letzten 20 Jahre so 😅
      Ich sag nur 8800 ultra 😅

    • @or4life89
      @or4life89 15 дней назад +2

      @@SimonBauer7 Wir leben in verrückten Zeiten aber die Entwicklungsdauer und die dafür verbrauchten Ressourcen müssen ja auch irgendwie wieder rein gebracht werden 😁

    • @ice98mja1
      @ice98mja1 14 дней назад

      @@SimonBauer7 echt sag das mal ferrari oder lambo oder die handy herseller aller lager und den bäcker was jetzt so ein brot kostet oder den stromanbieter oder gar die banken was die sich alles so nemen lol

  • @brancomeier3060
    @brancomeier3060 15 дней назад +12

    Warum sagst du unreflektiert, dass die 5070 soviel leistet wie die 4090? Dieses Narrativ von Nvidia sollte man nicht unterstützen. OK, unter gewissen Umständen - DLSS MFG muss vom Spiel unterstützt werden - kann die 5070 wrsh ähnlich viele FPS bringen, wie die 4090 nur mit FG. Das heißt aber nicht, dass sie das selbe leistet. Dafür muss man erstmal Tests abwarten, was diese 3 generierten Frames mit der Qualität und mit dem Spielgefühl - Stichwort Latenz - macht. Gibt es mehr Artefakte? Und wenn es nur nach FPS geht, dann kann ich mir auch für 9 $ Losless Scaling kaufen und dann "leistet" meine 4080 mit 4x FG wrsh deutlich mehr als die 5090 in einem Game ohne DLSS FG.

  • @NanukSeinKanal
    @NanukSeinKanal 14 дней назад

    Du sagst ein 5070 leistet so viel wie eine 4090? Das glaube ich nicht- lediglich Nvidia rechnet es sich schön mit DLSS. Aber 8 gb Speicher??? Ernsthaft. Das war bei der 20xx Serie schon zu wenig. Und sie machen es wieder. Selbst wenn DLSS extrem gut mit Speicher skalieren würde- es ist zu wenig. Viel zu wenig Speicher. Und ist es nicht genau im Gegenteil so das DLSS eher mehr Speicher braucht?

  • @roddoubler3989
    @roddoubler3989 15 дней назад

    wenn sie die Transistoren nicht kleiner machen koennen warum vergrößern sie nicht die Fläche des Chips. Damit hätte man doch auch mehr Leistung oder nicht?

    • @AncapDude
      @AncapDude 14 дней назад

      Je größer die Chips desto mehr Probleme hast du bei der Stromversorgung und Abwärme.

  • @mullewap6670
    @mullewap6670 14 дней назад

    Lichtleiter Prozessoren und Transistoren. Keine Hitze Probleme und Lichtgeschwindigkeit. Was will man mehr? Ist schon in der Forschung, soweit ich mitbekommen habe.

  • @xer1um
    @xer1um 15 дней назад

    Hey nerdy, ich möcht mir zum ersten mal einen PC bauen fürs zocken, Office software und Video editing. Ist dann die 5090 sinnvoll, oder ist raw power gefragt?(4090 usw.)

    • @xer1um
      @xer1um 15 дней назад

      Aber ein geniales Video. AI ist super interessant, wird aber eh noch* auf viel Hass stoßen, wegen der überlegenheit. Aber für Grafik und FPS is AI genial und womöglich umweltfreundlicher.

    • @Worlnof
      @Worlnof 15 дней назад +1

      Wenn du keinen 4k Monitor hast, brauchst du maximal eine 9070 xt

  • @King-Probo
    @King-Probo 15 дней назад

    Ich denke mal in spätestens 10 Jahren wird es auch Quantenrechner geben die alles um ein mehrtausendfaches beschleunigen können mit dementsprechend entwickelter software. Gibt es jetzt schon aber noch riesig und noch nicht für den freien markt da in der Forschung.

  • @tomekdargiewicz6397
    @tomekdargiewicz6397 6 дней назад +1

    die nviidia 5000 serie ist wie nvidia 3000 serie nur ein lüken füller , den 2027 komt nvidia r100 das ist eine echter leistungs sprung wie bei 3000 vs 4000 nvidia serie , wer eine 4000nvidia karte hat der braucht ganz und garnicht eine 5000 kartet , beser bis 2027 warten und dan richtiger 6000 nvidia karte kaufen . das ales kan man einmfach nachgoogeln

  • @zredplayer
    @zredplayer 15 дней назад +1

    Doch! man kann immer noch aus dem reinsten silizium rausholen!
    was ist mit 1nm ???

    • @iamshiron
      @iamshiron 15 дней назад

      Werden wir (vlt) irgendwann erreichen. Aber was mit 0nm?

    • @endgamek7820
      @endgamek7820 14 дней назад

      @@iamshiron 1.4 nm ist die Rede aber euch sollte klar sein von 4nm auf 3,2, 1nm wird nicht die Revolution bringen sondern nur kleine Verbesserungen. Es muss was anders kommen sonst ist erstmal stillstand!/hardwaretechnisch

    • @iamshiron
      @iamshiron 14 дней назад

      @@endgamek7820 kam vlt falsch rueber aber mein Komentar war eher auf Sarkasmus aus. Deswegen auch die "0nm". Ich weiss selber dass es in der Zukunft irgendwann das aus fuer die aktuelle Silizium-Technik sein wird ausser wir erfinden Grafikchips komplett neu.
      Selbes Problem aber auch mit CPUs. Wir sind langsam am Physikalischen Maximum was moeglich ist das sonst die Elektronen springen. Groesser koennen wir den die auch nicht machen wegen Latenzen und Bitfehler auf Grund von unterschiedlicher Laenge der Banen / zu lange Bahnen.

  • @odinsronja5566
    @odinsronja5566 14 дней назад

    ich sehe das total entspannt, Spiele werden für den Massenmarkt Produziert und dazu gehören nun mal auch die Konsolen diese sind weit weg von der Power moderner Grafikkarten, grafische Sprünge werden noch auf sich warten lassen vor allem wenn man eine 4080 oder 4090 besitzt und in 4k zockt (am PC was die wenigsten Menschen machen ) mit DLSS ob mit oder ohne FG. AI,Ki ist nur Marketing und damit kann man im Moment sehr viel Geld verdienen. PS. für Grafik Programme (Anwender) sind die neuen Karten sicherlich eine bereicherung.

  • @VirtuelleWeltenMitKhan
    @VirtuelleWeltenMitKhan 7 дней назад +1

    Nvidia will aber sicher auch nicht besser. Warum denn auch? Man hat im high end Bereich keine Konkurrenz außer sich selbst und die Leute kaufen die neuen Karten auch so.
    Also lieber das Minimum machen und trotzdem Geld verdienen.
    Dafür haben sie dann genug Reserven falls die echte Konkurrenz doch mal aufholen sollte.

    • @VirtuelleWeltenMitKhan
      @VirtuelleWeltenMitKhan 7 дней назад

      04:02 "eine 5070 leistet mit AI so viel wie vorher eine 4090"
      Das war erstmal nur das Werbeversprechen. Das würde ich so nicht als Fakt übernehmen, oder hat das schon mal jemand ernsthaft getestet?

  • @Nikolausi26
    @Nikolausi26 15 дней назад +1

    Ich bin überrascht, dass so eine weit verbreitete Gameengine wie die Unreal Engine 5 noch so viel Optimierung benötigt bzw. so ineffizient ist. Sollte die Optimierung die Gameengine nicht automatisch machen?

    • @Ransom-
      @Ransom- 15 дней назад +1

      such doch einfach mal im netz danach, was optimierung von spielen eigentlich ist ;)

  • @mullewap6670
    @mullewap6670 14 дней назад

    Habe ich vor 30 Jahren schon gesagt Wollte keiner hören,mit den Lichtleiter.

  • @labrowi5643
    @labrowi5643 14 дней назад

    Gamer sind offenbar eine seltsame Art Mensch... Nie zufrieden, immer mehr wollend und sich an kleinen Pixelfehlern aufgeilen, die sicher 99% nie von allein sehen würden...
    Vielleicht mal öfter nach draußen vor die Tür gehen und die Realität genießen. Von dem, was ihr für diese Grafikmonster ausgeht, leben einige Menschen einen ganzen Monat.

  • @pelle7771
    @pelle7771 11 дней назад

    "Wir" regen uns auf, weil es halt denn doch "erfundene" Frames sind. Das ist auch kein Weg, dass die KI-Engine rät, was so passieren könnte und mir das dann halt anzeigt. Die Frage ist doch, ob diese KI-Sachen das Geld wert sind. Müssten die Grafikkarten nicht eigentlich deutlich billiger werden, weil die Herstellung billiger wird und der Augenmerk tatsächlich auf die Qualität der Spiele-Engines und der Spiele selbst gelegt werden, statt auf Frame-Abschätz-Algorithmen? Soll die nächste Generation dann aus 10 fps 300 fps hochrechnen, weil wir "Qualität" in fps messen? Der Computer spielt dann mit sich selber und ich schau nur noch zu? Auf die Nais reagiert das Spiel dann nur noch sporadisch und ivh schaue praktisch einen Film.
    Es ist völlig richtig, dass die Optimierung an Grenzen stößt und zwar nicht nur aufgrund der Herstellungstechnik. Wir gehen langsam Richtung eine Atombreite - da machste nix mehr, egal wieste es baust. Die Frage ist ja auch, brauche ich 4K oder sogar 8K? Seien wir mal ehrlich, die Immersion hat jetzt seit Counter Strike 1.6 keine Riesensprünge mehr gemacht. Jedes 768 x 576 PAL-Fernsehbild mit 25 Hz interlaced sieht realistischer aus. Vielleicht sind wird auch in eine falsche Richtung gerannt.
    Aber die Frage ist ja. Soll ich aufrüsten? Und die Frage stellt sich nicht nur bei Grafikkarten. Fr8her habe ich ständig meine CPU gewechselt. K6, K6-2, K6III, Duron, Phenom-II... Und jetzt habe ich seit 10 Jahren einen i7-4771. Ja, jetzt hole ich mir mal einen neuen Rechner, weil Windows 11 nicht megr läuft und das Ding jetzt einfach alt ist. Aber das man damit nicht mehr arbeiten und auch einjges spielen könnte... ist nicht der Fall. Steckt ne GTX970 drin. Die spielt Manor Lords und Coutnrr Strike Global Offensive und CIV V (VI und VII habe ich nicht probiert). Natürlich spielt sie Counter Strike nicht kompetitiv gegen moderne Hardware und geübte Spieler, aber das Spiel läuff...

  • @masterbe591
    @masterbe591 14 дней назад

    Kann ja sein, dass das Leistungsplus nun vermehrt über Software und darauf optimierte Transistorschaltungen kommt, als durch Innovationsspünge in den Fertigungsprozessen. Leider unterschlägst du, das dieses ganze AI Zeug viel schnellen GPU-Speicher braucht und da treten die Geforce-Karten schon seit Jahren auf der Stelle.
    Generell ist es beim Gaming wie im Märchen "Der Hase und der Igel", Entwickler und Hardwarehersteller werden immer darüber streiten wer, wie Games schneller und besser gemacht hat bzw. wer hier wen out smarted.

  • @mikehaertsch
    @mikehaertsch 14 дней назад

    Wir müssen Neu denken???
    Ok, ich denk mal neu:
    Nehmen wir einen PC (RTX5090,9800X3D usw ca. 600-800Watt Verbrauch.)
    Ich nehme nun eine Knopfzelle und ändere den Strom quasi Homeopathisch=
    Potenzierung ins Unermessliche (Spannung) im Gegenzug (Ampere)ausdünnung ins Unermessliche.
    Der PC bleibt obeflächlich Materiel aus, kein Mosfet wird einen Strom sperren oder öffnen,
    aber der in der Materie feinstoffliche Anteil wird trotzdem arbeiten, genauso wie wenn der Materielle Anteil mit 600-800Watt
    alles Antreiben würden,mit dem Unterschied: der PC läuft mit einer Knopfzelle theoretisch dann 1000jahre(ps.Die Knopfzelle hält nicht solange, sie wäre wegen selbst Entladung nach Jahren schon defekt).
    Wir müssten nur die Ausgabe wieder zurück Potensieren?
    In der Medizin (mit dem Körper) funktioniert es ja, unfassbar eigentlich.
    Und wer weiss wie weit das zu Übertakten wäre(Unermesslich)

  • @evischlee5578
    @evischlee5578 3 дня назад

    Wenn Nvidia dann auch meine Stromkosten Übernimmt.😂

  • @indertat93
    @indertat93 14 дней назад

    Ich verstehe auch die ganze Aufregung über die neuen Nvidia Grafikkarten nicht. Wie schon im Video gesagt wurde DLSS ist die Zukunft. Und wenn man die neuste Version von DLSS, DLSS 4 benutzen will, dann muss man eben die neuen Grafikkarten kaufen. Diese Systeme zu entwickeln und zu trainieren ist mit einer menge Entwicklungsarbeit und entsprechenden Kosten verbunden. Das will Nvidia zurecht bezahlen lassen. Nur was den Vram angeht kann ich die Kritik verstehen. 16 GB sollten mittlerweile der Standard sein. Das die 5070 nur 12 GB bekommen hat finde ich dürftig.

  • @farbenjan8928
    @farbenjan8928 15 дней назад +1

    Man sollte dabei aber nicht vergessen, das beim einschalten der KI Funktionen, Die V-Sync Option nicht mehr aktiv sind. Das ist MIR persönlich wichtiger als FPS.

    • @ericschulze1337
      @ericschulze1337 15 дней назад

      echt? eigentlich nicht.. kann man alles zusätzlich noch aktivieren..

    • @farbenjan8928
      @farbenjan8928 15 дней назад

      @ lass mich gern eines besseren belehren. In allen Spielen die ich kenne werden die Optionen nach einschalten der Framegeneration ausgegraut.

    • @Nasty134
      @Nasty134 15 дней назад

      Was willst du heutzutage auch noch mit V-Sync, wenn du eh deine FPS in jedem Game selbst begrenzen kannst, egal ob im Spiel selbst oder im Treiber für jedes einzelne Spiel?
      Du bekommst doch mittlerweile schon gute Monitor mit 144Hz und aufwärts ab teilweise 250€.
      Ich selbst nutze V-Sync bestimmt schon fast 10 Jahre nicht mehr...

    • @AncapDude
      @AncapDude 14 дней назад

      Ich hab nen 144Hz Monitor und limitiere per RTSS auf 48 oder 72 Frames. Geht auch mit DLSS.

  • @dereine6493
    @dereine6493 14 дней назад

    Es ist die Zukunft, keine Frage, aber bisher spüre ich die zustzlichen von Ai generierten FPS nicht in der Maus und solange das nicht funktioniert, habe ich an FrameGen etc. kein Interesse.

    • @Jobanov
      @Jobanov 14 дней назад

      Fake Müll halt.. Ich deaktiviere den ganzen Dreck

    • @dereine6493
      @dereine6493 14 дней назад

      @@Jobanov Naja, das ist die Zukunft, da die Physik bald einen Strich durch die Rechnung macht und Entwickler ihre Spiele nicht mehr gut optimieren (dürfen). Es steht für sie ja viel Leistung zur Verfügung.
      Solange aber Nvidia und CO mit Ihrer KI nicht erreichen, dass ich die FPS spüre, sind sie nahezu nutzlos.

  • @moritzstephan5721
    @moritzstephan5721 15 дней назад

    Warum sich viele aufregen ist, weil die einzige echte Verbesserung in der Software und gar nicht in der Hardware liegt. DLSS 4 könnte auch auf RTX4000er Karten laufen, wenn Nvidia das wollen würde. Aber es wird als Kaufargument für eine neue Hardwaregeneration angeführt, die (abgesehen von der 5090) nahezu die gleichen Specs haben wie ihre Vorgänger inclusive dem geizig bemessenen VRAM.

  • @Lottergeist-Beetlejuice
    @Lottergeist-Beetlejuice 15 дней назад +2

    Ich bleibe bei meiner 4070 Super braucht nur 165 Watt Undervoltet und reicht für WQHD völlig aus.

    • @pusa5pusa
      @pusa5pusa 15 дней назад +1

      Das meine wohl ich auch habe bloß noch das ti danach, da vor 3080 s ti aber der Strom verbrauch ist stärker

    • @Lottergeist-Beetlejuice
      @Lottergeist-Beetlejuice 15 дней назад +1

      @@pusa5pusa ja das stimmt.

    • @pusa5pusa
      @pusa5pusa 15 дней назад +1

      @@Lottergeist-Beetlejuice

    • @AncapDude
      @AncapDude 14 дней назад +2

      Sogar meine 3060 Mobile reicht für WQHD völlig aus.

    • @ice98mja1
      @ice98mja1 14 дней назад +1

      wow also ich hab bei meiner 4080 im schnitt 55w aber ich mach mit ein fps capp rein was ich ja für jeden spiel einstellen kann warum sollten man auch mehr fps als hz vom monitor haben und ich hab nicht mal uv gemacht

  • @MetalSonic88
    @MetalSonic88 15 дней назад +1

    Ich sehe es gar nicht ein, so viel zu bezahlen.
    Daher warte ich auf die großen Karten von Intel.
    Als ich XESS zum ersten mal sah, war ich begeistert.
    Es war auf dem selben Niveau, wie Nvidia.
    Mit besseren Kühlern wäre mehr drin gewesen bei RTX 5000.
    Du weißt schon bei Spielen die kein DLLS unterstützen ist eine RTX 5090 nicht sehr sinnvoll.
    Mr. Nerd over Tech, kaufst du dir eine RTX 5090 sofort? 😁

  • @monsch1982
    @monsch1982 14 дней назад

    3dfx das waren noch Zeiten diesen wow Effekt hatte nie wieder... Was ich an den neuen Karten schade finde ist die doch für die heutige zeit geringe Speicher Ausstattung.

  • @axwellwow81
    @axwellwow81 15 дней назад

    Bei dern CPU's müssen endlich die alten Lasten abgeworfen werden, x86 ist einfach nicht mehr Zeitgemäß. Klar das wäre für die Branche ungemütlich und das hält auch die CPU Hersteller zurück. Aber nur so könnte man wirklich riesen Sprünge machen. Wenn man überlegt das Apple mit der ARM Architektur mit einem drittel der Stromabnahme und daher fast ohne Kühlung mehr Leistung rausholt in Anwendungen als zb. aktuelle Gaming CPU's? Klar das würde bedeuten das ohne neu Kompilierung alter Spiele diese nicht mehr Funktionieren würden ohne Emulation, aber sollte das die ganze Branche zurückhalten?

  • @oldseabear
    @oldseabear 15 дней назад

    Solange die Software der Hardware angepasst wird, ist das ja auch okay. Leider sind die aktuellen Spiele ja noch nicht mal auf die höheren Auflösungen optimiert, sage nur Final Fantasy XVI, dass da die Community mit Mods ran darf/ muss, ist nicht zu entschuldigen.
    Größe Sprünge habe ich nicht erwartet, dachte mir schon das DLSS eine neue Version bekommt, bin mal gespannt was an Strom aus der Steckdose gezogen wird. Da ich erst eine 4080 Super erstanden habe, hatte ich noch keine Lust mir die neuen Specs anzusehen. Warte auf eine Zusammenfassung in einem Magazin. Die RAM-Bestückung bei der 5090 soll ja höher ausfallen, wenn ich richtig gelesen habe. Denke, das könnte, die Enthusiasten locken, mich jedenfalls nicht.😉

  • @markusk8068
    @markusk8068 15 дней назад +1

    Wir werden wieder auf multi GPU gehen.. Ihr werdet sehen.

    • @bp-it3ve
      @bp-it3ve 15 дней назад

      nein das hatten wir doch und es war nie gut

    • @phoenixioon
      @phoenixioon 13 дней назад

      @@bp-it3ve Ja aber es gab da auch keine riesen Entwicklung weil man es nicht gebraucht hat

    • @bp-it3ve
      @bp-it3ve 13 дней назад

      @@phoenixioon Weil es nie gut war Mikroruckler und oft lief es nicht.

  • @hobby-schrauber3454
    @hobby-schrauber3454 15 дней назад

    Was kommt den dann als nächstes, wenn die Transistoren nicht mehr kleiner und die Software nicht mehr besser werden können, Quantenprozessoren 🤔?

  • @evex4829
    @evex4829 15 дней назад

    Es ist Unsinn zu behaupten, dass man an ein Hardware-Limit stößt. Die Realität ist, dass die Hersteller oft den einfachsten Weg gehen. Wenn KI gerade boomt, nutzen sie das aus und werben damit.
    Ein Beispiel: Die PS5 ist keine echte 4K-Konsole. Sie ist im Grunde eine 2K-Konsole und schafft nicht einmal das zuverlässig. Trotzdem wird sie als 4K- oder sogar 8K-Konsole beworben. Das war bei der PS4 und PS3 genauso. Die PS4 konnte eigentlich nur 900p und wurde auf 1080p hochskaliert, wurde aber dennoch als vollwertige Full-HD-Konsole beworben.
    Die DLSS-Technologie oder ähnliche Ansätze haben also nichts mit echten Hardware-Grenzen zu tun, sondern sind schlicht Marketing. Niemand stößt tatsächlich an diese Grenzen. Aber wenn es keine Konkurrenz gibt, warum sollte ein Unternehmen die Messlatte weiter anheben? Aus unternehmerischer Sicht ergibt es wenig Sinn, großartig mehr zu investieren, wenn man ohnehin keine Anreize dazu hat.

  • @joergbuscher3792
    @joergbuscher3792 6 дней назад

    100% deiner Meinung. Ich spiele fast immer FS2024. Ein extrem FPS forderndes Spiel. FS2024 hat angekündigt DLSS zu unterstützen, sobald die Karten verfügbar sind. Damit steht fest ich kaufe die Karte. Vielleicht erreiche ich damit ja 100FPS knackscharf und mit allen Optionen auf Ultra gestellt.

  • @elalemanpaisa
    @elalemanpaisa 15 дней назад

    Jeeein... Wir werden schon weiterhin grosse spruenge machen - das was du beschreibst wird eher ein Problem RISC sein, denn in Zukunft wird es viel mehr auf custom circuits (befehlsaetze) gehen sowie co processoren die keine general cpus mehr sind. Beispiele sind zB AES, GPUs und co.. CPUs sind einfach in allem schlecht, weil sie immer sehr ineffizient sind, aber halt einfach zu programmieren - wo brauchen wir denn mehr leistung? es sind immer sehr spezielle bereiche.

  • @jonnygudman1815
    @jonnygudman1815 15 дней назад +1

    Natürlich lässt sich die Leistung noch weiter steigern - das Stichwort heißt Paalellisierung, aber man will ja den Profit Maximieren. Einen anderen Grund gibt es nicht, oder ist vorgeschoben.

    • @iamshiron
      @iamshiron 15 дней назад

      Wenn das so simple ist würde mans tun. Schau dir mal an wie problematisch parallelisierung auf der CPU ist und da haben wir 16 Kerne, geschweige von 21000 Kernen.

    • @ice98mja1
      @ice98mja1 14 дней назад

      nein echt jetzt eine firma will auf unsere kosten gewinn machen sowas gehört verboten lol

  • @Swyt79
    @Swyt79 14 дней назад

    Kurz, es ist nicht mehr als ein upscaling der 5090 gegenüber der 4090... Alles andere ist Marketing

  • @lionserra9161
    @lionserra9161 14 дней назад +1

    Alles KI Fake. sollen sie die 5090 doch 8 Slots und 3KG schwer mit 1000W machen, mir egal, aber ich will keine fakeframes

  • @iamshiron
    @iamshiron 15 дней назад

    Find DLSS super, leider nutzen es AAA firmen aus.
    Finde wir sind bei Spielen am Ende der Grafik angekommen. Was ich hoffe ist richtiges gameplay. Kein boring 5v5 "tac" shooter. Kein neuen hero shooter, kein story game wo man von A nach B lauft. Jetzt ist gameplay gefordert

  • @CarlitoJo
    @CarlitoJo 15 дней назад

    Sehr gute Zusammenfassung! Top!

  • @Christian-ng9fx
    @Christian-ng9fx 15 дней назад

    Probleme bleiben trotzdem weiterhin mit immer neuen Techniken. Wie oft hat NVIDIA Probleme mit ihren Treibern seitdem sie RTX auf den Markt haben. Mehr Probleme als zuvor. Software/Spiele Entwickler könnten noch so viel aus den Spielen raus holen wenn anständig programmiert und optimiert wäre. Oft kommen Spiele Updates erst zu spät wenn es Nachfolger der Spiele raus kommen wo man sieht das alte Hardware es schneller macht und so flüssig wie nie gedacht. Da gibt es reichlich Spiele die einfach immer weiter optimiert werden und Updates erhalten. Siehe Gta5 und battlefield teile und viele weitere!

  • @ipadize
    @ipadize 15 дней назад

    aber der Sprung von 2 Nanometer auf 1 Nanometer würde eine theoretische verdopplung der Leistung bedeuten oder nicht?

    • @mikehaertsch
      @mikehaertsch 15 дней назад

      Ja, Genau wie von 4 auf 2(was ja voerst erfolgreich beim lithografieren bei TSMC gelang ).
      Aber 1nm ist noch Illusion

  • @benjaminreis5041
    @benjaminreis5041 15 дней назад

    Bin der Meinung das, Natives Gaming einfach schöner ist, ich habe generell DLSS aus. Das sind so Bildverschlimmbesserer wie man in AV Cinema Kreisen es nennt. Wenn die Grafikkarten die Leistung nicht bringen um damit auf 4K zu zocken mit 60FPS, naja dann sind sie einfach zu schwach auf der Brust und wir müssen uns damit abfinden. Eventuell stellt man sich mal die Frage ob X86 noch die richtige Architektur ist und man nicht in Richtung ARM geht, wenn es bei einem Betriebssystem möglich ist dann vielleicht auch bei einem Game? Immer mehr Leistung ist nicht immer der richtige weg.

  • @Darkstone84
    @Darkstone84 15 дней назад

    Dann dürfen wir es aber nicht mehr Leistung nennen. Das ist faktisch der falsche Begriff. Habe weiter oben gelesen Effizienz - das ist vlt der neue Maßstab. Es ist halt optimiert.
    Mich regt an der ganzen Sache auf, dass man durch die Darstellung unterschwellig gesagt bekommt, alle alten Karten sind Müll.

  • @N.M49
    @N.M49 15 дней назад

    Wieso sollte die Fertigung nicht auch im dreistelligen Angströmbereich verfeinert werden können?

  • @bigbillyone
    @bigbillyone 15 дней назад

    Man muss gar nichts. Man muss auch nicht immer alles mitmachen. Nvidia kennt die Kundschaft sehr gut. Dem gemeinen " Gamer " kann man alles verkaufen.

  • @silversurfer5922
    @silversurfer5922 15 дней назад

    Mehr Frames schön und gut aber was ist mit den Latenzen und input lags durch Frame Generation.. Wichtig ist dass sich das zocken super flüssig UND Direkt anfühlt..und nicht wie viel FPS da irgendwo auf nem counter angezeigt wird...

  • @TalonRavenblade
    @TalonRavenblade 15 дней назад

    Die Mehrperformance von 20-30% zum gleichen Preis (außer bei der 5090) finde ich durchaus ok und wenn das DLSS4 die Schwierigkeiten mit Artefakten/Schlieren und Latenz älterer Versionen reduziert und als Bonus sogar noch deutlich mehr bringt, sehe ich auch das Problem nicht was einige Leute damit haben die meinen nur Native sei das wirklich wahre...
    Wenn es keine bösen Überraschung gibt wird es bei mir eine 5070TI - die muss bei dem hohen Preis dann zwar etwas länger halten, aber ich hätte mir beinah vor einem Jahr eine 4070TIS gekauft die ähnlich viel gekostet hätte aber von der Grundleistung her halt 20-30% langsamer gewesen wäre, was ein deutlich besseres FPS/€-Verhältnis bedeutet und mit DLSS4 sowieso...

  • @kaibetche7961
    @kaibetche7961 14 дней назад

    Danke für die Zusammenfassung - it is like it is 👍

  • @Killertamagotchi
    @Killertamagotchi 15 дней назад

    1nm währe noch möglich alles darunter würde dann dazu führen das Elektronen springen also die Gates nicht mehr so funktionieren wie sie müssten.

  • @oliverwitt260
    @oliverwitt260 14 дней назад

    Zu "Worüber Regen wir uns auf?" --- Hauptsächlich über den Preis!!

  • @Murtal_at
    @Murtal_at 15 дней назад

    Gutes Video von dir ... stimmt genau was du sagst ! Komm auch aus der 3 dfx zeit .

  • @pasiber
    @pasiber 15 дней назад

    Also ich muss ehrlich sagen, ich hab ne rx 6700xt und zocke eigentlich jedes game am TV mit UHD und FSR P. Es läuft super, eigentlich bekomm ich jedes game mit angepassten settings auf 60fps und es sieht mit dem richtigen display/TV einfach fantastisch aus. Klar geht noch bisschen mehr Schärfe oder sowas aber ganz ehrlich. Das ist mir zumindest bisher noch keine neue Karte wert