Комментарии •

  • @pcgh
    @pcgh Год назад +113

    Schlagt ihr bei den neuen AMD-Grafikkarten zu? 🥊👊

    • @wolfwilkopter2231
      @wolfwilkopter2231 Год назад +21

      Nö, ich hab ne RTX3080 Aorus Master 12GB, das langt erstmal.
      Aber die Dinger sind schon nicht schlecht.
      Bin mal auf die Customs gespannt.

    • @user-pc2hf4ek7u
      @user-pc2hf4ek7u Год назад +10

      Ich denke in ein paar Monaten wenn sich die Preise ein wenig eingependelt haben

    • @Andreas1976K
      @Andreas1976K Год назад +13

      Klare Sache. XTX wird es werden.

    • @Matti728
      @Matti728 Год назад +15

      würde mir die kleine gerne holen, aber auch wenn sie "günstiger" als die Nv Karten sind, 1k ist immer noch eine Menge Holz. Von daher leider eher nicht.

    • @cuzzimbasti1539
      @cuzzimbasti1539 Год назад +18

      Nö hab ne 4090 :)

  • @tydaldelmar9728
    @tydaldelmar9728 Год назад +44

    Extrem gutes Video, sowohl kompetent als auch total sympathisch und ohne überflüssiges Grimassenschneiden. Vielen Dank, Raff!

  • @yosoy1loco
    @yosoy1loco Год назад +10

    @21:10 - Soweit ich es verstanden habe, geht das Problem noch viel tiefer. Es besteht ebenfalls auf niedrigen Auflösungen, sofern man entsprechend hohe Refreshraten nutzt und der Grafikkarte einen Headroom liefert. Es besteht auch nicht nur im IDLE, sondern auch während des Gamings von grafisch-leichter Kost wie Overwatch, Quake, CS, aber auch Farcry 6. Das merken viele nur nicht, weil viele "Gamer" nicht auf hohen Refreshraten zocken oder verstehen wie man diese in beide Richtungen einrichtet. Sie stellen die Refreshrate um und lassen adaptive Sync den Rest machen. [Da das Tearing nicht nur entsteht, wenn die FPS geringer als die maximale Refreshrate des Monitors sind, sondern auch wenn sie jene übersteigen, muss man eine Methode wählen die FPS zu limitieren. Eine Möglichkeit ist ein Framelimiter, entweder Ingame oder mit Programmen wie RTSS.]
    Mein bisheriger Eindruck aus diversen Foren, Reviews und Kommentaren ist, dass in diesem Fall keine verringerte Leistungsaufnahme bei AMD erfolgt, während Nvidia eben die Leistung der Last anpasst. Man verbraucht mit einer XTX dann also immer noch 350w, anstatt 230w, obwohl sie keine 300 fps mehr liefern muss, sondern nur knapp unter der Refreshrate mit den Frames landen sollte. Das heißt man hat nicht nur im IDLE eine zu hohe Leistungsaufnahme von 60-80w, während ich surfe oder in LaTeX arbeite, sondern eine noch größere Differenz von 100w bis 160w, wenn ich kompetitive, Indie oder leichte games zocke. Auf das Jahr gerechnet ist das im Vergleich zu einer 4080 nicht weniger als ein schlechter Witz und ganz sicher kein gewolltes Verhalten, um irgendeine "Performance" zu halten. Nvidia kriegt es doch auch hin. Ich weiß, dass AMD der Underdog ist, aber dieses Problem unter den Teppich zu kehren wie es laut Aussagen einiger AMD-Spieler der Fall ist, schadet mehr als zu nützen.
    Ich wollte zu Team Tomate wechseln, nachdem ich seit fast 3 Dekaden nur von Team Greed ausgebeutelt wurde, aber so?
    Entweder darf ich mir einen überteuerten und überdimensionalen Backstein mit einem zerfledderten Adapterkabel ins Gehäuse quetschen als würde sich ein 150 Kg schwerer Rastamann in der U-bahn auf mich und meine beiden Nebensitze pressen, oder ich darf Knight-Rider-Style ein geistig gehandicappten K.I.T.T. fahren, der zu doof ist seinen Spritverbrauch unter Rennstrecken-niveau zu halten, wenn ich mit ihm Einkaufen oder auf der Landstraße fahre.

  • @Bloodface1989
    @Bloodface1989 Год назад +105

    Lieber PC Games Hardware, ich möchte mich herzlich für den ausführlichen Test der Radeon RX 7900 XTX und RX 7900 XT bedanken. Es war sehr hilfreich, die Leistung dieser Grafikkarten in verschiedenen Szenarien zu sehen und zu vergleichen. Der Test war sehr gut recherchiert und aufschlussreich. Vielen Dank für die Mühe, die ihr euch gemacht habt. Ich schätze eure Arbeit sehr und werde eure Videos weiterhin verfolgen. Vielen Dank!

    • @anubis2960
      @anubis2960 Год назад

      Stimmt, muss ich dir Recht geben, sehr hilfreich. Behalte daher meine 4080 😂

    • @braveheart5708
      @braveheart5708 Год назад

      Die RTX kann DLSS 3 bedeutet nochmal 20 bis 30% mehr FPS.

    • @Malarunners6
      @Malarunners6 Год назад +1

      War das abgelesen ? 😂

    • @zernicht9r286
      @zernicht9r286 Год назад

      ​@@anubis2960 das muss hatt sein. aber manchmal macht man fehlkäufe

    • @zernicht9r286
      @zernicht9r286 Год назад

      ​@@anubis2960 16gb vram langen heute schon nicht mehr was machst du jetzt?

  • @keybattery
    @keybattery Год назад +6

    Mal was abseits der Grafikkarten: Ich schaue seit langem mal wieder ein Video von euch und die Qualität ist ja mal krass gestiegen! Gefällt mir 👍🏼

  • @jensus
    @jensus Год назад +25

    Wieder ein sehr gelungenes Video.
    Eine Frage ist mir dabei aber offen geblieben:
    Wie viel Strom verbrauchen denn die anderen Karten auf dem Markt so im Idle mit verschiedenen Displaykonstellationen? Ein Vergleich mit einigen anderen Karten der letzten 2-3 Jahre wäre sehr hilfreich das etwas besser einordnen zu können.

  • @Anders84m
    @Anders84m Год назад +6

    Danke für das tolle und ausführliche Video.
    #FragPCGH
    Mich würden Benchmarks der XTX interessieren auf Basis mit einem AM5 Board mit einem AMD Prozessor, da soll es ja Vorteile geben, bessere Timings?
    Oder wäre das zu vernachlässigen?
    Danke für eure Arbeit

  • @mittelscharf.
    @mittelscharf. Год назад +2

    Hi, Super Video. Das ganze ist jetzt 4 Monate her. Hat sich in Sachen Stromverbrauch bei Leerlauf/Desktop und Co. langsam was getan? Ein aktuelles Update wäre echt cool von euch.

  • @bobbaumeister7192
    @bobbaumeister7192 Год назад +2

    Hallo Raff. War ein sehr informatives Video. An sich schmecken die Karten schon, vor allem wegen des größer dimensionierten VRAMs . In meinem Fall besteht ein größeres Interesse am XT-Modell. Die Leistung liegt zwar unter der 4080, allerdings ist der Preis deutlich günstiger. Raytracing ist bei den Karten weniger ein Thema, aber gut. Es gibt einen Punkt, der mich etwas schlucken lies: Der Stromverbrauch im Multi-Monitoring Betrieb. Ich habe mir die PCGH Tests zu der 4070 TI und 4080 angesehen. Leider wird nirgends erwähnt, wieviel Strom die Nvidia-Karten mit mehreren Monitoren einfordern. Und leider fand ich dazu nichts im Internet. Tja, wie auch bereits andere in den Kommentaren geschrieben haben, ist der Stromverbrauch ein Thema. Währe klasse, wenn Du dazu ein paar Infos hättest.

  • @cornadoor5684
    @cornadoor5684 Год назад +7

    8K - 😜
    Danke für Deine sicher sehr aufwändige Arbeit.
    Die flexible Anzeigen der GraKa Leistung sind Gold wert.

  • @jensus
    @jensus Год назад +4

    #FragPCGH Könntet ihr vielleicht ein Undervolting / Powerlimit Test machen? Z.B. auf die gleiche Leistungsaufnahme wie die 4080 begrenzen oder den Effizienz-Sweetspot herausfinden und dann nochmal vergleichen und die Temperaturen, Lautstärke und Spulenfiepen vorher/nachher gegenüberstellen. Wäre mega interessant was diese Karten für einen Optimierungsspielraum bieten.

  • @jigglypuff4227
    @jigglypuff4227 Год назад +2

    Eure Test sind immer richtig gut und meiner Meinung nach das beste Format des gesamten PC Games Hardware Kanals und das schon seit vielen Jahren.

  • @Lackstreifen
    @Lackstreifen Год назад +3

    Wirklich gutes und informatives Video der PCGH von einem meiner favorisierten Hardware-Tester auf RUclips

  • @dermanu3444
    @dermanu3444 Год назад +3

    Gibt es eine weitere Liste zu dem Stromverbrauch? Um weitere Karten in allen Situationen zu vergleichen. Würde mich halt sehr interessieren, welches Modell man sich nach der effizient eher holen soll

  • @DZ-og7pm
    @DZ-og7pm 11 месяцев назад +3

    Mega Analyse, vielen vielen Dank für die ganze Arbeit und große Mühe 🙏🏻👏🏻 Respekt vor Eurer Arbeit 👌🏻🫶🏻

  • @deadline8242
    @deadline8242 Год назад +2

    WoW.. Da haste aber gute Arbeit abgeliefert! Fleissig, fleissig! ;-)
    Danke dafür!

  • @olafengelhardt193
    @olafengelhardt193 Год назад +2

    Top Video. Inhaltlich und von deiner Art und Weise wie Du es vorträgst. Danke dafür!

  • @mariannemaierle1377
    @mariannemaierle1377 Год назад +3

    Wow, das war mal ausführlich und gut! Fantastisch, danke.

  • @DJ-dBaxx
    @DJ-dBaxx Год назад +1

    Top Job Raff, wie immer👍sehr informativ und detailliert analysiert und nun zu deiner Frage: Nein und das hat mehrere Gründe: zum einen sind da die massiven Treiber-Probleme von AMD auf meinem PC >> Adrenalin Meldung 'Treiber Timeout.....' noch und nöcher bei meiner 6900xt RD Ultimate und das seit ca. 6 Wochen, ich kann es nicht mehr hören. Wir reden hier nicht von Abstürzen beim Gaming mit UV oder OC, sondern von Crashs in Standardsettings und Desktop-Betrieb!!! Ich bin auch Content Creator auf YT, elektronische Musik, und wie oft ist mir beim Videoerstellen/-hochladen der PC abgestürzt, das macht kein Spaß mehr. Einigermaßen stabil war dann der Adrenalin von Mai diesen Jahres, aber mit FreeSync an meinem Monitor ausgeschaltet und die HDR Funktion ist überhaupt nicht verfügbar. Testweise eine 6950xt von Asus probiert mit genau den gleichen Ergebnissen. Das Ende vom Lied: eine RTX 4080 von den 'Abzockern' zum Start überteuert gekauft und siehe da: alle Probleme beseitigt mit Top Leistungen in 4K/5K und erheblich weniger Stromverbrauch als die 6900xt. Trotzdem die Karte zurückgeschickt (Widerruf), da die Preise, Gott sei Dank auf Talfahrt sind. Werde noch etwas abwarten, um mir dann wieder eine 4080 zu holen. Zum Thema Preise der neuen 7900er Serie: wer morgen eine 'ergattern' kann bei AMD, der kann sich glücklich schätzen. Wie man gehört hat, sind die Kontingente nicht sehr hoch, was bedeutet, dass die Boardpartner erheblich höher ansetzen, als die 1050/1150 der FE. Meiner Meinung nach gehen die Preise in Richtung 1300-1500€, also wird eine Marktanpassung Richtung Nvidia erfolgen. Same procedure as every launch. Ich jedenfalls mache einen großen Bogen um die neuen Karten von AMD.

  • @King-Probo
    @King-Probo Год назад +2

    Danke für das sehr informative Video. Daumen hoch. Schlaf gut ;)

  • @Leutrim777
    @Leutrim777 Год назад +5

    Hab gerade verschiedene internationale Reviews über die Karten geschaut. Das Video hier von PCGH ist definitiv das beste!

  • @anahata8870
    @anahata8870 Год назад +3

    Danke für die Arbeit , tolle Thematik, gefällt mir.

  • @Exar-Kun
    @Exar-Kun Год назад +4

    Wo soll der Strom für USB-C bei der XTX herkommen, wenn diese diesbezüglich bereits am Limit läuft?

  • @Thiloyeah
    @Thiloyeah Год назад +3

    #FragPCGH: Werdet ihr mitteilen, inwieweit sich die Leistungsaufnahme (z.B. 144FPS, 2 Displays) durch Updates verbessert? Was darf man da erwarten?
    Erfolgen noch Standardtests, wie PortRoyal etc.?
    Temperaturen?
    Warum wurde in Sone, statt Dezibel gemessen? Warum liegen die Werte für Gaming und 100% manuell so extrem auseinander und sind somit ein Vielfaches lauter?
    Könnt ihr Videos machen, in dem die Specs und ihre Bedeutung und Messung thematisiert werden (ähnlich aber tiefgreifender als hier unter "Specs")?
    Schonmal vielen Dank für das Video, die ehrliche und faire Bewertung der Karten und dafür, dass ihr auch Coil whine miteinbezieht : )

  • @danielracecorner8095
    @danielracecorner8095 Год назад +3

    War perfekt zum Frühstück. Vielen Dank

  • @insaneOrbb
    @insaneOrbb Год назад +4

    Danke, dass ihr immer noch Doom Eternal bencht :) So ein wunderbar optimiertes Spiel. Nutze nicht zuletzt deshalb immer eure Benchmarks.

  • @Headloseh193
    @Headloseh193 Год назад

    Vielen Dank für den ausführlichen Test, aber was ich mich noch frage: wie ist die Performance unter Pci 3.0? Aktuell reicht mir noch mein X370 Board, aber ich will nicht 1200€ verpulvern.
    Gibt es eigentlich Mikroruckler? Also im Vergleich zu Monolithdesigns? Und wie sehen die 1% und 0,1% low aus?

  • @OOO0Oo00OOO0Oo0
    @OOO0Oo00OOO0Oo0 Год назад +1

    Vielen Dank für das ausführliche Video.
    #fragPCGH
    Ist denn bekannt, ob Customdesigns auch andere Displayanschlüsse verwenden?
    Ich betreibe derzeit eine Valve Index @DP und drei 4k-Panels an 2xDP, 1xHDMI.
    Mit einem solchen Setting wären die aktuellen AMD schon direkt raus.

  • @mj6653
    @mj6653 Год назад +3

    Danke für dieses sehr informative Video.

  • @user_x340
    @user_x340 Год назад +89

    In dem Fall muss ich sagen, da ist die 4080 deutlich effizienter. Also würde ich in den nächsten 1-2 Jahren alles im Regal liegen lassen, was nach GPU aussieht, damit die Preise schön weiter abschmelzen.

    • @Luuniixo
      @Luuniixo Год назад +3

      edit: nvm hast recht ist nicht nur im idle hatte das anders mitbekommen ... treiber updates sollten trotzdem noch etwas tun über die nächsten monate

    • @O7lV3R
      @O7lV3R Год назад

      Wenn du das machst ist es okay. Aber die Karten sind oft direkt vergriffen, selbst die 4090 für 2.000 Euro. Da wird so schnell nichts passieren, außer die Stückzahlen werden deutlich erhöht

  • @cemoscarreport
    @cemoscarreport Год назад

    Also super cooles Video wirklich , aber eine Frage hätte ich da woher hast du die AMD Led Beleuchtung im Hintergrund ? 😅

  • @FreeDay997
    @FreeDay997 Год назад +2

    klasse Video, sher schön erklärt

  • @georgbrantegger5208
    @georgbrantegger5208 Год назад +3

    #FragPCGH
    Mich würde das Undervolting Potential der RDNA3 Karten interessieren. 🤓
    Lässt sich die Effizienz der neuen Karten (so deutlich wie bei den RTX 4000 Karten) erhöhen, indem man das Powertarget senkt, oder undervolted? 😊
    Bei den Ada Karten waren ja noch ordentlich Effizienzgewinne ohne grobe Leistungseinbußen drinnen - das würde die AMD Karten noch deutlich attraktiver machen, wenn man da noch etliche Watt sparen kann 😇
    also vielleicht ein "Stromspar-Guide 2022 GPUs"😁

  • @SChuckLP
    @SChuckLP Год назад +4

    Habe gerade den Artikel regelrecht verschlungen! Vielen Dank für die herausragende Arbeit und die vielen interessanten Informationen! Rein objektiv betrachtet, sind das wirklich performante Produkte die AMD da am Markt platzieren möchte. Bedauerlicherweise leidet aktuell noch die Workload Effizienz, was hoffentlich noch durch Treiber Updates gefixt werden kann, denn insbesondere heutzutage ist dieser Faktor nicht zu vernachlässigen und muss beim Preis der Karten miteinkalkuliert werden, denn Energie wird auf absehbare Zeit garantiert nicht günstiger. Leistung und Lautstärke stimmen ansonsten absolut.

    • @waldowaldo1980
      @waldowaldo1980 Год назад

      Wenn AMD schon sagt es ist so gewollt,dann wird da nix passieren
      Im Prinzip die gleiche Sache wie ryzen 7000 durchgehend bei 95°...laut AMD gewollt....und nach wie vor immer noch so

  • @julianjupitah4364
    @julianjupitah4364 Год назад

    Danke für die Mühe! Wie performen die denn so mit After Effects und Blender?

  • @condalagia
    @condalagia Год назад

    Vielen Dank für die Tests. Was ich mich frage ist, wie sieht es mit der Latenz aus? Soweit ich mich erinnere, war/ ist das ein Thema bei Ryzen CPU bei mehr als 8 Kernen, da 2 CCDs

    • @AfF3lix
      @AfF3lix Год назад

      Ja bei CPU's hat die Hohe Latenz zwischen den CCDs dazu geführt das FPS leiden können wenn die Aufgaben zwischen denen hin und her geschoben werden.
      Um bei der Analogie zu bleiben: hier wären die vergleichbaren CPU 5800x/7800x
      Es liegt nur ein CCD vor es kann also nicht zur Verschiebung kommen.
      Die restlichen Chiplets sind wie das IO Die bei der CPU.

  • @paulexkiller3140
    @paulexkiller3140 Год назад +3

    Wie immer sehr informativ Danke sehr.

  • @user-pc2hf4ek7u
    @user-pc2hf4ek7u Год назад +199

    Ich find 1000€ für ein grafikkarte immernoch extrem viel

    • @Aedrrow
      @Aedrrow Год назад +5

      Mit MWST wahrscheinlich 1200€..

    • @zap900
      @zap900 Год назад +41

      für 1200 Euro konnte man sich vor 2,3 Jahren einen gehobenen Gaming PC zulegen

    • @T.K.Wellington1996
      @T.K.Wellington1996 Год назад +6

      Ich hab ne 4090 für 2300€. 😛

    • @Scharamo
      @Scharamo Год назад +13

      @@T.K.Wellington1996 Wer?

    • @Aedrrow
      @Aedrrow Год назад +34

      @@T.K.Wellington1996 1100€ mehr für ca. 12% mehr leistung😂

  • @mr.justice4976
    @mr.justice4976 Год назад +4

    20:30 ff. - Ich bin diesem Problem jetzt auch mehrfach auf die Spur gekommen, und das bereits bei 2xFHD@144Hz. Das Problem hatte ich aber bei Nvidia mit der RTX 3070 mit den gleichen Monitoren auch. Die RTX 3070 war zunächst ziemlich identisch vom Verhalten, ich konnte hier jedoch mit einigen Einstellungen im Control Panel gegensteuern. Bei AMD sieht es danach aus, als ob genau das nicht machbar wäre. In meinen Augen ist das höchstproblematisch, man kann im Grunde kein Silent-Setup im idle mit Multimonitorbetrieb herstellen, wenn es nicht irgendwann Möglichkeiten gibt im Adrenalin gegenzusteuern.
    Und überhaupt ist das absurd. Es gibt Szenarien, wo man ältere Spiele in 4K@144Hz spielt und der Verbrauch einer 7900 XTX z.B. vielleicht bei ca. 130-140 Watt oder auch bei 110 Watt liegen würde, weil die Karte hier kaum ausgelastet wird. Und daher würde sie hier zwischen idle, also Desktop wie Office / Surfen etc. und einem etwas älteren 3D-Game in 4K@144Hz überhaupt keinen Unterschied machen. Das kann und darf es nicht sein.

    • @mr.justice4976
      @mr.justice4976 Год назад

      Mein heutiger Test mit der 6700 XT.
      2xFHD@60-100Hz --> 7W@~70-130MHz RAM Clock ~ 38-40 C°
      SOBALD einer der beiden Monitoren (oder beide) mehr als 100Hz bekommt (nächster Schritt wäre 120Hz) --> 30W@1995MHz RAM Clock. ~ stetig steigend bis 60-65 C°, wenn nicht die Lüfter anspringen
      Der heftige Sprung des RAM Clock ist für mich nicht nachvollziehbar. Diese hohe Taktung braucht natürlich mehr Leistung, bringt mehr Wärme etc, und das NUR (!) weil einer der beiden Monitore 20Hz schneller läuft. Sorry, aber AMDs Aussage ist purer Bullshit denn das Problem hat offensichtlich RDNA2 auch. Es sollte sich eigentlich problemlos über Adrenalin steuern lassen, für mich ganz klar ein großes Versäumnis von AMD.

  • @spawnsen823
    @spawnsen823 Год назад +2

    Fantastisches Review!

  • @G0rrn
    @G0rrn 8 месяцев назад

    Wie sieht es denn heute mit der Leitungsaufnahme aus bzgl. Displays und Idle? Gab's da was von AMD?

  • @Rondalis
    @Rondalis Год назад +4

    Sehr schöne Karten gefallen mir.

  • @Tystros
    @Tystros Год назад +3

    Wie siehts mit Overclocking aus? Laufen die neuen AMD Karten schon weit oberhalb des sinnvollen Bereichs der Effizienzkurve, oder kann man da mit +30% power target noch viel rausholen?

    • @Artstye4you
      @Artstye4you Год назад

      Bei der 7900xtx ist die Luft mehr als dünn für oc bei der Referenzkarte

    • @ZeroB4NG
      @ZeroB4NG Год назад

      eher im gegenteil, habe gehört das mit -10% undervolting das ding kühler läuft, deshalb höher taktet und mehr FPS ausspuckt !? (ist halt die Frage obs dann noch stabil läuft, silicon lottery etc.) ...mal abwarten was die tech tuber da die nächsten wochen so berichten.

  • @onkeltom5699
    @onkeltom5699 Год назад +2

    Danke für die Infos klasse Job. 👍

  • @TurricanNP
    @TurricanNP Год назад

    21:46 Zur Zeit bin ich AMD Fan aber mich stört der hohe Idle Wattverbrauch der Karten schon.
    Wie verhällt sich das bei einer FullHD Auflösung?

  • @joeblackisback1
    @joeblackisback1 Год назад +5

    Sehr Geil, werde mir jetzt ein Bier holen und mir das Video reinziehen :)

    • @Syspender
      @Syspender Год назад +1

      Oida, wir haben Montag 16:00 Uhr

    • @joeblackisback1
      @joeblackisback1 Год назад +3

      @@Syspender Ich habe Urlaub xD

  • @derschorsch6318
    @derschorsch6318 Год назад +3

    Raff, du bist der Geilste!
    Danke für das Video

  • @maoS1000R
    @maoS1000R 10 месяцев назад

    und wie sieht es in relation zur cpu auslastung aus, zwischen nvidia und amd ? oder der bildqualität ? fps sind immer relativ...

  • @joachimwieltsch6313
    @joachimwieltsch6313 Год назад +1

    Danke für den von der technischen Seite her hervorragenden Test und die viele Arbeit.
    Aber 1:00: "Warum sind die so billig und gibt es einen Haken?":
    Ja! Der Haken ist, dass 1.150 € schlicht und ergreifend nicht billig ist 🙂

  • @Andre240580
    @Andre240580 Год назад +4

    Wie kann ich die Leistung als VR Spieler einstufen?

  • @roberthuxoll8500
    @roberthuxoll8500 Год назад +6

    Eines ist mir nicht ganz verständlich geworden: Wird der viel zu hohe Stromverbrauch bei 4K 120Hz nur über die Displayports oder auch über HDMI verheizt? 🤔🤒

    • @Claus-S
      @Claus-S Год назад +1

      Mir auch nicht #FragPCGH

  • @stillready6405
    @stillready6405 Год назад

    Ist es möglich, dass Board Partner (Karten) oder Treiber Updates den Stromverbrauch in Ruhezustand mit mehreren Monitoren (mit hoher Bildwiederholrate) runterdrosseln können?

  • @marko9654
    @marko9654 Год назад +10

    Schön zusammengefasst. DLSS/FSR wurden jedoch nicht erwähnt. Für mich ist das für Games in 4K das wichtigste Feature und hier hat Nvidia einen klaren Vorteil.

  • @thedarkele
    @thedarkele Год назад +3

    Dass die GPU 100w im Idle bei hohen Auflösungen braucht, ist ein absolutes Nogo (gerade in der heutigen Zeit). Keiner holt sich sone GPU, um die hinterher bei FullHD 60Hz zu betreiben.

  • @floriantdrahcir7063
    @floriantdrahcir7063 Год назад +1

    Geile Arbeit - Danke

  • @thbor26
    @thbor26 8 месяцев назад

    Hallo zusammen, ein sehr informatives Video! Allerdings auch viel Informationen. Ich nutze sehr intensiv den Microsoft Flugsimulator 2020 und für den soll nun ein neuer Rechner her. Die Konfiguration steht soweit, allerdings ist nun die Frage AMD RX 9500 xtx oder die RTX 4080. Habt ihr, nur bezogen auf den MSFS 2020 eine Empfehlung?? Herzlichen Dank. VG Thomas

  • @massivebuilder
    @massivebuilder Год назад +7

    Wenn man eine 1200€ Karte als billig bezeichnet 😂😂 Da läuft einiges falsch in der Hardwarebranche.

    • @LA_3000
      @LA_3000 Год назад

      Ist halt der Wandel der Zeit, ein Golf kostet heutzutage auch so viel wie früher ein BMW.
      Wenn man bei der Technik das aktuellste und beste haben will muss man halt dafür bezahlen, ansonsten gibt es ja genug Alternativen die günstiger sind und genau so funktionieren wenn man hier und da Abstriche macht

    • @massivebuilder
      @massivebuilder Год назад

      @@LA_3000 Schlechter Vergleich von dir. Ein passenderer Vergleich: Wenn du für ein Auto, dass mit 100km/h fahren kann, 70.000 Euro verlangst. Eine Einsteigergrafikkarte die nicht mal richtig FHD kann, für 300€ im Jahr 2023 zu verkaufen, ist einfach nur krank und kann nicht schöngeredet werden. Aber hey, jeder wie er es mag. Es gibt Menschen, die denken ein Handy wäre über 2000 Euro wert, weil es Whatsapp Nachrichten schreiben kann und RUclips unterstützt. Das zeigt einfach nur, dass sich die Menschen gerne abzocken lassen und die etwas Klügeren nutzen es halt aus.

    • @LA_3000
      @LA_3000 Год назад

      @@massivebuilder dann kauf es nicht und nutz 10 Jahre alte Technik und zock alles in low Details.
      Aber heul nicht rum von wegen „abzocken lassen“ offne mal die Augen was in der Wirtschaft so abgeht….

  • @Hulkmensch
    @Hulkmensch Год назад +5

    Mich würde die Streaming Performance im Vergleich zu den Nvenc Encodern von Nvidia interessieren. Und wie sieht es aus, wenn man die Karten unter PCI 3.0 laufen lässt, gibt es starke Leistungseinbußen ?#FragPCGH

    • @ThorDyrden
      @ThorDyrden Год назад +2

      Die angebliche Verbesserungen der Video-Engine fände ich auch interessant... NVenc oder Quicksync waren immer so deutlich besser, als AMDs AMF, dass sich die Karten schon fast disqualifizierten, wenn man mit OBS & Co etwas hochwertigere Feierabendstream produzieren wollte - von Videobearbeitung ganz zu schweigen.

    • @OtaQ
      @OtaQ Год назад

      Jupp, würde ich auch sehr gerne wissen!

    • @elkapitan8014
      @elkapitan8014 Год назад +1

      Auf so einen Vergleich warte ich auch !

    • @surylam1758
      @surylam1758 Год назад

      Eine 4090 verliert in UHD und WQHD max. 2% an Leistung auf PCI-E 3.0. Im Vergleich zu 4.0. Das dürfte bei AMD nicht schlimmer sein, denke ich

    • @neurolepticer1284
      @neurolepticer1284 Год назад

      PCIe 3.0 vs 4.0 RX 6900 XT ruclips.net/video/NF_j63WXDbk/видео.html PCIe 3.0 vs PCIe 4.0 || RTX 4080 ruclips.net/video/f2I3qEsQxH4/видео.html

  • @TheAndy2002de
    @TheAndy2002de Год назад

    Darf ich mal was fragen, ich hab die Vega64 könnt ihr nicht auch die in den Benchmark packen? Damit ich und viele andere wissen wie groß der Leistungsunterschied ist? Weil die Vega64 ist ja ebenfalls 4k Ready.

  • @larslokibuchholz4008
    @larslokibuchholz4008 Год назад

    mal eine andere frage, ich habe mir einen neuen pc zusammen gestellt, habe mich aber leider dann doch für ein 600W netzteil entschieden, könntet Ihr mir da eine Passable Grafikkarte empfehlen?

  • @attenzionee6568
    @attenzionee6568 Год назад +4

    Schade. Ich habe sehr sehr lange gewartet, bin aber doch enttäuscht. Wenn ich die Entscheidung zwischen einer Customdesign AMD Karte vs Nvidia entscheiden muss, dann fällt die Entscheidung "leider" auf die Nvidia. Stromverbrauch, RT, Treiberprobleme und die absolut ungewisse Zukunft der DLSS Variante von AMD. Wenn das nächstes Jahr in die Hose geht, dann steht man mit einer 1300€ Karte extrem doof da.
    Somit dann doch die absolut sichere, leise und stromsparende 4080 für 150€ mehr.

  • @phill3667
    @phill3667 Год назад +20

    Danke für die Mühe und das zusammentragen der ganzen Fakten. Wie immer super informativ und auf den Punkt. Leider bin ich mir immer noch unsicher obs jetzt ne 4080 oder ne 7900xtx wird, mal schauen was die nächsten 2 Wochen so passiert und wie die Partnerkarten sich mit den neuen GPU´s machen und was sie dann am Ende tatsächlich kosten.

    • @D4rkResistance
      @D4rkResistance Год назад +9

      Also ich habe seit Freitag meine RTX 4080 FE und kann dir sagen...absolut geile Karte! 🥰👍 Aber ja...den Preis braucht man nicht schön zu reden. Da musste ich auch 10x überlegen, ehe ich auf "Kaufen" gedrückt hab. Aber die Nutzungsdauer von min. 4 Jahren und die Tatsache, das Gaming mein einziges Hobby ist, haben mir die Entscheidung dann deutlich leichter gemacht. 😉

    • @Freddyboy81
      @Freddyboy81 Год назад +3

      Kann dir auch die 4080 empfehlen. Flüsterleise und der Stromverbrauch ist echt nice.

    • @reijhinru1474
      @reijhinru1474 Год назад +3

      @@D4rkResistance hammer karte alles richtig gemacht. hab mir auch eine 4080 fe gekauft. hat deine karte auch etwas spulenfiepen? meine hat leider etwas spulenfiepen und ich hoffe das wird mit der zeit besser.

    • @lutzfritzsche4848
      @lutzfritzsche4848 Год назад +1

      Wenn Raytracing, dann 4080, aber besser 4 Wochen warten, sonst argerste dich nur.

    • @SweeTDave2
      @SweeTDave2 Год назад +3

      Ich schließe mich allen an , habe auch ne 4080 sie hält was sie verspricht , wirklich Flüsterleise , extrem gute Leistung , sehr Effizient und ein Raytracing Monster. Meine Kaufentscheidung hängt auch am Raytracing und ich würde auch eher zu Nvidia greifen. Ich hab übrigens die Gamerock 4080 von Palit. Grüße Dave

  • @Twisterstorm1
    @Twisterstorm1 Год назад

    Erstmal vielen Dank für die Erklärung, das hat mir einigen Aufschluss gegeben.
    Die Benchmarks kamen ja vor dem Update zu Witcher3 raus. Gäbe es die Möglichkeit, den Part zu Witcher3 zu aktualisieren? Mich würde sehr interessieren, wie sich die Karten mit DirectX12 und den aufgehübschten Grafiken des Spiels schlagen

  • @RasierapparaT
    @RasierapparaT Год назад

    3:43 - dachte die rechte Karte kippt weg :D

  • @Smartphoenix1982
    @Smartphoenix1982 Год назад +18

    Ich behalte meine 580€ 3080 10GB. Das waren schon 200€ mehr, als ich sonst für eine GPU bereit war. Wer mal vom Gedanken weg kommt immer alles auf maxed out stellen zu müssen, der wird erstaunt sein wie gering der optische Unterschied ist, aber wie groß der Framegewinn dafür.

    • @WeristdieserAlias
      @WeristdieserAlias Год назад +2

      Hab immer noch meine 2080 und kann alles was ich habe auf hohen Einstellung sauber spielen. Mal abgesehen davon, dass die meisten guten Spiele überhaupt keine großen Grafikmonster sind.

    • @SebbS82
      @SebbS82 Год назад +1

      Dann aber sicher gebraucht? Ich kaufe prinzipiell gebrauchte Karten nur von Leuten, die ich kenne. Aber die neuen NVIDIA-Karten sind einfach nur überteuert. Meine Schmerzgrenze wurde mit der 3080 12GB erreicht.

    • @GAMEOVER-jm7fd
      @GAMEOVER-jm7fd Год назад

      Ich auch

    • @surylam1758
      @surylam1758 Год назад +2

      Oder DLSS nutzen. DLSS verdoppelt die Fps in vielen fällen. In Qualität sieht es oft sogar besser aus als nativ mit Anti Alising.

    • @EDCB291
      @EDCB291 Год назад +2

      Also mein Sohn hat eine "Sapphire Vega 64 Nitro+" aus 2018 und spielt aktuelle Titel auf Ultra. Ich hab mal bei ihm "Sniper Ghost Warrior Contracts 2" auf Ultra gespielt. Das lief problemlos. Ich hatte zwar nur 40fps, aber dennoch war das Spiel immer noch sehr gut spielbar! Auch "Horizon 5" läuft auf seinem Rechner mit "Extrem" Einstellungen flüssig. Eine Nvidia macht nur Sinn wenn man Rytracing will, aber ist Raytracing diesen Aupreis wert? - Definitiv nicht! Ich habe eine RX6900XT und zocke auf einem OLED mit 4K und HDR - das ist der Wahnsinn. Die kostet 500 Euro weniger als die RTX4080 und über 1000 Euro weniger als die RTX4090. Kauft man sich heute eine Karte aus dem Mittelfeld, ist man bestens für die nächsten Jahre bedient.

  • @Nizzl253
    @Nizzl253 Год назад

    Wie steht es denn um den Stromverbrauch der Radeon Karten in 2k im Vergleich zu 4k? Ist der Stromverbrauch auch so ..gottlos in 2k144hz?

  • @oliverhans5729
    @oliverhans5729 Год назад +1

    Sehr guter Test!

  • @seniorgamer1156
    @seniorgamer1156 Год назад +3

    Ich bleibe für die nächsten 1 bis 2 Jahre bei meiner 3080, es muss nicht immer alles in Ultra und Raytracing sein. Ich wage zu behaupten, den Unterschied zwischen High und Ultra
    sieht so gut wie keiner.

    • @Kirnale
      @Kirnale Год назад

      Ich mag meine 1070 xD

  • @christianxontor8714
    @christianxontor8714 Год назад +3

    Daumen nach oben Top Video 🙂. AMD war ja früher nicht bekannt für gute Treiber was sich aber seit den Radeon 6000er Karten doch ziemlich verbessert hat! Wenn ich mir die Leistung der 6000er Karten nach release anschaue und diese mit jetzt vergleiche hat sich da einiges getan. Ich bin da sogar der Meinung, dass AMD in den letzten drei Jahren bessere Arbeit geleistet zu haben wie NVIDIA. Wie seht Ihr das und was könnte man dann noch von diesen Karten erwarten. Zu Euerer Frage: ja

    • @soausf2438
      @soausf2438 Год назад +1

      Kann ich leider nicht behaupten die Treiber Probleme sind auch bei den 6000ern

    • @nicobraun9540
      @nicobraun9540 Год назад +1

      @@soausf2438 Dann würde mich mal rein aus Interesse interessieren, was genau für Probleme es gibt.

    • @waldowaldo1980
      @waldowaldo1980 Год назад +1

      @@nicobraun9540 wo soll ich nur anfangen?😂....bei der Adrenalin Software die rumspackt sobald irgendwas umgestellt wird statt auf Auto zu lassen,microruckler alle paar Sekunden in diversen Games,plötzlicher schwarzer Bildschirm ingame...und Man ist im Desktop weil Treiber gecrashed ist
      Alles Sachen die ich in 10 Jahren Nvidia nicht hatte
      Und das schlimmste davon ist,du kauft eine 6800xt,6700xt und 6900xt...und mit allen 3 bekommst du kein Bild ,weil AMD das Software und Chipsatzmäßig nicht schafft es zum laufen zu bringen
      Jedesmal musste erst die gute GTX 970 als Retter in Not herhalten
      Ich würd's ja noch vertehen wenn es mit einem Intelbrett so wäre.....aber hauseigener ryzen 5000 ,b550 Brett mit neuesten BIOS und AMD GPU.....
      Und hola...der Computer sagt nein 😖
      Für mich unverständlich

    • @nFinity1985
      @nFinity1985 Год назад +1

      Kann ich so unterschreiben, meine 6900XT wurde mit jedem größeren Treiberupdate besser. Wenn ich daran denke, das ich bei Cyberpunk zu Beginn die reinste Diashow hatte als ich RT aktiviert hatte und das mit jetzt vergleiche, wo ich mit 60+ fps auf WQHD zocken kann. Auch kann ich diese ganzen Treiberprobleme die es geben soll nicht nachvollziehen. So lange man nicht irgendwelche Einstellungen im Treiber ohne zu wissen was man dort eigentlich macht ändert, laufen die Karten auch 1A. Vorrausgesetzt natürlich, man hat alte NVidia-Treiber sofern vorhanden sauber mit DDU entfernt oder das System mal komplett neu aufgesetzt. Denn oftmals sitzt das Problem nicht im Treiber sondern im Anwender vorm Monitor.

    • @nicobraun9540
      @nicobraun9540 Год назад

      @@waldowaldo1980 Tja und davon ist nicht mal ein einziges der Probleme bei mir oder bekannten (welche alle AMD nutzen) aufgekommen. Eher im Gegenteil, mit meiner alten GTX 1060 hatte ich wesentlich mehr Probleme 🫠

  • @ulfs.3793
    @ulfs.3793 Год назад +1

    #FragPCGH Bei dem erschreckenden Anstieg das Verbrauchs bei Anschluss eines 144 Hz Monitors...habt Ihr mal getestet, wie sich das bei einem 240 Hz oder gar 360 Hz Monitor verhält? Liegt dieser hohe Verbrauch nur bei 4k Monitoren vor? Habe einen 21:9 Monitor mit 2560*1080 , aber eben 144 Hz.. wäre der Verbrauch hier auch so hoch?

  • @gatou
    @gatou Год назад

    Ab wie viel uhr geht die 7900er serie in europa in den verkauf?

  • @chikita157
    @chikita157 Год назад +3

    Überlege ernsthaft von ner 3070 auf die XTX zu wechseln

  • @thejackimonster9689
    @thejackimonster9689 Год назад +3

    1150€ ist das neue "billig"... Sachen gibt's. ^^'

  • @Zorastegard
    @Zorastegard Год назад

    Danke dir vielmals! Aber wo bleibt der OC ? ;)

  • @UserNameUserNameUser
    @UserNameUserNameUser 10 месяцев назад

    Wurde das Problem mit der hohen Leistungsaufnahme der 7900 XT bei Single-Display mit hoher Bildwiederholrate mittlerweile gefixed?

  • @hypnofba
    @hypnofba Год назад +6

    Geiles Teil, aber der Preis wird sich iwo bei 1300-1400€ einpendeln genau wie die 4080.

    • @syrocoo1
      @syrocoo1 Год назад

      Jo denk ich auch, dann muss man sich wohl entscheiden, das eine gegen das andere.....bei 100€ hin oder her, würde ich persönlich tatsächlich die Nvidia nehmen, aber die hat wiederum kein USB-C was ich für VR bräuchte -.-

    • @froznfire9531
      @froznfire9531 Год назад +1

      AMD wird schon unter Nvidia bleiben müssen, dafür fehlt es dann an RT Leistung und aktuell FSR 3.0. Ich tippe auf 1.2 für die RE.

  • @guni7495
    @guni7495 Год назад +10

    So wie erwartet, gleich auf +- 4080 in Raster, letzte generation Nvidia RT Leistung und dabei höherer Verbrauch und lauter als die 4080. So wie erwartet hat der niedrige Preis seinen Grund. Trotzdem sind die XTX und die 4080 beide interessant , wenn die XTX als Custom kommt sind es wohl dann 1199 oder 1249 Euro und kommt der 4080 umso näher im Preis. Irgendwie kommt es mir doch so vor als ob Nvidia und AMD wissen was der andere machen wird.. Das Ganze ist so angepasst, wenn Nvidia günstiger gewesen wäre hätte AMD nochmal runter gehen müssen im Preis, aber ist ja nur meine Meinung. Man muss aber auch sagen dass die RT Leistung einer 3090Ti mit DLSS und dann ggf. auf der XTX mit FSR 2/3 gut genug sein wird um es gut nutzen zu können. Die 4090 ist nunmal schon auf dem Level der nächsten Generation in 2 Jahren, wenn man es haben und es sich leisten kann, dann warum nicht...

    • @lokibier
      @lokibier Год назад

      10% mehr Raster Leistung als die 4080 ist für dich gleich auf ???? Are u drunk? 😁

    • @Freddyboy81
      @Freddyboy81 Год назад +3

      @@lokibier Dafür 25% mehr Leistung im Raytracing. Wir sprechen hier von High-End...da muss das ordentliches Raytracing schon drin sein. Zudem 80-100w weniger Verbrauch im Schnitt, wesentlich leiser und wesentlich besser im Bereich Rendern und Bild/Video/3D-Bearbeitung (ist auch vielen wichtig) usw usw. Ich denke beide Karten haben ihre Zielgruppen.

    • @mikeryan1043
      @mikeryan1043 Год назад

      @@lokibier 4% mehr Rasterleistung für die XTX. Der einzige Kontext, in dem hier 10% gefallen ist, ist 10% weniger Rasterleistung für die XT.

    • @lokibier
      @lokibier Год назад

      @@mikeryan1043 hast du dir die Grafen angesehen ? Ich sehe da 10%. Ebenso bei Igor etc ?

    • @mikeryan1043
      @mikeryan1043 Год назад

      @@lokibier 11:40

  • @dennispicker
    @dennispicker Год назад

    Auf welche Temperaturen kommen die beiden Karten im Gaming?

  • @neiculcipher
    @neiculcipher Год назад +2

    wie stehts bei denen mit VR

  • @saschakruger3699
    @saschakruger3699 Год назад +6

    Den Preisunterschied zur 4080 frisst die XTX mit dem Stromverbrauch bei den aktuellen ganz gut weg... Meine Treiber-Erfahrungen waren bei AMD sehr negativ, daher wird es wohl die 4080

  • @MichelPougin
    @MichelPougin Год назад +5

    Danke Raff! Du bist der beste Grafikkarten-Profi und nach deinen Videos und den hervorragenden Online-Tabellen ist man definitiv optimal informiert.
    Ich mag den integrierten USB-C für VR-Headsets sehr. Schade, dass nVidia Karten das nicht haben. Und wie immer ordentlich RAM. Ich mag aber auch Raytracing und sitze da zwischen zwei Stühlen.
    _____
    #FragPCGH:
    - Man liest viele Benchmark-Tabellen, ich würde gerne mal in einem Vergleichsvideo sehen, wie die Unterschiede im Gameplay visuell ausfallen.
    - Als Beispiel ein Gameplay-Splitscreen-Vergleichsvideo von Cyberpunk 2077 der beiden Flaggschiffe 4090 und 7900 XTX in UHD. Ein Vergleichsvideo mit Raytracing und ein Video ohne Raytracing.
    => Hier die Frage: Wie sieht das CP2077-Gameplay 4090 vs. 7900 XTX mit und ohne Raytracing aus?

    • @s.7208
      @s.7208 Год назад

      die 4090 im vergleich zur 7900xtx bringt nicht wirklich was. die 4090 ist deutlichst schneller, kostet aber halt auch 1100 euro mehr. vergleichbar ist die 7900xtx eigentlich nur mit der 4080, das wäre ein fairer vergleich und tatsächlich interessant

    • @MichelPougin
      @MichelPougin Год назад

      ​@@s.7208 Du hast den Sinn leider nicht verstanden oder nicht richtig gelesen.
      Mir geht es darum die Benchmark-Zahlen der beiden Flaggschiffe im Gameplay-Vergleich zu sehen. Ich möchte also im Gameplay sehen, was der 4090-Vorsprung ausmacht (nicht nur Balken und Zahlen). Sieht die 4090 im Vergleich zur 7900 XTX sehr viel flüssiger aus, dass es sich für Grafikenthusiasten lohnt tief in die Tasche zu greifen? Oder sieht es bei der 7900 XTX (mit und ohne Raytracing) flüssig genug aus und man kann eine menge Geld sparen. Daher bringt dieser Vergleich durchaus was! Wenn zwei Games einen gleich langen Benchmark-Balken haben, dann wird in einem Splitscreen-Gameplay-Vergleich die linke Seite genau so aussehen, wie die rechte. Die Arbeit kann man sich sparen.
      Es geht auch darum am Beispiel der beiden Flaggschiffe die Benchmark-Zahlen zu visualisieren! Man sieht viele Balken und Zahlen, schön wäre daher mal ein Gameplay-Beispiel, um zu sehen wie flüssig die fps-Angaben im Vergleich aussehen. Zahlen sind abstrakt, nicht jeder hat eine genaue Vorstellung ab wann etwas flüssig wahrgenommen wird und ab wann es keinen Unterschied mehr ausmacht. Ein Gameplay-Vergleich zeigt, was die Zahlen bedeuten und was es letztlich bringt.

    • @s.7208
      @s.7208 Год назад

      @@MichelPougin na dann überleg dir mal was wie man das zeigen kann, wenn youtube nur 4k 60fps anzeigen kann. in gameplays hast du auch nur zahlen

    • @MichelPougin
      @MichelPougin Год назад

      @@s.7208 Daher wollte ich ein Vergleichsvideo von Cyberpunk 2077 sehen. Ohne Raytracing liegen beide unter 60 fps (44,8 vs. 42,5 fps). Mit Raytracing liegt die 4090 nur 7 fps darüber (67 vs. 31,9 fps). Wenn man diese 7 fps außen vor lässt, würde mich interessieren wie sich das visuell auswirkt.
      Wie wäre es die Fragen und Wünsche deiner Mitmenschen zu respektieren anstatt abwertend formulierte Kommentare zu posten? Ich muss mich nicht für eine Frage an PCGH bei der Community rechtfertigen. Sowas demotiviert andere User Fragen zu stellen und macht keinen Spaß! Außerdem habe ich PCGH gefragt und nicht dich. PCGH wird schon selbst entscheiden können ob sie die Frage aufgreifen und wie sie am sinnvollsten ein Splitscreen-Vergleichsvideo umsetzen.

  • @antichrist2142
    @antichrist2142 Год назад

    Thema dlss bleibt offen? Oder im Vergleich mit FSR?

  • @PA_Leon
    @PA_Leon Год назад +2

    sehr nice!!!

  • @YTPutzlappen
    @YTPutzlappen Год назад +6

    Schade, jetzt sind 1 Tag vor Release schon all meine Hoffnungen kaputt. Wollte mir endlich Mal wieder ein Upgrade zur GTX 1070 holen. Aber bei den Preisen... Dann muss sie halt noch ein Jahr durchhalten...

    • @der60er
      @der60er Год назад +1

      Der $preis war doch schon seit wochen bekannt 🤔

    • @omnibrain3198
      @omnibrain3198 Год назад +3

      Spoiler: Die nächste Grafikkartengeneration wird sicher nicht billiger.

    • @arturkre5793
      @arturkre5793 Год назад +2

      die Preise waren doch lange bekannt !?!

    • @mapstar
      @mapstar Год назад +1

      kauf dir doch von so einem vollhonk eine 6900XT für 500-600€ bei ebay und fertig. Haste wieder 4 jahre ruhe und einen sehr intelligenten menschen der JEDE generation mitnimmt gibt es doch immer :)

    • @froznfire9531
      @froznfire9531 Год назад +1

      AMD hatte die (US) Preise seit knapp 1,5 Monaten selbst preisgegeben... Und dass die High End Modelle nicht gerade 500 kosten ist wohl logisch

  • @thetrickiricki
    @thetrickiricki Год назад +2

    Ich freue mich auf ein Review der ASUS TUF 7900 XT. Die Karte wird voraussichtlich Teil im neuen Build. Bin gespannt, ob das Custom Design von ASUS überzeugen kann.
    DANKE für das herausragende Video Raff!

  • @AzumDzumHzumS
    @AzumDzumHzumS Год назад

    es wäre nett wenn ihr in zukunft mal die rauschunterdrückung von eurem mikro aktivieren würdet

  • @izidor
    @izidor Год назад +4

    Bis jetzt ist die aktuelle GPU Generation einfach unfassbar uninteressant. Die RTX 4080 ist überteuert, die kleine schwester ist am Markt komplett verschwunden und wird wohl als 4070 rebranded und die 7900 XT/X sieht schlechter aus als sie beworben wurde, waren da nicht zwischen 50-70% mehr FPS die Rede? Im Endeffekt stehen beide hersteller schlecht da.
    Naja wie auch immer...gute Arbeit und danke dafür.

  • @Biernot247
    @Biernot247 Год назад +11

    Gute Konkurrenz zur RTX 4080 und dazu noch rund 200-250€ günstiger. Für alle die nicht mit ach und krach nur auf RT achten eine sehr gute Alternative 👍

    • @FreeTheWeed
      @FreeTheWeed Год назад +10

      Viel zu wenig Ersparnis, für die Abstriche, welche man machen muss. Alleine DLSS 3 und RayTracing bei der RTX 4080 und 90 sind goldwert!

    • @Freddyboy81
      @Freddyboy81 Год назад +3

      Wenn man nicht auf RT achtet braucht man aber auch keine XT(X).

    • @BarisYener
      @BarisYener Год назад +4

      Schau dir nochmal ab 19:40 an, zieh aber vorher deine rosarote AMD Brille ab, sonst verpasst du es evtl.

    • @primus_DE
      @primus_DE Год назад +7

      Raytracing ist seit Jahren das am meisten überbewertete Feature, was keiner den ich kenne nutzt. Daher achte ich nur auf die normalen Frames und Leistungsaufnahme / Verbrauch.

    • @n3xtrem
      @n3xtrem Год назад +3

      @@primus_DE ALS RTX 3070 Besitzer muss ich leider zugeben das es stimmt. RT wird in 99% der Spiele derart beschissen umgesetzt, das ich gut gemachte Cube, light und shadowmaps vorziehe. Das macht man mal fürn Benchmark an und ist schnell gefrustet. Bevor ich auf das native rendern verzichte, kommt RT aus. Denn DLSS/FSR ist Sondermüll. ich hab dadurch in 1440p einfach oft ein derart unscharfes Bild mit Artefakten, das ist kein RT wert. Auch wenns Ausnahmen wie Controll gibt.

  • @dermanu3444
    @dermanu3444 Год назад

    Gibt es eine Liste zu allen aktuellen GK mit dem Stromverbrauch? Zb. die 4070Ti mit zu vergleichen.

  • @karl-heinzwuppdich526
    @karl-heinzwuppdich526 Год назад +7

    "Warum sind die so BILLIG"?! WTF!? Billig wären sie, wenn sie 600€ kosten würden. Himmel hilf..

    • @Ares0025
      @Ares0025 Год назад

      Hat der nicht wirklich gesagt? 😅

  • @MrDanielVie
    @MrDanielVie Год назад +3

    r.i.p. AMD. Über 100 Watt für normales Windows. Ihr habt doch den Schuss nicht gehört.

  • @Nelson0689
    @Nelson0689 Год назад

    Der Stromverbrauch in Display 4K ist ja nicht sehr erfreulich. Wie sieht es mit der Leistungsaufnahme beim Display in WQHD aus?...Würde mich interessieren, ob die Energieeffizienz in WQHD ansprechender ausfällt. Gibt es dazu schon Fakten?

  • @judunur3603
    @judunur3603 Год назад

    Weis einer ob das mit der hohen Leistungsaufnahme im idle gefixt wurde ?

  • @BarisYener
    @BarisYener Год назад +7

    899€ für die XTX und 699€ UVP für die 7900 XT wären bei der gebotenen Performance "gut" gewesen. Hier haben wir nun zwei weitere GPUs auf dem Markt, welche die RTX 4080 und 4090 noch besser aussehen lassen und deren Preise quasi in Stein meißeln. AMD muss die Preise anpassen, sonst kaufen nur AMD Fanboys und ein paar Fehlgeleitete diese Karten, der Rest holt sich die RTX 4080 oder 4090, die ebenfalls überteuert sind. Echt schade, ich hätte die 7900 XTX sonst gerne im Referenzdesign gekauft.

    • @syrocoo1
      @syrocoo1 Год назад

      Ich geb dir voll Recht, nur: Wie bekomme ich ohne komplett neues Setup ein USB-C Anschluss an die 4080, für die Ersparniss wird das wohl weniger

    • @BarisYener
      @BarisYener Год назад

      @@syrocoo1 USB-C geht mit 4080 leider nur über entsprechende Mainboards, die DP/alt oder Thunderbolt haben. Der USB-C Anschluss ist für mich auch ein selling point. Für meinen mobilen Rechner habe ich da eine RX 6800 XT mit USB-C gekauft. Da läuft der mobile Monitor mit nur einem USB-C Kabel, ohne extra Stromanschlüsse.

    • @syrocoo1
      @syrocoo1 Год назад

      @@BarisYener Hmm....was kostet die Welt XD
      Also doch eher ne Powerbank für die VR und über W-lan 🤔 n goldesel hab ich einfach nicht🥲
      Mal abwarten was die Hersteller so verlangen....

    • @froznfire9531
      @froznfire9531 Год назад +1

      @@BarisYener 700€ wäre knapp die Hälfte der 4080 für ~10% weniger Leistung... Deine Preise sind absolut unrealistisch. Ich finde auch AMD muss leicht unter Nvidia bleiben da die Karten weiterhin bei RT nicht auf dem Level sind und FSR 3.0 aktuell noch nicht verfügbar ist. 1200€ für die 7900XTX passt aber, AMD hat leider auch kein Geld zu verschenken. Ich finds eher interessant was dann die Mittelklasse kosten wird, die wenigsten wollen im Endeffekt so ne 1000+ Karte

    • @andred.2335
      @andred.2335 Год назад +1

      Besser kamm man es nicht zusammenfassen. Eine einzige Enttäuschung dieser Release. 100 Watt Idle und das mit Absicht...ohne Worte...

  • @SSC0815
    @SSC0815 Год назад +3

    Schwache Vorstellung AMD. Leider ne Gen hinten nach samt den üblichen Leiden. Zu laut, zu langsam und diesmal auch zu teuer.

  • @waldowaldo1980
    @waldowaldo1980 Год назад +2

    Video wie immer top....ich persönlich bleibe jedoch bei meiner Aussage vor 3 Monaten.....beide gpus werden als Referenz nie verfügbar sein...und eine custom xtx wird sich zwischen 1270-1500€ einpendeln
    Ich bin davon überzeugt daß die sehr schlecht verfügbar sein werden und gute 250€ teurer als angegeben,hab mich die letzten Jahre nur selten geirrt....aber wir werden sehen

    • @ZeroB4NG
      @ZeroB4NG Год назад

      Hab was gehört das zum launch 3000 Karten in Deutschland verfügbar sein sollen, 7000 Europaweit ...also wirklich nicht viel.
      und die Boardpartner halten sich noch ein paar Wochen zurück damit sie auch paar Karten zum verkaufen haben.

  • @ocrimeseirg4850
    @ocrimeseirg4850 Год назад

    Gutes Video habe gleich eine frage, habe zurzeit ein 750 Watt Bronze Netzteil von Asus Tuf Gaming reichen diese aus für die 7900XT? Danke

    • @davidklumpp4707
      @davidklumpp4707 Год назад

      Such doch mal nach "Power Supply Calculator", beQuiet und CoolerMaster bieten hier tolle Rechner, bei denen du deine Konfig angeben kannst und dein Verbrauch angegeben wird. 750W sollte aber dicke reichen.

  • @rueggly2367
    @rueggly2367 Год назад +3

    Zur Vorgängerkarte hat AMD schon ein gutes Plus zugelegt. Trotzdem muss man sagen, dass Nvidia nach wie vor schneller und effizienter ist. Dazu kommt, dass Leute, die RT mögen, noch immer in die Röhre schauen. Hinzu kommt, dass die AMD-Treiber nicht so gut und stabil laufen wie bei Nvidia (persönliche Erfahrung). Ja, Nvidia ist teurer (wenngleich man erstmal die Preise der Boardpartner bei der 7900XTX abwarten muss), aber wenn das Geld nicht so die Rolle spielt bzw. man noch 200/300€ drauflegen kann und möchte, dann würde ich definitiv immer zu Nvidia greifen. Ich habe eine 4090, die läuft nach Optimierung mit knapp 2,8 Ghz bei 230 W Leistungsaufnahme. Klar ist das eine ganz andere Preisklasse, aber gerade in Sachen Effizienz ist Nvidia in dieser Generation ganz weit vorne. Ich persönlich hatte von AMD mehr erwartet, zumindest dass RT weiter ausgebaut wird und sie auch im Schnitt vor der 4080 liegt. Dem ist wohl nicht so. Schade.

    • @rainer2412
      @rainer2412 Год назад

      bei 850€ + Aufpreis kann ich aber viel Strom verbrauchen

    • @iG4MERs
      @iG4MERs Год назад +1

      @@rainer2412 bei 50-60ct die kWh bin ich als Power User mit 6-10h am Tag (Arbeitsmaschine) und mit aktuellen Treibern durchschnittlich 100W mehr bei rund 50ct pro Tag.
      Also kann ich rund 2,5 Jahre Stromverbrauchen bis sich die 4090 lohnt. Ich habe meine Grafikkarten aber meist 4 Jahre und daher lohnt sich die 4090 mehr (zudem hab ich 4 Jahre lang mehr Leistung als mit einer AMD)

  • @Denizcan123
    @Denizcan123 Год назад +9

    Warum sind die so billig sagt er… dass ich nicht lache. Realitätsverlust als Tester

  • @vorsnahmburg
    @vorsnahmburg Год назад +1

    #FragPCGH Wie schlagen sich die Karten unter Linux? Und hängt der hohe (Desktop) Stromverbrauch am Treiber oder am Hardware Design?