RADEON RX 7900XTX vs. NVIDIA - Performance, Effizienz und eine Referenzkarte ohne echte OC Reserven

Поделиться
HTML-код
  • Опубликовано: 10 сен 2024

Комментарии • 261

  • @heikof.2898
    @heikof.2898 Год назад +66

    Was Leidenschaft für Elektronik doch für schöne Früchte in einem Video tragen kann.
    Hut ab für solch ein gut aufgearbeitetes Video Igor!

  • @peeeweee3101
    @peeeweee3101 Год назад +21

    Was nicht geht sind 11% Vorsprung der 4090 auf die 7900 XTX bei CP 4K, wenn gleichzeitig die 3090 Ti mit 56 FPS nur 14% hinter der 7900 XTX liegt. Es sind 14 FPS also 25%.
    Laut dem Video wäre eine 4080 nur 4% hinter der 7900 XTX und damit nur 15% hinter der 4090.
    Das ist aber laut Nvidia schon widerlegt, die 4090 ist sehr viel weiter weg von der 4080.
    Denke, dass Igor hier leider FPS absolut mit % verwechselt und dadurch auch noch ein völlig falsches Fazit zieht. Die 7900 XTX sollte mind 15%+ vor der 4080 liegen. Dann passt auch der Abstand von 4080 zu 4090 besser.

    • @masteroperator1
      @masteroperator1 Год назад

      ich sehe hier, wie so oft, einfach komplett unnötige verwirrung von ihm. aber irgendwie muss man ja so ein video mit inhalt füllen. :)

  • @Retrophy
    @Retrophy Год назад +9

    Boah was für ein Tanz auf dem Vulkan, nur um die NDA zu umgehen. 😅 Da wir davon ausgehen können, dass Igor nicht jetzt ein Video macht und wenn die NDA gefallen ist, ein neues mit anderen Daten (da er das Wissen ja schon hat), ein sehr informatives... ich meine rein spekulatives Video!!! 😉
    Danke dafür!

  • @ThePeperich
    @ThePeperich Год назад +14

    Als ich vorhin den Artikel gelesen habe (vor dem Video) dachte ich an den Klassiker - „wir veröffentlichen jetzt, sonst macht es ein anderer!“Klasse, was angewandtes Wissen und Erfahrung bringen, um der Realität nahe zu kommen - mach‘ weiter so! Ist doch irgendwie schön, wie berechenbar zumindest GPUs geworden sind (für Profis wie Dich) und Du mit uns teilst.
    Ich hoffe, dass AMD in Deutschland zu UVP seine Referenzkarten in hohen Stückzahlen (je eine Person statt hunderte) anbietet. Dann können die Boardpartner ja auch drei-, vier- oder was auch immer 6+2 Pin-Karten anbieten. Aber letztlich haben weder AMD noch Nvidia am direkten Endkundengeschäft viel Interesse (mein Eindruck), zugegeben - ist ja auch einfacher containerweise Chips etc. an Boardpartner zu verkaufen.
    LG und weitermachen, Pepe

    • @M3dicayne
      @M3dicayne Год назад +2

      ...dran denken, dass aktuell mit Dollar-Euro-Kurs und Importsteuer / Zoll etwa 20% über dem aktuellen $ Preis gerechnet werden muss. Heißt: Die 7900 XTX für $999 wird hier im Referenzdesign mind. 1.150, eher 1.200€ kosten.

    • @ThePeperich
      @ThePeperich Год назад

      @@M3dicayne öhm. drum schrieb ich UVP nicht MSRP :) - Man bekommt weder bei AMD (kann sich ja ändern) noch jetzt bei Nvidia Referenzkarten bzw. Founders Editions. Gerade für die RTX 4000-Käufer hätten doch die echten UVP für die FE etwas -> 4090 = 1949,- Euro. Gibts in Deutschland aber nicht (auch nicht im Store bei Nvidia), günstigste Boardpartnerkarte etwa 2150-2200,- Euro und wie bspw. Igor zeigte, ist das FE-Design sehr gut, das mancher Boardpartner nicht. Gibt ja auch kaum 3000er FE (und gab wenige).

    • @M3dicayne
      @M3dicayne Год назад +3

      @@ThePeperich Naja, das einzige Design einer 4090, was mich bislang überzeugt hat, ist das von EVGA, die keine mehr herstellen xD Anschlusskabel am Ende der Karte, solider Kühler... Und vor allem eigener Adapter, kein Billigding.

  • @ClimateKiller
    @ClimateKiller Год назад +18

    Schönes video, igor. Auch ohne Wahrsager sehe ich eine 7900 xtx in meiner Zukunft.
    Interessant wäre für mich eine Einschätzung was moderates ray tracing angeht. Dass die 4000er im ultra RT mit den radeons den Boden aufwischen ist klar, aber was wenn man RT auf mittel stellt? Prügelt das die fps der radeon in die knie oder ist man da wieder richtung raster performance unterwegs?

    • @dynamicdissonance4016
      @dynamicdissonance4016 Год назад

      Das Verhältniss wird in jeder Einstellung ähnlich sein. RT wird immer enorm Leistung ziehen, in Richtung raster geht da garnix.

    • @KamichamaTechstarify
      @KamichamaTechstarify Год назад +1

      Die 7K weist auch extra RT Kerne jetzt auf, also die einbußen sollten jetzt nicht mehr so heftig sein wie da noch bei der 6K Serie.
      UVP muss ich kleider etwas enttäuchen.
      Hier zu lande werden die Founders Eidtion wegen Steuern Mehrwertkosten ca. 100-200 Euro Teurer sein als angegeben... (Also heist die 7900XTX würde statt die 999 eher 1200 kosten)
      Was die Bordpartner dann machen das weiß man ja mittlerweile selbst.-> RGB, OC, andere Lüftungssysteme und Steckeranschlüsse kosten allein schon meist ihre 150 bis 200 € drauf. Wenn dann wieder wegen Knappheit ect. das große Geld gerochen wird dann kann sowas schon gern mal wieder ab 500 aufwärts zusätzlich drauf gehen...
      (Bei sowas müsste eigentlich definitiv der Verbraucherschutz aktiv werden)

    • @n0f4ke74
      @n0f4ke74 Год назад

      Ich will die Pro karte. Meine W6800 läuft super brauch aber mehr Leistung.

    • @johnscaramis2515
      @johnscaramis2515 Год назад +1

      @@KamichamaTechstarify Man muß allerdings da auch immer wieder dazusagen, dass auch in den USA niemand die Karte für MSRP bekommen wird, denn da kommen noch die lokalen Verkaufssteuern drauf, die bei uns schon eingepreist sind.

  • @moomah5929
    @moomah5929 Год назад +2

    Hehe, dachte mir auch so "geiles Raytracing auf der Bühne". Also wird es wohl darauf hinauslaufen, ob einem die RT Performance der 4080 plus DLSS(wenn auch nicht unbedingt 3) den Aufpreis von sagen wir mal 240€ wert ist.
    Muss übrigens mal wieder zum Retro-Game-Shopping (einer der Läden ist ja gleich bei Igor um die Ecke) und Buffet bei Hong Kong City nach Chemnitz kommen. Verdammt, jetzt bekomm ich Hunger...

  • @bogdanschodorov8064
    @bogdanschodorov8064 Год назад +10

    Tolles Video. Ich hab mitgenommen....AMD sehr Boardpartner freundlich. Da haben die tatsächlich auch Spielraum was dran zu machen. Effizienz Geschichte auch interessant....trotzdem is der Multichip Ansatz richtig. Wenn du mehr Chips von so ner Siliziumscheibe kriegst als der Konkurrent, musst auch weniger Kristalle kaufen, die laut Lederjacke ja so teuer geworden sind.

    • @johnscaramis2515
      @johnscaramis2515 Год назад +1

      Der Verschnitt ist gar nicht mal das größte Problem, da werden gerne mal andere kleinere Chips reinbelichtet (wobei bei N4 vermutlich wenig Bedarf ist). Was richtig reinhaut ist die yield rate, also der Anteil an guten Chips. Nehmen wir an pro Wafer gäbe es im Mittel 10 Fehler. Bei 100 großen Chips hätte man eine Ausschussrate von 10%, bei 250 Chips von 4%. Die Zahlen sind völlig aus der Luft gegriffen, aber man sieht recht schön, welchen Einfluß das hat.
      Zudem kann man sich die Nodes nach den Erforderlichkeiten aussuchen. Warum war das IO-Die bis Zen3 in 14/12nm, abgesehen von Lieferverträgen mit GF? Weil der Node deutlich billiger ist. Zudem lassen sich gewisse Baugruppen gar nicht so einfach shrinken, da ist ein größerer Node sogar von Vorteil. Speziell Kommunikation nach außen.
      Dafür sind halt die packaging Kosten bei MC-Designs höher. Letztlich ein Rechenspiel. Und bei Navi31 wird halt ein MC-Design billiger kommen als was monolitisches. Navi32 soll nach bisherigen Leaks übrigens monolitisch sein, da scheinen Chipkosten vs. Packagingkosten in die andere Richtung zu gehen.

  • @iamianann
    @iamianann Год назад +3

    Wie immer unterhaltsam und fachkundig geliefert. Merci für die Mess…chätzungen. ;)

  • @theprophet2444
    @theprophet2444 Год назад +5

    Durch undervolting könnte man noch immer mehr Takt rausholen, was ja dann auch Übertaktung wäre :)

  • @Thor_Asgard_
    @Thor_Asgard_ Год назад +43

    Sind wir ehrlich, der relative Corecount downgrade der 4080 ist ein absoluter Witz und der Preis ;) Nvidia kann ihren Schrott behalten.

    • @timoborm5095
      @timoborm5095 Год назад

      Nvidia = schmutz

    • @WimiBussard
      @WimiBussard Год назад +4

      *Seien wir ehrlich.
      Aber ja, Preis ist heftig.

    • @eriii276
      @eriii276 Год назад +2

      @@WimiBussard *Sind wir ehrlich

    • @DJEglain
      @DJEglain Год назад

      Geht beides.
      😅

    • @Erbsengeneral
      @Erbsengeneral Год назад

      guter move von amd. nvidia wird sich in dem segment nicht halten können.

  • @ChowdongsFameCrew
    @ChowdongsFameCrew Год назад +4

    Heute früh noch gedacht, " von Igor müsste mal wieder ein Video kommen " tada 😉👍

  • @Noise-Bomb
    @Noise-Bomb Год назад +1

    Mir ist hier noch etwas zu viel Konjunktiv am Start, ich warte da lieber nochmal auf die launch reviews. Trotzdem wie immer ein toller Beitrag deinerseits Igor.

  • @TheTaurus104
    @TheTaurus104 Год назад +11

    Wird interessant zu sehen sein, wie flott die AIB Modelle der 7900XTX mit up to 450W und höheren Taktraten sind.

    • @blackyraypatrick9041
      @blackyraypatrick9041 Год назад

      Wenn man das overclocking einer rtx 4090 beobachtet ist da offensichtlich nicht viel Puffer nach oben. Man wird da sicherlich für max. 5% mehr fps einfach mal 100 Watt mehr Leistung brauchen....

    • @lilaelefant2494
      @lilaelefant2494 Год назад +1

      @@blackyraypatrick9041 Bedenke eine 4090 saugt schon 450w. Bei der XTX könnte von 355w auf 450w schon noch was gehen. Für mich wäre aber bei 300-350 sowieso die Schmerzgrenze

    • @dynamicdissonance4016
      @dynamicdissonance4016 Год назад +3

      @@lilaelefant2494 Sehe ich ehrlichgesagt nicht so, die Tatsache das AMD in der Vorstellung die gestiegene Effiziens @ 300Watt angegeben hat und nicht @350watt, zeigt schon bei 50watt über 300watt deutlich sinkt, würde daher annehmen das noch mehr richtig reinscheißt. Also was das angeht würde ich mir keine Hoffnungen machen. Zumal wir durch das chiplet design auch wieder an der ein oder anderne Stelle nachteile haben werden würde ich vermuten.

    • @phil.s.3362
      @phil.s.3362 Год назад

      @@lilaelefant2494 ne 4090 saugt eben keine 450W, in das Limit rennt die so gut wie nie.

    • @Traumglanz
      @Traumglanz Год назад

      @@blackyraypatrick9041 Schauen wir mal ob es 5% oder 10% werden oder auch irgendwas dazwischen.

  • @michaelherrmann598
    @michaelherrmann598 Год назад +4

    Wieder mal ein top Video von dir Igor. Es klingt sehr glaubwürdig, ich vermute, genau so wird es kommen. Ich nehme mir mit: 7900XTX und RTX4090 gleich gute Effizienz und 28 Watt Gedöns Spannung bei der 7900XTX 😆👍👍

  • @shibadad5891
    @shibadad5891 Год назад +3

    Ich liebe deine Videos!!! Bitte hör nicht auf solang du noch spaß dran hast 😂

  • @2704borg
    @2704borg Год назад

    da habe ich eine frage ich habe ein msi mag b 550 tomahawk mit ein ryzen 9 5900x lohnt es sich die 6900xt zu holen oder warten bis die 7900 xtx kommt ? ich habe zu zeit noch eine rx 580 verbaut pc nutze ich nur zum spielen oder eine andere grafikkarten model habe erst mir das system up gegraded im janua ausser meine grafikkarte die habe ich übernommen auf jeden fall amd karte nvidia möchte ich nicht

  • @Serandi1987
    @Serandi1987 Год назад +3

    Hammer!!! Danke für das Video!!! Klasse dass du jetzt schon eine RX 7900 XTX parat hast 😍👍

  • @Serandi1987
    @Serandi1987 Год назад +1

    Wann kommen denn die Karten endlich in die Hände von OEM's und wann kann man mit den ersten Benchmarks rechnen??

  • @MrPianox3
    @MrPianox3 Год назад +1

    ich will auf jeden Fall etwas effizientes im mittlerem Preisbereich. habe ne 6600xt und mit uv läuft die bei mir mit cirka 100 bis 120 watt mit UV

  • @wilhelmschmidt9133
    @wilhelmschmidt9133 Год назад +4

    Mal wieder ein geiles Video, können definitiv nicht alle tech-youtuber so👍

  • @rhunor2433
    @rhunor2433 Год назад +2

    Danke, dass du immer so sorgfältig hinterher bist. Gutes Video Igor :)

  • @gamerbundy3175
    @gamerbundy3175 Год назад +1

    ich bin nur gespannt was deine tests sagen werden freu mich schon riesig drauf :)

  • @blackyraypatrick9041
    @blackyraypatrick9041 Год назад +9

    Schon ein wildes Video mit der community als Quelle zur Umgehund des NDA😁👍

  • @miamuller9524
    @miamuller9524 Год назад +1

    Lieber Igor, sehr gutes Video. Und was ich sehr mag: Du schaltest keine "This video is sponsored by" Werbung. Sehr angenehm.

    • @djentleman5129
      @djentleman5129 Год назад +2

      Hmm, ja schon, aber möchtest du nicht auch, dass so gute Arbeit bezahlt wird? Also ich gönn jedem meiner RUclips Stars ordentliche Einnahmen.

  • @korbensc7218
    @korbensc7218 Год назад +1

    13:24 Welcher Übertakter bleibt schon im "normalen Standard"? :D

  • @timonhemker367
    @timonhemker367 Год назад +4

    Das Problem mit den 355w und null Reserve sehe ich nicht so ganz.
    Ja offiziell soll man nur 150w über die 6+2pin Stecker ziehen. Die Pins von dem 6+2pin Stecker sind aber für 8 Amps spezifiziert mit billigem 20Awg Kabel. Das sind dann 8amps*12v*3pins= 288w pro 6+2pin die man laut spec ziehen darf.

    • @johnscaramis2515
      @johnscaramis2515 Год назад

      Ändert aber nichts daran, dass die Spec nur 150W vorsieht. Alles darüber ist letzlich eigenes Risiko

    • @timonhemker367
      @timonhemker367 Год назад

      @@johnscaramis2515 und trotzdem verstehe ich das Gemecker nicht. Wenn er hier meckert müsste er auch bei 75w Tdp Karten meckern. Die überschreiten die specs vom pcie Slot teilweise sogar. Und trotzdem funktionieren die Karten seit Jahren auch in billigen boards super. Er meckert hier nur Rum ohne Grund. Viel Gerede um nichts

  • @Sora-xm5xe
    @Sora-xm5xe Год назад +5

    Also wenn ich eine RX 7900 XTX bei AMD als Referenzkarte bekomme sollte, dann wird die trotzdem etwas übertaktet. Ich hole einfach etwas Spannung weg und würde wohl 100MHz+ mehr Takt drauf geben und die Karte würde noch weniger als 355Wh Total Board Power nutzen.
    Als ich die Daten gelesen habe, war mir auch sofort klar gewesen, dass die RX 7900 XT und XTX sich wie die Höhle übertakten lassen müssen, aber dass dies bei der 7900 XTX ohne Custom-Design nicht möglich sein wird. Und so wie die Marktlage derzeit ist und sich die Preise der RTX 4080 16GB und RTX 4090 einpendeln, sehe ich schwarz, eine RX 7900 XTX unter 1.600-1.800€ zu bekommen und damit wäre die Karte für mich uninteressant.
    999 Dollar UVP ist für diese Karte wirklich noch fair. In der letzten Generation war die RX 6800 XT ja die absolute sweetspot von Preis und Leistung, aber ich glaube, dass es bei der 7000ter Serie nicht mehr so sein wird. Da wird eine RX 7800 XT sicher 699-749Dollar UVP kosten und ein gutes Stück weniger Leistung haben.
    Ansonsten sind noch 2 Fehler im Video:
    1. 21:21 Die RX 7900 XTX liegt in diesem Fall 14fps vor der RTX 3090Ti und das sind 25% und nicht nur 14%.
    2. Fehler zwei hat sich erübrigt. Die extrem stark übertaktete RTX 3090Ti soll ja die Leistung der RTX 4080 haben. :)

    • @peeeweee3101
      @peeeweee3101 Год назад +2

      Die 4080 liegt wohl 10% über der 3090 Ti OC.
      Aber dennoch weit hinter einer 7900 XTX - falls diese nur 11% hinter der 4090 liegt. Sonst passt der Abstand 4080 zur 4090 auch nicht zu Nvidia eigenen Benchmarks

    • @deadmike2
      @deadmike2 Год назад

      @@peeeweee3101 sie wird aber nicht 11% hinter der 4090 liegen

  • @schranzo730
    @schranzo730 Год назад +1

    Hi Igor hab schon paar videos von dir geschaut, 2 fragen habe ich wie alt sind sie und ob sie auch die Grafikkarten nutzen zum zocken?

    • @igorsLAB
      @igorsLAB  Год назад +4

      Erstens: 58 und Zweitens: Ja (wenn Zeit bleibt), aber nicht nur
      Die Kinder sind 8 und 10 und zocken auch (am jeweils eigenen PC) :D

    • @schranzo730
      @schranzo730 Год назад +1

      @@igorsLAB Sehr Cool du bist bestimmt schon seid Tertris dabei oder? soll keine beleidung sein ich hatte schon mit 3 jahren ein Gameboy wo mein erstes spiel Tetris war und ich bin 35.
      Mach weiter so :) das mit dem Strom-Kontakten zu der rtx 4090 fühle ich auch die hätten das besser machen können.
      Seltsam das wir in 2022 immer noch Steckerprobleme haben.

  • @flar2me240
    @flar2me240 Год назад +4

    Pizza, Igor Lustig und ne interessante Grafikkarte. Klingt komisch, is aber so.

    • @NicoD3000
      @NicoD3000 Год назад +1

      Pizza Mittags zum Igor Video lass ich mir auch gerade gut schmecken 🙌

  • @defipower
    @defipower Год назад

    ich frage mich gerade wann igor zu amd und nvidia eingeladen wird, um bei der nächsten karte die stromversorgung sicher zu stellen?
    (igor denkst du dann bitte bei nvidia an den 90° stecker)

  • @InfiniteBubbles
    @InfiniteBubbles Год назад +5

    Hey Igor,
    Es giebt so viele Videos über Overclocking aber jetzt wo die Strompreise so hoch sind finde ich Underclocking viel interssanter.
    für vr/4k brauche ich zum beispiel viel Leistung, möchte den Rechner aber auch nicht als Heizelement nutzen oder am ende des Monats pleite sein.

    • @djentleman5129
      @djentleman5129 Год назад

      Underclocking macht eigentlich keiner, nur Undervolting und das halten des Clocks bei stabilem System

    • @InfiniteBubbles
      @InfiniteBubbles Год назад

      @@djentleman5129 naja aber jetzt hab ich halt meine 3080ti und anstatt 350w kann ich auch undervolt+underclock machen und verbrauche nur noch 200w während ich max 20% weniger performance hab, was ich nicht mal bemerke, und das system ist einen haufen leiser.

  • @b.s.7693
    @b.s.7693 Год назад +3

    VR-Brillen können DP2.1 sehr gut gebrauchen

  • @roberthuxoll8500
    @roberthuxoll8500 Год назад +1

    Was hatte ein von mir geschätzter RUclipsr noch gesagt? Untervolten ist das neue Übertakten und blaue LEDs zur besseren Kühlung brauche ich ebenfalls nicht... 🤭
    Mir hat die Referenzkarte ohne angehängtes X von vorn herein besser gepaßt, bei der bestimmt noch etwas Luft zum Übertakten bleibt und die von den Abmessungen her mit 3 HE auch noch in mein Gehäuse paßt. Ich frage mich lediglich, wozu eigentlich der X760E Chip für PCIe 5 und Displayport 2.1? 🤔🥴

  • @Ruhiger_Fels
    @Ruhiger_Fels Год назад +4

    Schönes und informative Video mit Text zum nachlesen auf der Homepage.😃
    Igor im Stromrausch, 440-450 Watt sogar 516 Watt. Da sollte sich doch bald ein Stromversorger als Werbepartner finden. Traumhaft.🤣😂🤣
    Der Stromverbrauch der neuen Komponenten wie CPU und GPU kennt ja langsam keine Limits mehr. In welchen Welten leben die Entwicklerfirmen? Ja undervolten geht, aber ich rede mal von Ottonormaluser. Ja mehr FPS pro Watt. Aber viele Watt sind viele Watt.🤔

  • @tuluszungi6332
    @tuluszungi6332 Год назад +1

    Hallo Igor, kannst du die neue Arctic MX-6 Wärmeleitpaste testen?

    • @Stefan1200Germany
      @Stefan1200Germany Год назад

      Lohnt es sich wirklich viel Geld für WLP auszugeben? Selbst der Bauer hat mal gesagt, das man in der Regel von 1-3 grad Celsius Unterschied zwischen billiger und teurer WLP spricht. Meiner Meinung nach sollte man das zusätzliche Geld lieber in den Lüfter/Kühlkörper stecken. ;)

  • @Fabian-Ni
    @Fabian-Ni Год назад +1

    Deine Videos sind einfach immer der Hammer! Weiter so !

  • @HansGruber67
    @HansGruber67 Год назад +1

    vielen dank für das video, bist einer der angenehmsten youtuber die ich kenne. dickes daumen hoch

  • @exidrial431
    @exidrial431 Год назад +1

    Übertakten ist irgendwie uninteressant für mich geworden
    Ich unrervolte lieber. Die Karten sind so extrem getaktet zur Zeit, da geb ich lieber 10% Performance auf für 20-30% Strom ersparnis - und die graka läuft schön leise!
    Hab eines der günstigsten 3080 Modelle, alle bescheren sich die is laut. Meine läuft unter last kaum lauter als idle. Für minimalen Performance Verlust.
    Viel angenehmer!

  • @Astravall
    @Astravall Год назад +1

    Naja aber macht es denn Sinn eine bis an die Kotzgrenze übertaktete 3090Ti als Basis zu nehmen für die 4080 16GB Hochrechnung und die gegen eine Referenz 7900XTX zu stellen, die nicht auf Übertaktung ausgelegt ist? Interessant wird doch dann was Boardpartner mit einer 7900XTX mit drei 8pin Steckern anstellen und somit theoretisch bis zu 450Watt saufen lassen ;). Oder wie sich die Referenzkarten im Vergleich schlagen.
    EDIT: Und direkt danach vergleichst du mit von Nvidia 320 Watt einer Referenz 4080 16GB und beziehst deine Performancewerte auf eine Hochrechung der 3090Ti mit 500Watt... also ich weiß nicht ... klingt etwas wie Äfel und Birnen vergleichen, aber ok vielleicht übersehe ich was.

    • @peeeweee3101
      @peeeweee3101 Год назад +1

      Naja, das geht iwie halbwegs.
      Was nicht geht sind 11% Vorsprung der 4090 auf die 7900 XTX bei CP 4K, wenn gleichzeitig die 3090 Ti mit 56 FPS nur 14% hinter der 7900 XTX liegt. Es sind 14 FPS also 25%.
      Laut dem Video wäre eine 4080 nur 4% hinter der 7900 XTX und damit nur 15% hinter der 4090.
      Das ist aber laut Nvidia schon widerlegt, die 4090 ist sehr viel weiter weg von der 4080.
      Denke, dass Igor hier leider FPS absolut mit % verwechselt und dadurch auch noch ein völlig falsches Fazit zieht. Die 7900 XTX sollte mind 15%+ vor der 4080 liegen. Dann passt auch der Abstand von 4080 zu 4090 besser.

  • @P0SS0S
    @P0SS0S Год назад +1

    Heute hast du dein Feinkostgewölbe 1A in Szene gesetzt!

  • @sarhivo
    @sarhivo Год назад

    Ich habe eine frage zu einem anderen Thema und zwar geht es um meine Rx6800xt MSI X Trio 16GB die bei CoD MW2 22 Probleme macht. Habe beobachtet das Vram immer voll ausgelastet ist also fast 16gb ist immer voll, obwohl das game nur ca 5gb vram benötigt, deshalb kommt es oft zu rucklern am Anfang. Was kann ich dagegen tun?

    • @johannesbettenhausen2393
      @johannesbettenhausen2393 Год назад

      ruclips.net/video/5O2MlYvf720/видео.html

    • @sarhivo
      @sarhivo Год назад

      @@johannesbettenhausen2393 kenne das video aber es ruckelt ja deswegen weil der die volle 16gb nutz, obwohl der laut game nur 5gb nutzen müsste

    • @G-O-A-M
      @G-O-A-M Год назад

      Renderst du das Spiel vielleicht in einer höheren Auflösung? Schau mal in die Settings, meine 2080ti hat irgendwie auch einige Probleme mit dem Game - zwar nicht was den VRAM angeht aber die Settings verstellen sich oft und zum Teil ziemlich schwankende FPS.

    • @sarhivo
      @sarhivo Год назад

      @@G-O-A-M hab halt amd rsr an also 1080p wird auf 1440p hochskaliert und die renderauflösung ist auf 100. Ja und meine fps anzeige tanzt Breakdance

  • @haraldh.9354
    @haraldh.9354 Год назад +1

    Top Video -Danke

  • @chrisw5145
    @chrisw5145 Год назад +1

    Bei NDA gebrochen, Jochen musst ich laut loslachen 😂 geil

  • @dbm8925
    @dbm8925 Год назад +1

    Also dann habe ich den absoluten Best Case. Ich habe eine 1000 MBits Internet Leitung und es kommen 928 Mbits "immer" an 😉 Das Problem ist nur, das viele Server, unter anderem auch Steam das nicht mehr verkraften oder können. Andere die nicht total überlastet sind wie Steam, habe ich zumindest rund 700 Mbits.

  • @izidor
    @izidor Год назад +1

    Die OC reserven der GPU´s sind seit jahren nicht toll. Ob stock oder OC da sind meist nur wenige % unterschied.
    Finde ich persönlich nicht schlimm...

  • @Seafoxmccloud
    @Seafoxmccloud Год назад

    Alles schön und gut mit der knappen Bestromung der RX 7900XTX aber was ist, wen ich jetzt noch was an den USB Type-C Anschluss klemm dann sprenge ich die letzten 11 Watt auch noch ?

    • @igorsLAB
      @igorsLAB  Год назад +2

      Ja. Dann bist du drüber ;)

  • @TheTaxxor
    @TheTaxxor Год назад +4

    Dafür, dass man nicht einfach FPS *1,7 machen könnte, ist dein Ergebnis aber genau dort, wo es sein muss, wenn man die FPS *1,7 nimmt^^
    Jede Frametime durch 1,7 zu teilen und dann das Ergebnis in avg FPS umzurechnen kann man zwar machen, ist aber umständlicher und kommt am Ende sowieso aufs gleiche raus, ist ja auch logisch.
    41FPS = 24,4ms
    24,4ms/1,7= 14,35ms = 69,7FPS
    41FPS *1,7 = 69,7FPS

    • @igorsLAB
      @igorsLAB  Год назад +10

      Nein. Die FPS gehen ja nie ganzzahlig auf. Da bleiben bei einem festen Intervall von einer Sekunde immer ein paar Millisekunden des letzten Frames innerhalb dieser Sekunde auf der Strecke. Rundet man die nun kaufmännisch ab oder auf oder macht man richtigerweise einen Übertrag? Wenn der Benchmark lang genug läuft, bist Du sogar über der Toleranzgrenze. Denn ich messe ja auch, dafür müsstest Du mal meine Grafikkartentests anschauen, die FPS-Verläufe als Kurve über die gesamte Laufzeit, einschließlich der Perzentile. Geh mal auf den Artikel und schaue Dir die hochgerechneten Frame Times als Balkengrafik an. Da kommst die mit dem einfachen FPS * 1.7 nicht wirklich weit :)

    • @robertdrechsler5003
      @robertdrechsler5003 Год назад

      Die Frage ist, wie AMD selbst zu den besagten Leistungsfaktor gelangt ist: über jedes einzelne Frame oder doch einfach über die Durchschnitts-FPS. Ich habe mir nicht den ganzen Anhang zur Präsentation durchgelesen.

    • @TheTaxxor
      @TheTaxxor Год назад +4

      @@igorsLAB Wer misst denn FPS als 1s Intervall? Ich kenne keine Software, die das noch tut(maximal der Afterburner und auch nur, wenn man ihn entsprechend so konfiguriert, dass er das tun soll). Die average FPS sind ansonsten immer "1000 / average Frametime", da braucht es keinen "Übertrag", man hat am Ende des 65s Benchmark von Cyberpunk am Ende eine bestimmte Anzahl an frames mit entsprechenden frametimes, aus denen man dann die Perzentile oder eben die average FPS bildet
      Und AMD wird es auch ganz simpel gemacht haben: Integrierten Benchmark Run von Cyberpunk gestartet, der spuckt am Ende für die 6950XT "41 average FPS" aus. Dann den Test mit der 7900XTX gemacht, der hat "70 average FPS" ausgespuckt -> die XTX bringt 70% mehr FPS -> "1,7x faster"
      Auf den Wert von 41 average FPS kommt der Benchmark ja auch nicht, indem er sich immer 1s Intervalle anschaut und darin getrennt die Frames zählt. Er zählt die Gesamtzahl der Frames über die Laufzeit und kommt auf 2665 frames, die während dieser 65s berechnet wurden. 2665frames/65s = 41 FPS average

  • @G-O-A-M
    @G-O-A-M Год назад

    Super interessant, vielen Dank!
    Ich persönlich mag Effizienz und möchte gar keine OC Karte, ich hoffe ich bekomme die Referenzkarte 7900xtx gekauft

  • @Triso86XT
    @Triso86XT Год назад

    @igorsLAB kommen eigentlich noch Tests zu den jeweiligen 3 "Spitzen"-CPUs von Intel und AMD mit der 4090? Also nur 1440p+? Das GPU-Limit hat sich ja verschoben und ich glauben den neusten Empfehlungen irgendwie nicht, wenn alles immer noch mit einer 3090/TI getestet wird.

    • @igorsLAB
      @igorsLAB  Год назад +2

      Das habe ich im Launchartikel zur 4090 schon beantwortet. Da ist diese Karte auch in UHD stellenweise noch im CPU-Limit :D
      Wenn ich Zeit habe, kann ich das ja mal machen. :)

  • @thewindwhisperer6839
    @thewindwhisperer6839 Год назад

    Wen ich nichts overclocke und die XTX vielleicht bischen undervolte reicht mein Be Quit Pure Power 10 Silver 700Watt ? ich weiß verscheinlich nicht aber würde mich trotzdem gerne eine Experten Meinung einholen in der Zukunft mit einem R7 5800X3D. Wird ja verscheinlich nix kaput gehen oder ?

    • @blackyraypatrick9041
      @blackyraypatrick9041 Год назад +1

      Schau dir doch einfach die spec's deines Netzteils an dann kannst dir die Frage selbst beantworten....
      Mein Netzteil beispielsweise ist in manchen Spielen bei meiner vega 64 spätestens beim overclocking teilweise aber davor schon in die Knie gegangen.... was war? Zwar hat mein Netzteil gesamt genügend Leistung. Aber an einem einzelnen VGA Anschluss nicht genügend für die Gesamtleistung der Grafikkarte.
      Abhilfe schaffte nur dass ich die last der Grafikkarte auf beide VGA Anschlüsse verteile. Nun kauft alles einwandfrei. 700 Watt gesamt aber 255 Watt pro VGA Anschluss maximal wenn ich es noch richtig im Kopf habe bevor die überlastautomatil das Netzteil abschaltet.
      Ich vermute mal dass dein Netzteil schon ausreichen wird. Aber letztlich hängt das nicht nur von der Gesamtleistung ab sondern den einzelnen Anschlüssen und was halt sonst noch am System hängt.
      Bei überlast wenn es kein chinaböller ist merkst du es also daran, dass sich das Netzteil schlichtweg im Betrieb abschaltet aber dein Rechner fängt nicht plötzlich Feuer oder so.

    • @thewindwhisperer6839
      @thewindwhisperer6839 Год назад

      @@blackyraypatrick9041 Danke habe eine 1080Ti die So weit ich stabiel Overclocken konnte ist in machen Games in 4 K über 300 bis 310 Watt nutzt seit Jahren kein Probleme mit dem Netzteil denke nicht das ich ein China Böller habe.

    • @thewindwhisperer6839
      @thewindwhisperer6839 Год назад

      @@gackhuhn4868 Danke dir auch habe viele Benchmarks angeschaut mit einem R9 5900X OC und RX 6950XT OC die fressen zusammen 460 bis ganz selten 470watt von dem was ich gesehen + noch die anderen teile in mein PC würde das 600 bis Höstens 630Watt nehmen deswegen denke ich wen ich Die Cpu und Gpu in ruhe lasse müste das reichen oder sogar ganz leicht Undervolte aber verstehe sicher kann man sich da nie sein wen ich nicht mindestens ein 850watt Netzteil habe oder besser. (Benchmarks in Cyberpunk 2077 4K Psycho settings)

    • @thewindwhisperer6839
      @thewindwhisperer6839 Год назад +1

      @@gackhuhn4868 Vielen Dank Wen es Ganz schlecht läuft Undervolte ich es einfach auf 300 Watt wie die XT bis ich genug Geld habe für ein besseres Netzteil. Und nochmal vielen dank ;)

  • @KarsonNow
    @KarsonNow Год назад

    IgorsLab video an + Wiedergabegeschwindigkeit x1,5 und es läuft ohne zwischendurch einzuschlafen - obwohl der Content immer sehr interessant, unterhaltsam und informativ ist - Igors Kompetenz kann man kaum überbieten, deswegen beziehen sich alle große PC Hardware Kanäle auf Igors Erkenntnisse... Es ist mir ein Rätsel warum dieser Kanal so wenige Abonnenten hat. Ja es ist zum Teil trockene Stoff, aber wenn LTT, Jayz2cents usw. es immer wieder erwähnen, dann wundert es schon.
    Vielleicht englische Versionen wie beim achtauer... Ich meine 8auer? Zumindest Untertitel wären sicherlich förderlich für die Popularität.

  • @vicenoise
    @vicenoise Год назад +2

    Hallo Igor und Community, ich möchte auf einen recht deutlichen Fehler bei den Leistungskalkulationen und den parallel getätigten Aussagen im hypothetischen Cyberpunk-Szenario aufmerksam machen, den ich hier so nicht erwartet hätte, aber Fehler passieren halt.
    Der relevante Abschnitt geht etwa bei 21:05 los.
    Ich hoffe, es ist in Ordnung und nicht unhöflich, wenn ich Dich direkt anspreche, Igor.
    Bei 21:22 behauptest Du, dass die RX 7900 XTX 14% vor der übertakteten RTX 3090 TI liegt und die potentiell etwa 10% schnellere RTX 4080 damit nur 4% dahinter liegen würde.
    Das ist aber nicht korrekt, weil Du hier auf einmal die absoluten FPS Differenzen in Prozentdifferenzen umwandelst.
    Laut Deiner eigenen Berechnungen liegt die RX 7900 XTX im Durschnitt bei 70 FPS und die RTX 3090 TI OC nach den Messungen bei durchschnittlich 56 FPS. Das sind dann aber absolute 14 FPS Unterschied und nicht 14% Leistungsunterschied.
    Setze ich die Leistung der RTX 3090 TI OC als Referenz auf 100%, so entspricht die Leistung der 7900 XTX 125%, eine Differenz von 25%.
    Wenn jetzt die RTX 4080 10% schneller ist, als die RTX 3090 TI OC, dann erreicht sie im Schnitt 56 FPS x 1,1 = 61,6 FPS.
    Setze ich nun die hypothetischen Leistungen der RTX 4080 und RX 7900 XTX ins Verhältnis und wiederum die Nvidia Karte als 100% Referenz, so hat die 7900 XTX ca. 13,6% mehr Leistung in diesem Konstrukt. Die Leistungseinschätzung der RTX 4080 ist im Endeffekt etwas zu gut dadurch oder aber AMD kommt schlechter weg, wie man möchte.
    Bei dem Thema der Effizienz am Ende des Videos beziehst Du Dich da aber zum Glück nicht drauf. Bei der Effizienzprognose zwischen RTX 4090 und RX 7900 XTX sehe ich also keinen Fehler. Nvidia könnte mit der Ada Lovelace Architektur die eindeutig effizienteste Karte stellen, wenn sie das denn wollten. Aber meiner Einschätzung nach, geht dieses Thema an denen komplett vorbei. Genauso wie ihr Bezug zur ursprünglichen Kundschaft.
    Beste Grüße und Danke für den interessanten Kanal, Igor!

    • @Law0fRevenge
      @Law0fRevenge Год назад +1

      Zum Thema Effizienz auf Lovelace hatte der 8auer ja auch schon gezeigt, zu was für einer krassen Performace-per-Watt die 4090 eigentlich fähig ist wenn man das Powerlimit auf 60-70% runtersetzt. Nvidia hat quasi schon die Scheiße aus dem Chip raus-overclockt, sodass man den Effizienz-Sweetspot weit hinter sich lässt. Aber marketingtechnisch hat es sich bewährt beim Flaggschiffprodukt auf möglichst hohe Zahlen um jeden Preis zu setzen. Die 4090 ist halt in großen Teilen ein Publicitystunt um die Marke Nvidia mit Top-Tier-Performance zu assoziieren.

    • @vicenoise
      @vicenoise Год назад

      @@Law0fRevenge In der Tat, hatte es beim 8auer auch mitverfolgt, als die Karte ganz frisch war und er das Video dazu gemacht hatte.
      Wer sich einmal mit dem Thema Effizienz und Undervolting beschäftigt hat, bekommt einen recht kritischen Blick auf das, was die Hersteller da nicht erst seit heute fabrizieren.

  • @Frader1981
    @Frader1981 Год назад +2

    Wer kennt es nicht , das Massabott!

  • @asOCiATE53
    @asOCiATE53 Год назад +2

    Ehrenmann

  • @MisterHallo
    @MisterHallo Год назад +1

    gleich 2 spekulatiusse von anfnag an? WoW

  • @Stephan.S1ar_L0rd
    @Stephan.S1ar_L0rd Год назад +1

    Super Igor 👍 tolles Video

  • @ghostshield4000
    @ghostshield4000 Год назад +1

    Die Pimax 8K brauch eine 7900XTX, 2x 4K 75Hz

  • @hofnaerrchen
    @hofnaerrchen Год назад +2

    Sorry Igor, aber von 56 FPS auf 70 FPS sind 25% und nicht 14%. Ich weiß wirklich nicht, wieso die schlauen Menschen bei den ganzen Tech-Channels (Gruß Richtung 3dCenter) die Prozentrechnung nicht gebacken bekommen. Wenn ich sage Karte Soundso (7900XTX im Beispiel) ist x% schneller, dann ist die Ausgangskarte (3090ti) mit 100% gleich zu setzen. Daraus ergibt sich: 100/56x70=125. Ergo 25% schneller, nicht 14%. Damit läge eine 10% schnellere 4080 16GiB bei 56*1.1=61.6FPS und die 7900XTX wäre - wir erinnern uns an oben Geschriebenens: 100/61.6x70=113,6 - knapp 14% (ach guck mal einer an) schneller als die Karte, die du nicht namentlich nennen darfst. Scheinbar schließt sich hier der Kreis.

    • @Nachtvogel123
      @Nachtvogel123 Год назад

      Volle Zustimmung. Da hat er irgendwas durcheinander gebracht. Aber ganz abgesehen davon ist ein Spiel sowieso nicht aussagekräft, vor allem wenn man noch nicht mal echte Werte hat. Und an Treibern etc. kann sich ja auch noch einiges ändern bis Mitte Dezember. Also warten wir erstmal ab, bis die da sind und es ausführliche Test gibt. HU ist da immer super mit der Anzahl der Spieletests

    • @hofnaerrchen
      @hofnaerrchen Год назад

      @@Nachtvogel123 Das blöde an der Geschichte ist halt: Es macht den ansonsten grandiosen Content diese Kanals weniger glaubwürdig. Wieso sollte man an schön aufgearbeitete Grafiken Zeit verschwenden, wenn man davon ausgehen muss, dass die angegeben Prozentwerte falsch sind. Und wenn bereits Zweifel diesbezüglich aufkommen, dann ist es auch nicht mehr weit bis "Sind denn die tatsächliche Zahlen glaubwürdig." Im Informationszeitalter und bei all dem Überfluss an Informationen erwarte ich korrekte Daten. Zumal viele Zuschauer - wenn man die Kommentare überfliegt - diesen Fehler überhaupt nicht bemerken.
      Wenn ich Fakenews möchte, dann schau ich (Computer-)Bild.

  • @Django-Freemann
    @Django-Freemann Год назад +1

    aufgebohrte 7900xtx von zotac oder asus und dann kommt die übertaktet unter wasser - ich freu mich schon

  • @Pirate85getready
    @Pirate85getready Год назад +1

    Lieben Dank für die schöne Aufarbeitung Igor. :)
    Meinereiner ist bei ner 6950 XT Referenz schwach geworden [Der 5800X3D braucht ja nen passendes Gegenstück]... und die 3080 FTW3 Ultra wird abgegeben - somit lasse ich die Gen definitiv aus.
    Raytracing z.b. bei Metro Exodus Enhanced funzt selbst mit der 6950 nicht verkehrt - natürlich langsamer als mit der 3080, aber ich erachte es nach wie vor als Nice to have.
    Bin dennoch sehr gespannt.
    LG
    Marti

    • @BrickBazooka
      @BrickBazooka Год назад

      Warum hast du nicht auf ne 7900 xtx gewartet?

    • @Pirate85getready
      @Pirate85getready Год назад

      @@BrickBazooka Wozu? Ich wollte die 6950 und nicht die 7900er Reihe. 🙂 Wenn ich auf die 7900er Reihe gewartet hätte, dann hätte mein innerer Monk wieder durchgedreht auch gleich auf die AM5 oder Raptor Lake Plattform zu wechseln um "wieder in einer Generation zu sein". So habe ich quasi die höchste Ausbauform von AM4 mit der letzten GPU die in der Generation erschienen ist - ist ne doofe Macke, aber ich glaube jeder hat seinen Spleen 😆

    • @BrickBazooka
      @BrickBazooka Год назад

      @@Pirate85getready ich versteh Dich schon. Und hast Du die Powercolor 6950xt für 799 bei mindfactory mitgenommen?

    • @Pirate85getready
      @Pirate85getready Год назад +1

      ​@@BrickBazooka Mindfactory und ich können uns nicht [mehr] besonders leiden, meine 6950 XT kommt direkt von AMD. :)

    • @H3sslich
      @H3sslich Год назад +2

      Same, hab auch den 5800X3D mit ner 6950 Xt ( Liquid Devil) gepaart, super Paarung meiner Meinung, bin sehr zufrieden grade was 4K angeht.

  • @jeka5058
    @jeka5058 Год назад +4

    Also ich komme ja auf 25% Vorsprung der 7900XTX (70 FPS) zu der 3090 Ti OC (54 FPS) und nicht nur 14%.
    PS: Zur 4090 wären es auch nur knapp 12%....das wäre auch schon beeindruckend.

    • @dynamicdissonance4016
      @dynamicdissonance4016 Год назад +2

      Deswegen heißt es ja aber IgorsLab und nicht JeKa's Lab.

    • @TheTaxxor
      @TheTaxxor Год назад

      Cyberpunk ist auch generell ein Spiel welches Nvidia mehr liegt, auch abseits von RT. Eine 6900XT kommt hier gerade so auf die Performance der 3080 während die 6800XT 10% langsamer ist.

    • @Sora-xm5xe
      @Sora-xm5xe Год назад

      Joa der gute Igor hatte dort kurz einen größeren Denkfehler.
      Der Unterschied sind natürlich 14fps(25%) und nicht 14%.
      Danach sagt er dann aber auch nochmal, dass der Unterschied zu einer 4080 wohl im Durchschnitt 10% liegen wird und davon gehe ich auch relativ stark aus.
      Meine Prognose war, dass die RX 7900 XTX im Durchschnitt wohl ca. 15% schneller als eine RTX 4080 ist und die RX 7900 XT 0-3% schneller als eine RTX 4080 ist. Ich finde es nur etwas traurig, dass der Takt bei der RX 7900 XT so "stark" beschnitten worden ist. Die Karte hat ja auch schon rund 10% Shader weniger und die UVP ist ca. 10% geringer und die Karte hat 4GB VRAM weniger. Das passt doch alles.
      Ich denke AMD hat hier den Takt so stark reduziert, damit die RX 7900 XTX nicht zu uninteressant wird und das finde ich eher schlecht. Aber so kann man die Karte problemlos mit 40-50Wh mehr übertakten. :D
      PS: Was Igor vielleicht auch etwas vergessen hat: Er vergleicht hier mit einer RTX 3090Ti als Custom-Design mit OC(!)
      Nvidias Angaben selbst sind aber eine 3090Ti stock und diese ist noch mal ein paar Prozentpunkte langsamer. Ergo schneidet auch die RX 7900 XTX im Vergleich zur RTX 4080 nochmal ein gutes Stück besser ab.

    • @igorsLAB
      @igorsLAB  Год назад +5

      Nochmal: zwischen den Zeilen zuhören :D Die 3090 Ti ist doch nur der Platzhalter für die schnellere 4080, die der 3090 Ti 10 bis 15% abnimmt. Und da wir hier untereinander mit Prozentpunkten rechnen, kommt das schon hin.

    • @jeka5058
      @jeka5058 Год назад +3

      @@igorsLAB Das ist mir schon klar. Trotzdem liegt die 7900XTX 25% vor der 3090 Ti OC und damit 15% vor der 4080 16 GB

  • @saab_9
    @saab_9 Год назад +2

    Spekulaas!🤤

  • @ElmoBank
    @ElmoBank Год назад +1

    Das Design dürfte wohl eine Sapphire sein - würde mich zumindest nicht wundern xD

  • @urkent4463
    @urkent4463 Год назад

    alles plausibel
    und soooo schön plausibel
    immer wieder Igor
    für mich immer gerne ein Name aus Transsilvanien aber wenn ich in live sehe bin ich dennoch zufrieden

  • @hyrulegg4591
    @hyrulegg4591 Год назад

    Bezgl. des Steckers bei der 4090 (ich weiß nicht warum das nie erwähnt wird). Die Leute biegen die Dinger wie sonst was WEIL das Gehäuse im horizontalen einbau bei vielen nicht mehr zu geht. Bei YT usw. sieht man fast überall einen vertikalen Einbau.

  • @Horowin
    @Horowin Год назад +2

    Ich vermute beide RX Karten werden vor der 4080 sein.

  • @Blacklist91
    @Blacklist91 Год назад +2

    Ganz erlich meine RX 6600 reicht mir dicke aus. Für viele WQHD zocker reicht eine RX 6800 oder RX 6700xt oder RTX 3070 oder RTX 3060ti locker aus. Mehr braucht man nicht fürs Zocken. Ich sehe persönlich null mehrwert von der neuen Grafikkarten Gen nur hocher Stromverbrauch und Verkaufspreise.🤣😂

  • @jetikobold9526
    @jetikobold9526 Год назад +1

    super Video!

  • @user-hs5ee2by2h
    @user-hs5ee2by2h Год назад +1

    genial

  • @Serandi1987
    @Serandi1987 Год назад +2

    Habe mit einer Gigabyte RTX 4090 GAMING OC meine Asus Rog Strix RX 6900 XT LC Top Edition abgelöst und bereue es etwas. Der Sprung lohnt sich für mich kaum, da mir Raytracing für die Opferung des Energieverbrauchs es einfach nicht wert ist! Wenn eine richtig schöne Asus Rog Strix RX 7900 XTX LC auf den Markt kommt, werde ich wohl wieder zu AMD wechseln, da der Unterschied bei nativen 4K ohne Raytracing einfach viel zu klein ausfällt der Preisunterschied jedoch echt extrem ist!

    • @chrisfr2743
      @chrisfr2743 Год назад +2

      Ich mag deine Denkweise :D

    • @blackyraypatrick9041
      @blackyraypatrick9041 Год назад +2

      Warum nicht die Grafikkarte undervolten wenn dir die Effizienz wichtig ist? Scheint doch dein problem viel einfacher zu lösen als eine neue Grafikkarte zu kaufen.
      Ich wüsste nach sehen des Videos zumindest nicht wo amd so viel effizienter sein soll insbesondere die OC Version.

    • @Serandi1987
      @Serandi1987 Год назад +1

      @@chrisfr2743 ja iwo muss man auch einfach Tatsachen akzeptieren und dazu stehen 😁👍

    • @Serandi1987
      @Serandi1987 Год назад

      @@blackyraypatrick9041 da hast du auch vollkommen Recht und das meine ich nicht aber ich bin nur noch mit der RTX 4090 damit beschäftigt diese ständig auf
      50-60% im Powerlimit laufen zu lassen, weil ich den Überschuss an Leistung und den damit einhergehenden Stromverbrauch nicht benötige. Ja an sich ist die Effizienz im "behandelten" Zustand dann auch echt super nur letztendlich zu welchem Preis? Ich werde die natürlich noch behalten und schauen, was so geht und ob ich mir das Raytracing und DLSS Gedöns noch schmackhafter machen kann. Wenn nicht wird die eben wieder verkauft. Ich schau dann einfach und bin ganz gespannt auf echte aussagekräftige Gaming benchmarks zwischen 4090 und 7900 XTX und dann eben den preislichen unterschied in Euro hierzulande.

  • @nerdy3740
    @nerdy3740 Год назад +6

    Durch diesen 4080 Skandal hat Nvidia mich als über 15 Jährigen Stammkunde verloren. Bei mir wird es eine ASUS TUF 7900XTX OC

    • @m0saft255
      @m0saft255 Год назад

      Ich persönlich würde bei Nvidia bleiben, und ich wechsel jetzt auch wieder auf nvidia...ich benutze eine rx 6750xt und bin nicht zu frieden damit...nicht mit der Performance aber zb.: Treiber seitig fps Begrenzen geht relativ schlecht, sowie die Performance unter direct x12 eine grauenvolle experience ist...Beispielsweise in Assassin's creed Odysee habe ich zwar eine hohe framerate egal ob mit Msi Afterburner oder vom spiel selbst angezeigt aber es fühlt sich ruckelig an was bei einer rtx 2070 im gleichem system nicht so ist, trotz das die 2070 weniger hohe frameraten erreicht.

  • @lordxgermany
    @lordxgermany Год назад +1

    Doch mal zum Supermarkt des Vertrauens und Spekulatius kaufen. Etwas zum knappern während des Videos.

  • @tasmania9576
    @tasmania9576 Год назад +1

    Technik die begeistert.

  • @EspritBerlin
    @EspritBerlin Год назад +1

    Smarter move!

  • @mimu9599
    @mimu9599 Год назад

    Ich bin froh das die Innovationskastrierten Karten von AMD seit Jahren so gefeiert werden.......das macht die NVIDIA Karten für mich billiger weil diese somit nur ein 80%-"Monopol" geniessen.

  • @GlobalPlayerDE
    @GlobalPlayerDE Год назад

    Was sich mir nicht ganz erschließen will ist, dass AMD mit weniger Leistungsaufnahme, weniger Takt, weniger Einheiten in jeglicher Form und einem im Vergleich altem Fertigungsverfahren eine vergleichbare Leistung zur 4090 in den Raum stellt. Wie soll das gehen? Verschenkt die 4090 viel Potential mit den verbauten Komponenten oder ist das ein Luftschloss, was AMD da aufbaut?

    • @igorsLAB
      @igorsLAB  Год назад +1

      Im Verhältnis von Watt zu FPS sind beide Karten in etwa gleich. Die Performance bewegt sich also im guten Verhältnis zum Futter :)

    • @Law0fRevenge
      @Law0fRevenge Год назад

      @@igorsLAB Interessant wäre ja jetzt mal zu sehen was eine RDNA3 Karte so stemmen könnte wenn der Grafikchip die gleiche Größe hätte wie der AD102. Ich frag mich ob AMD da noch was mit einer 50 am Ende des Namens geplant hat :)

  • @enrico307
    @enrico307 Год назад +1

    Für mehr Reichweite🌐 und Erfolg📈,
    für unseren Freund, den guten Igor. 🖥🔍🙄
    Einfach mehr liken und teilen.👍📲
    Das Abonnieren wäre auch schön.❤😘

  • @sweedishpie360
    @sweedishpie360 Год назад +1

    I really want to watch this video but I can't understand German! 😭

    • @Stefan1200Germany
      @Stefan1200Germany Год назад

      well, at least there is an english written version of the review.

  • @Mx501
    @Mx501 Год назад +1

    Hat Igor in Minute 26 gesagt: 3090 titi 😅

  • @gstormcz
    @gstormcz Год назад

    With more transistors in Nvidia chip it is good chance it would be both more powerful and more efficient for same level of performance. I guess so.
    But given the agressive price of RX7900 cards it is going to be really interesting comparison, mainly for fps/dollar, although this doesn't matter in this price and performance category that much.

    • @Markus752CAC
      @Markus752CAC Год назад

      Yes, but also vastly more expensive. It would be much easier for AMD to scale this up with the chiplet design while NVIDIA is starting to suffer a lot of cost issues with a single big die already. Now they CAN still increase the size by quite a bit, we will still likely see a 4090Ti in the future. But AMD can go almost twice as big with it's main chip and only match NVIDIAs current monolithic die size. Cost is going to be a huge problem if NVIDIA doesn't make the shift to chiplets as well. You can already see that the 40-series is priced incredibly high.

  • @owlmostdead9492
    @owlmostdead9492 Год назад

    Also wird Nvidia spätestens bei der nächsten Generation ordentlich schwitzen müssen? Super, dann bekommen wir vielleicht mal wieder ordentlich Preis/Performance zum launch wie bei den CPU's mittlerweile.

  • @nerdy3740
    @nerdy3740 Год назад +1

    ASUS TUF Gaming Radeon RX 7900 XTX OC Edition 24GB GDDR6 kooof ich sofort 😂 her damit 😂

  • @M3dicayne
    @M3dicayne Год назад +2

    Ein tolles Video und gut erklärt.
    Mir ist nur ein kleiner Fehlerteufel aufgefallen:
    "15% schneller als eine 3090 Ti" ist ungleich "10% schneller als eine 5% übertaktete 3090 Ti".
    Nehmen wir an die Leistung der 3090 Ti ist 1. Dann ist 15% mehr Leistung 1,15.
    Eine um 5% übertaktete wäre also 1,05. 10% mehr davon sind allerdings 1,155.
    Ich weiß....Pfennigkram, aber korrekterweise sei es hier angeführt :)

    • @igorsLAB
      @igorsLAB  Год назад +1

      Prozentpunkte, ich weiß :D

  • @Bendersnatchling
    @Bendersnatchling Год назад +1

    Ich glaube Schopenhauer hat gesagt man macht nicht was man für rational hält, sondern man macht was man will und versucht das dann (pseudo-) rational zu begründen.
    In diesem Sinne:
    Schon toll wie effizient so eine 4090 ist!

  • @Traumglanz
    @Traumglanz Год назад

    AMD lässt den Boardpartnern (noch) mehr Spielraum und als Kunde muss man denn Spielraum ja dann auch gar nicht nutzen. Bin gespannt ob es wieder Silent Bios mit um 300W gibt und wie wenig mehr Leistung dann die 450W Versionen bringen.

  • @robertdrechsler5003
    @robertdrechsler5003 Год назад +4

    Sollte die RX 7900 XTX in Cyberpunk 2077 tatsächlich im Rasterizing vor einer RTX 4080 16GB liegen, würde es bedeuten, dass die Radeon im Durchschnitt einige Prozentpunkte vor der besagten Geforce liegt. Das Spiel ist schließlich als Showcase bis ins Letzte für Nvidia-Hardware optimiert. Auf jeden Fall wird es spannend! Ich freue mich schon auf den Test der AMD-Karte.

    • @proxis9980
      @proxis9980 Год назад +1

      das spiel hat nen dicken fetten consolen engine patch becommen mit der story erweiterung die aussage ist einfach falsch...non RT ist die engine inzwischen AMD optimiert weil die hardware in den consolen halt garbage alt ist .... :D

    • @bogdanschodorov8064
      @bogdanschodorov8064 Год назад

      @@proxis9980 Nein! Nochmal für dich Neeeiiinnn

    • @jbarninatus5898
      @jbarninatus5898 Год назад

      @@bogdanschodorov8064 Nein! Nein! Nein! Es bleibt alles wie es ist! 😁

    • @proxis9980
      @proxis9980 Год назад +1

      @@bogdanschodorov8064 Alles bleibt wies ist ? patches sind eine lüge updates existieren nicht ? nur releaser version 1.0.0 darf benched werden ?
      oder was solld er zirkus ?
      DIe werden in raster vermutlich schneller sein was sie auch sein müssen weil sie sonst auf der value chart nicht mithalten können , es geht nur darum dass sie deduction nicht aus dem einen bench herleitbar ist weil cyberpunk eben nicht mehr nur auf nvidia läuft.
      Die OG aussage ist vermutlich richtig aber die herleitung ist trotzdem falsch...

    • @bogdanschodorov8064
      @bogdanschodorov8064 Год назад

      @@proxis9980 Büdde......CD Red steckt sooo tief in NV's Ar... cyberpunk is nun wahrlich kein gutes Beispiel.....für irgendwas.

  • @Dragonheng
    @Dragonheng Год назад

    Weis nicht haupst in die Nvidia Schmelzkäse sache schon auf den Kes geht aber mir ist letzten tagen eine wirklich dumme sache in den kopf gekommen.
    Kann es sein das die "RTX4090" bei synthetischen Banchemarks oder einen Klassischen Banchmark, wie ein VW in ein spezielen modus verfällt um damit ihre Powerspikes verberg?
    Powerspikes die keiner Sehn soll?
    Letzten endes sehn ja die Karten/der Treiber was auf ihnen ausgeführt wird/werden soll sondst hätten die Low Hashwert Karten gegen Cypto miner auch nicht so ganz funktioniert.
    Also wäre die Karte selbst eines der anhalts punkte für das Schmelzen der Stecker neben der varienden Quallytät.

    • @igorsLAB
      @igorsLAB  Год назад +1

      Nein. ich messe alles mit Scopes im Mikrosekundenbereich. Die Schaltung der Spannungswandler ist mir bekannt, da kann nichts mehr spiken. Egal, was man für eine Last erzeugt. Mining interessiert mich übrigens nicht die Bohne. :D

    • @Dragonheng
      @Dragonheng Год назад

      @@igorsLAB Mining interssiert mich auch nicht, ich verkaufe lieber diese Bohnen als nach ihnen zu graben.
      So lange Nvidia nicht VW mit den abgass sakandal kopiet, darf man ruhigen gewissens stecker abfackeln nur geben 12V keine tolle Licht show.XD

    • @felixfollmer3527
      @felixfollmer3527 Год назад

      @@Dragonheng dein Deutschlehrer gehört verklagt.

  • @terryass4352
    @terryass4352 Год назад +2

    Igor beste ❤

  • @anahata8870
    @anahata8870 Год назад

    Ich hätt gerne den neuen dp , bei ner vr brille macht sowas sinn ;)

  • @flimermithrandir
    @flimermithrandir Год назад

    Weiß ich nicht. Glaub ich bin zu dumm um das zu verstehen. Ich versteh die Rechnung nicht ganz glaub ich. Soweit ich das verstehe ist die 4080 40% schwächer als die 4090 wenn ich rein von den Cuda und RT Cores gehe... bei fast gleichen Takt. Und das sind die Offiziellen Daten von Nvidia. Ich weiß es gibt da so ne 4080 die scheinbar unglaublich gut sein soll auf Video Cardz Seite aber die war auch scheinbar mit nem 2900 Hz Takt getestet worden also... ja ka.
    Die Daten stimmen alle nicht so wirklich überein. In meinen Augen kann die normale Founders nur maximal bis zu 35% schlechter sein als die 4090. Aber nicht (viel) besser. Wie soll die das schaffen? Also Ernsthaft.
    Ernsthaft ernsthaft. Ich schließe überhaupt nicht aus das ich es nicht verstehe. Im Gegenteil... sag ich ja sogar das ich es nicht verstehe. Also wenn mich jemand doof anmachen will... gg.
    Man kann nicht alles wissen und verstehen. Selbst dann nicht wenns einem erklärt wird.

  • @SomeNameHere
    @SomeNameHere Год назад

    zu der Grafik von @20:03 kann ich nur sagen, dass der Unterscheid im Preis der 7900XTX und der RX4090 ganze 1300€ beträgt. Ladie's und Gentleman, die 8 FPS Unterscheid in Cyberpunk 2077 sollten keine Verdopplung im Preis ausmachen...

    • @igorsLAB
      @igorsLAB  Год назад +1

      Die Rechnung hätte ich gern auch in Nachvollziehbar. Wenn man die MSRVP vergleicht, sind es knapp 500 USD.

    • @SomeNameHere
      @SomeNameHere Год назад

      @@igorsLAB MSRP ist so etwas nicht nachvollziehbares. Bsp. würde man beim Anbieter Caseking, wenn verfügbar, das Referenzmodell der 7900XTX zum MSRP bekommen, man kann es aber vergessen eine RTX4090 für unter 2200€ zu bekommen, wodurch die Preisspanne für den Endnutzer definitiv 1200€ oder mehr beträgt. Für mich persönlich ist auch ein Verkaufsargument, das die AMD Karten in den PC reinpassen. die Nvidia Karten mit 330+ mm sind absurd.... Anderer Verkaufsargument für AMD: Fackelt einem nicht die Bude ab.

  • @Genjuro77
    @Genjuro77 Год назад +1

    Bin ja ziemlich überrascht von Igors Prognose, nach meiner Schätzung sollte (in Rasterization) die 7900 XTX gut 10-15% vor einer RTX 4080 liegen, während sich die 7900XT und die RTX 4080 auf einem gleichen Level bewegen.

  • @Diablokiller999
    @Diablokiller999 Год назад

    Ob AMD eine 4080 Ti dann mit einer 7950 XTX und gestapeltem Cache kontert?
    Spannend bleibts allemal und hoffe das Intels erste Ingenieursversion einer GPU dann doch gut mitmischen kann - die aktuelle Generation ist wohl eine "BWLer sagt muss raus" Edition für die Bücher.

    • @igorsLAB
      @igorsLAB  Год назад +1

      Der gestapelte Cache wird auf der GPU nicht viel bringen außer thermischen Problemen, denn die hat doch so schon Cache bis der Arzt kommt.

    • @Diablokiller999
      @Diablokiller999 Год назад

      @@igorsLAB Keine Ahnung wie die Auslastung der Einheiten mit 96MB Cache so ist, das Speicherinterface ist zwar dennoch recht schnell aber hätte hier einen potenziellen Flaschenhals erwartet. Hat AMD wohl eine gute Hitrate erzielt...

  • @Floraine_UK
    @Floraine_UK Год назад

    da hat der igor wohl ausversehen fps und prozent durcheinander gebracht. 56 fps zu 70 fps sind 14 fps unterschied aber 25% und nicht 14%.

    • @igorsLAB
      @igorsLAB  Год назад

      Das sind die Nachteile von ungeschnittenen One-Takes und Standup, das ist ja wie Live-Talk. Korrekt nachzulesen im verlinkten Artikel.

  • @jbarninatus5898
    @jbarninatus5898 Год назад

    Na dann wollen wir mal hoffen ds die 7900er kein Paierstart wird. Wenn es wirklich ein Kopf an Kopfrennen wird kann sich ja NV mit seinen Mondpreisen (hoffentlich)
    warm anziehen....

  • @kai84m
    @kai84m Год назад

    Langsam könnten auch mal echte Benchmarks vorliegen. Ich frage mich, warum AMD den Versand der Referenzkarten so lange herauszögert. Das könnte ein schlechtes Zeichen sein.

  • @ThePwnij
    @ThePwnij Год назад +2

    Eine RTX 4080 16GB hat 60% der Shader einer 4090, und das bei gleichem Takt. Ergo wird auch die Rasterleistung lediglich bei ca. 60% der 4090 liegen. Das ist WEIT von 7900 XTX Niveau entfernt. Zu behaupten die Karten würden bis auf +/- 5% beianander liegen ist absoluter Nonsense, und das von einer Person, die sich angeblich mit der Materie auskennen sollte.
    Cyberpunk 2077 in 4k ist so ziemlich das schlechteste Beispiel das man hätte nehmen können, weil RDNA2 dort im Vergleich zu Ampere bei 4k Auflösungen stark hinterherhinkt.
    Das kann man nicht auf andere Spiele projezieren, wo eine 6950XT im Schnitt in nähere Reichweite (+/-5%) einer RTX 3090 Ti kommt.
    6950 XT~RTX 3090 Ti + 50-70% = 7900 XTX.
    Eine 4080 16GB die gerade einmal 10-15% schneller als die 3090 Ti sein sollte (und ich garantiere, das ist basierend auf den niedrigen Core counts vermutlich das Optimum; dürfte real nicht wirklich schneller als eine 3090 Ti sein) wird nicht ansatzweise in die gleichen Sphären kommen, wie eine 7900 XTX.
    Die 7900 XT weist 13,5% weniger Shaders auf als die 7900 XTX. Zusätzlich 13% weniger Takt. Die 7900 XT wird demnach irgendwo 15-20% hinter einer 7900 XTX liegen und damit EBENFALLS deutlich über einer 4080 16GB. Also nein, Bilderrahmentheorie ist definitiv nicht richtig.
    RX 6950 XT: 95%
    RTX 3090 Ti: 100%
    RTX 4080 16GB: 105%
    RX 7900 XT: 125%
    RX 7900 XTX: 145%
    RTX 4090: 160%

    • @HQT-hi7qk
      @HQT-hi7qk Год назад

      Falls das so kommt kann nvidia ihre Schrottkarten behalten.

    • @igorsLAB
      @igorsLAB  Год назад +5

      Genau DAS ist falsch. AMD hat das SELBST gebencht und es war deren Angabe. Und über die 4080 musst Du mit mir nicht diskutieren denn ich musste sie aus der Grafik rausnehmen, weil die Hochrechnung zu genau war. Dummerweise habe ich die nämlich bereits hier. :D

    • @blackyraypatrick9041
      @blackyraypatrick9041 Год назад

      @@igorsLAB mei Igor. Du bist aber auch leicht zu täuschen. Ist doch klar dass ein Hersteller seine Grafikkarten viel viel schlechter bencht als sie tatsächlich leisten. Am Ende könnte der Kunde sonst ja noch kaufen wollen trotz geringer Verfügbarkeiten. Das wollen die sicher nicht;)

    • @kevinraeche9975
      @kevinraeche9975 Год назад

      Du bist gut, hätte er ein "AMD" Spiel nehmen sollen wie zum Beispiel Assassins Creed Valhalla?! Ist eben absolut Schwierig, zwecks Auswahl der Spiele, da hat er verdammt Recht. Wird schon so werden bzw. wie es mit der älteren Generation war. Die 6800 xt war nur in Rasterisierung, niedrigen Auflösung und ohne RT schneller als eine 3080. Also ich würde da lieber das bessere Gesamtpaket nehmen und auf etwas Rohleistung verzichten, aber das Paket stimmt ja auch nur, wenn der Preis passt und hier wird es mit Nvidia schwierig.

    • @blackyraypatrick9041
      @blackyraypatrick9041 Год назад

      Zudem die 1,7x in cyberpunk hat amd selbst als "best" case Szenario ausgewählt was man im Video auch sieht. Direkt hinter ihm wurde die Statistik mit Werten um die 1,5x herum bis eben 1,7 in cyberpunk aufgezeigt.

  • @n0f4ke74
    @n0f4ke74 Год назад +1

    Compute ich will Compute!!!

  • @PhilipR1990
    @PhilipR1990 Год назад +7

    Igor for president 😍 👍

  • @KamichamaTechstarify
    @KamichamaTechstarify Год назад

    Ey die erklärung warum das Video erst jetzt kommt, und wegen der gehreimhaltung und so- ich musste die ganze Zeit richtig grinsen xD
    Aber das ist genau das was AMD die letzten Jahre stark von Nvidia unterscheidet.
    - Nvidia hat richtig mit der Brechstange gearbeited. die 4090 zieht 450 Watt, obwohl die etwas undervolted, mit ca. 350Watt gerade mal 3-5 FPS verliert.
    - AMD geht hier ganz Klar den "im Rahmen" weg und es ist für jedermann da, und wer es dann von den Bordpartnern will der kann es ja auf die Spitze treiben und verschiedene overclockte modelle anbieten, die halt nicht auf die Watt schauen, um die XY FPS noch raus zu kitzeln.
    Dann kann man selbst ohne eingriff entscheiden was man haben will.
    (Witzig ist ja, das vor 10 Jahrne es ja noch genau anders herum war, AMD hat heftige Wattzahlen geschossen, und Nvidia hatte mit mehr Listung bessere effizienz xD )