Intel 13600K vs AMD 7800X3D | Ist Intels 13. Generation wirklich so ein Stromfresser? | DasMonty

Поделиться
HTML-код
  • Опубликовано: 2 окт 2024

Комментарии • 260

  • @wolfwilkopter2231
    @wolfwilkopter2231 Год назад +24

    2 Anmerkungen:
    Der 13600K/KF ist ja "nur" eine 6Kern CPU mit 8 Effikernen, wenn man richtig fair bleiben würde, müsste man hier einen 13700K gegen den 7800X3D heranziehen.!
    Und wegen Cyberpunk:
    Da ist mit dem 7800X3D und auch vorherigen 8Kernern, wie 3700X, 5800X oder eben vor allem auch dem 5800X3D noch bis zu ca 20% mehr drin, wenn man den AMD 8Kern CPU Patch nutzt, da hier von Cyberpunk bei AMD (Intel CPUs haben das Problem nicht) bei den 8Kernern nur 6 richtig angesteuert werden, mit Patch arbeiten die 8Kerner jedoch wie sie sollen.
    Auf PCGH gibts entsprechend Artikel und Download für 1.63.

  • @Th3_Dark_Side
    @Th3_Dark_Side Год назад +67

    Sollte man den Ryzen 7 7800x3d nicht eher mit dem i7 13700k vergleichen? Scheint mir irgendwie sinnvoller.

    • @AshWiIIiams
      @AshWiIIiams Год назад +22

      Verstehe auch nicht warum der 13700k immer so hart ignoriert wird.

    • @fanolade
      @fanolade Год назад +9

      ​@@AshWiIIiamsDas stört mich auch immer. Für gaming isn i9 absolut unnötig, weil die 1-2% Mehr fps rly... dafür zahl ich nicht das doppelte. Und ja Anwendungsleistung hin oder her, i7 hat ne krasse Anwendungsleistung. I7 kann alles. I9 ist in der Regel overkill, der nächste i7 schlägt sowieso immer den vorherigen i9.

    • @der-Troet
      @der-Troet Год назад +6

      sehe ich auch so. der 13600k ist eher mit dem 5800x3d zu vergleichen

    • @Th3_Dark_Side
      @Th3_Dark_Side Год назад +8

      @@fanolade Rein fürs Gaming sind alle Intel Cpu's unnötig, da es bei einem Gaming Pc ja ganz klar um Gamingpower geht. Das Argument der Anwendungsleistung erschließt sich mir bei reinen Gaming Pc's daher nicht. Daher sollte man die x3d Cpu's auch nicht mit den Intel Cpu's vergleichen, da die Anwendungsbereiche anders sind. Will man hingegen eine Workstation bauen, so sind die Intels natürlich besser.

    • @Th3_Dark_Side
      @Th3_Dark_Side Год назад +1

      @@der-Troet Eher mit dem 7600x

  • @Der_Sonntagsfahrer
    @Der_Sonntagsfahrer Год назад +32

    Na Monty, zum Glück hast du ja deine eigene Aussage (der 13600k verbraucht gar nicht soviel mehr) mit deinem eigenen Test ad absurdum geführt! Und trotzdem behauptest du in deinem Fazit nach dem Test, die 40 Watt sind ja nicht so schlimm. Da krieg' ich gleich ein Schleudertrauma vom vielen Kopfschütteln!

    • @Joschi6007
      @Joschi6007 Год назад +4

      Manchma könnte man glauben Monty bekommt Kohle von Intel. Vielleicht weil AMD ihm keine neuen CPUs und GPUs zur Verfügung stellt.

    • @Nikioko
      @Nikioko Год назад

      Ja, er tut alles, um den Intel-Prozessor schönzureden.

    • @DasMonty
      @DasMonty  Год назад +10

      Ich finde dass ich schon sehr deutlich gezeigt habe, wie überrascht ich von der extremen Performance des 7800x3d bin. Aber der Preis ist halt auch nicht ohne. Was meint ihr warum der aber trotzdem im neuen DasMontyPC ist? 😁

    • @Joschi6007
      @Joschi6007 Год назад +1

      @@DasMonty Es ist schon Auffällig das du den 13900K als deine Lieblings CPU bezeichnet hast. Wenn bei den Mindfactory Verkaufszahlen der 13600K auf dem 10- Platz landet fängst du an zu klagen. Das du Intel ARC Grafik Karten feierst versteh ich, ich wünsche mir auch einen 3. Player. Gruß und Nix für Ungut

  • @Z0o0L
    @Z0o0L Год назад +4

    kp ich hab n i5 12400 f zum zocken der zieht auf 1080 p fast immer 30-40 watt in meinen games oft sogar nur 20-30 watt

    • @pasimo1399
      @pasimo1399 Год назад +1

      Ja der ist sehr sehr sparsam unterwegs.

  • @mrm7058
    @mrm7058 Год назад +8

    "Ist Intels 13. Generation wirklich so ein Stromfresser"
    Kommt halt immer drauf an mit welcher Intel CPU der 7800X3D nun genau verglichen wird und mit welchen Spielen. Der 13600k ist sicher noch zahm in der Hinsicht.
    Aber schon der Intel 13700 zB verbraucht 96 Watt mehr als der 7800X3D in "The last of us", 105 Watt mehr in "the shadow of the Tomb Raider" , 96 Watt mehr in Cyberpunk 2077, 83 Watt mehr in Hitman 3 aber nur 34 Watt mehr in Resident Evil 4. Jeweils in 1080p. Quelle Hardware Unboxed.
    Bei mir wird es in jedem Fall der 7800X3D, auch weil ich CPU lastige Spiele wie Anno 1800, MS Flight Simulator, Star Citizen und Cities Skylines spiele, bestellt ist er schon. 😀

  • @zubunapy
    @zubunapy Год назад +7

    Intel hat schon einen sehr guten Job abgeliefert. Nach Jahren der Durststrecke haben sie nun wieder richtig gute CPUs im Sockel und das ist auch gut so. Beim Refresh wollen sie offenbar mal wieder mit der Brechstange ran und mit Takt AMD schlagen... nun ja. Anderes Thema^^
    Fakt ist aber: AMDs X3D CPUs sind nicht einfach nur schneller, sie sind auch EFFIZIENTER. Sowohl bei gleicher als auch bei höherer Framerate verbrauchen sie weniger Strom.
    In Anwendungen mögen sie langsamer sein, aber jetzt mal Hand auf´s Herz: Macht es für einen Monty (Ja, dich meine ich^^) tatsächlich einen Unterschied, ob er seine Videos etwas schneller gerendert bekommt? Du lieferst Mo-Mi-Frei ein Video und noch eines am Wochenende. Ist es da tatsächlich entscheidend, ob das Video nun 2h oder 1,5h rendert? Und genau da würde es dann schon einen Unterschied machen, ob die CPU nun 200 Watt oder nur so 60 Watt aus der Steckdose zieht.
    Deswegen hier mein Wunsch für den nächsten Test: Rendere doch mal ein handelsübliches News Video von 20min zuerst mit dem 13600 und dann mit dem 7800X3D, lies auch hier die Leistungsaufnahme aus und stoppe die Zeit. Es wäre sicherlich für den einen oder anderen spannend, wie effizient AMD jetzt wohl ist?

  • @Joschi6007
    @Joschi6007 Год назад +6

    Die Intel CPU verbraucht mal eben fast doppelt so viel, was gibt es da schön zu reden??? Grüße gehen raus

    • @friedemanngadeke8366
      @friedemanngadeke8366 Год назад

      Ist aber nur ein interner Wert. Der gesamte PC hat einen prozentual gesehen viel kleineren Unterschied.

    • @Joschi6007
      @Joschi6007 Год назад

      @@friedemanngadeke8366 Stimmt nicht. Ein System mit 4080 und GSync auf 100 FPS braucht nicht über 200Watt. Da sind 80 Watt für eine veraltete 13600K ne Menge Holz. Gruß

    • @friedemanngadeke8366
      @friedemanngadeke8366 Год назад

      @@Joschi6007 Meine Aussage stimmt definitiv.

    • @Joschi6007
      @Joschi6007 Год назад

      @@friedemanngadeke8366 Die 200 Watt sind an der Steckdose gemessen mit feiner Messtechnik. Definitiv auch richtig.

    • @friedemanngadeke8366
      @friedemanngadeke8366 Год назад

      @@Joschi6007 Ja aber völlig belanglos wenn man nur eine Zahl vergleicht. Man muss schon beide Systeme genauso messen.

  • @AshWiIIiams
    @AshWiIIiams Год назад +26

    Glaube beim letzten Vergleich sind die CPU Werte vertauscht 🙂

  • @Nudels99
    @Nudels99 Год назад +7

    Das leistungs und preisliche Gegenstück zum 7800x3D ist eigentlich der 13700k. Von daher wäre dieser Vergleich sinnvoller gewesen. Wie schaut es denn mit dem Verbrauch im Idle aus, der AMD soll da ja angeblich so viel mehr verbrauchen. Hast du da Werte Monty?

    • @sharkey9
      @sharkey9 Год назад +1

      Idle ist bei der 7000 Reihe etwa doppelt bis dreifach so hoch wie bei Intel. Bedeutet bei meinem 7600, dass der minimum 27W zieht bei meinem custom "Energie sparen" plan, der den 7600 permanent auf absolutem minimum von 2980MHz laufen lässt, was übrigens zum Surfen etc. vollkommen ausreicht.
      "Ausgeglichen" zieht 30W und "Höchstleistung" zieht 34W.
      Darüberhinaus ist die Temperatur im Idle auch nicht unter 45° zu bekommen, eher so um die 52° bei leise laufenden Lüftern.
      Das alles wohlgemerkt mit optimiertem PBO und Undervolting.
      Dafür geht's dann unter Vollast nicht über 100W bzw. 80°
      edit: 7600X

    • @TheTaurus104
      @TheTaurus104 Год назад

      Nur das die PCGH bereits bestätigt hat, das Alle Tool wie HWInfo, MSI Afterburner etc. den Idle Verbrauch von Ryzen CPUs zu hoch und damit falsch auslesen. Mit HW Info soll ein 5800X3D 32W verbrauchen, mit dem AMD Ryzen Mastertool was PCGH zum auslesen empfiehlt, sind es nur noch 7-10W. @@sharkey9

    • @Nudels99
      @Nudels99 8 месяцев назад

      ​@@sharkey9was meinst mit optimierten pbo, hast du da noch was besonderes eingestellt?

  • @rudiruessel9816
    @rudiruessel9816 Год назад +3

    Wir haben die hoechstens strompreise der welt. Und der mehr stromverbrauch macht nichts? Sehe ich nicht so.

    • @SteinerArts
      @SteinerArts Год назад +3

      Danken wir unserer Politik dafür, dass unser Hobby so schmerzhaft geworden ist. 😶‍🌫️

    • @DasMonty
      @DasMonty  Год назад

      Es geht hier um 40 Watt. Und die machen bei 500 Watt den Braten halt auch nicht fett. Aber insgesamt hast du natürlich Recht.

    • @mrm7058
      @mrm7058 Год назад +1

      @@DasMontyWie kommst du auf 500W? Ist ja nicht so als ob jeder der auf den Stromverbrauch der CPU achtet, nicht auch das selbe bei der GPU tut. Ich hab mir aus diesem Grunde die recht effiziente 4070 gegönnt und werde mir für diese eine ebenfalls effiziente CPU holen und dann noch ein wenig Untervolting betreiben.

  • @mobbpromover
    @mobbpromover Год назад +3

    Da ich im Moment einen 12400f habe wird es wohl der 13600k werden. Ich bleibe bei dem Sockel 1700 bzw. nutze das selbe Mainboard weiter.

    • @Serandi1987
      @Serandi1987 Год назад

      Macht Sinn 🤔
      Bei mir ist es der 5800X3D und extrem zufrieden damit. Innerhalb von 1,5 Jahren von 5600X, über den 5800X, zum 5800X3D 😂🎉

  • @peterthomas3938
    @peterthomas3938 Год назад +1

    Naja 40 watt unterschied ist nicht soviel aber in % gegen 60 Watt vom ryzen??

  • @VillaMasterSF
    @VillaMasterSF Год назад +2

    wie immer ja und nein aber wenn man alles betrachtet isses für gamer besser den 7800X3D zukaufen...

  • @PeresMcvoyager
    @PeresMcvoyager 6 месяцев назад +1

    Ohne wenn und aber ==> AMD 7800X3D - 350€

  • @SChuckLP
    @SChuckLP Год назад +5

    Würde den 7800x3d auch eher mit dem 13700k vergleichen, da sie preislich näher beieinander sind, wobei erstere CPU zumindest bei Mindfactory nur noch knapp über 400,-€ rangiert. Die Leistung des AMD Prozessors ist einfach brachial in Spielen und wahnsinnig effizient ist er obendrein. Insbesondere in Kombination mit einer fetten Grafikkarte ist man froh über jedes eingesparte Watt. Wäre noch interessant zu wissen, wie es mit Undervolting aussieht. Da lässt sich aus dem 7800X3D sicher ein veritables Effizienzwunder zaubern. Dann läuft die ganze Kiste in Kombination mit einer 4090 sicher auch mit nem guten 650 Watt Netzteil ohne Probleme.

    • @urkent4463
      @urkent4463 9 месяцев назад

      sicher auch mit 550, wenn man, wie man auch sollte, die 4090 sich einfach nicht ganz austoben lässt
      ultra-effiziente 4000 Serie

  • @AlienGurke
    @AlienGurke Год назад +3

    Ich frage mich, wie ein 13600K performt, wenn man ihn auf die gleiche Wattzahl runterdrosselt wie ein 7800X3D nutzt.

  • @volkerbraendel683
    @volkerbraendel683 Год назад +3

    Moin monty bei mir läuft ein i9 12900k auf nem asus z790prime mit 64gb ddr5 5200mhz das bleibt auch erstmal so 😊

    • @volkerbraendel683
      @volkerbraendel683 Год назад

      Aso meine Grafikkarte kennst du ja rtx 4080 danke für deine Antwort und das mich zum Kommentar des Tages ausgewählt hast. Mach weiter so 👍✌️😊

  • @davidhipler4317
    @davidhipler4317 Год назад +2

    Ich mag dich ja, aber du hättest lieber den 13700k und den 7800x3d vergleichen sollen. Gar nicht mal wegen den Kernen, eher wegen dem Preis.

    • @DasMonty
      @DasMonty  Год назад

      Hab keine. 13700K hier 🤷

  • @gregorclemens4814
    @gregorclemens4814 Год назад +4

    Der 7800x3d ist im Moment für nur 409€ bei MF zu haben, daher deutlich empfehlenswerter.

    • @Joschi6007
      @Joschi6007 Год назад

      Der 7700X kostet 310€ ist auch schneller und deutlich effizienter und die Plattform ist Zukunftsicher bis 2026

  • @steffenachtzehn8817
    @steffenachtzehn8817 Год назад +1

    Habe einein 13700K

  • @extremedaemon
    @extremedaemon Год назад +4

    nutz heute den letzten Tag den 13900K - auch wenn Verbraucht und Abwärme bei mir zweitranging sind, steht es jedoch nicht mehr in Relation, vor allem im Vergleich zu den X3D CPU´s. Daher erfolgt morgen der Wechsel auf AM5 Plattform und den 7950X3D. Unterschied in Sachen Performance wird eher minimal sein, da ausschleßlich auf 2160p Spiele, aber Verbrauch und Abwärme werden sich gefühlt halbieren, zumal alles was man bis jetzt von den 14th Gen Intel gesehen hat, eher enttäuschend.

    • @serterses2426
      @serterses2426 Год назад

      Da kannst du gleich den i5 nehmen

    • @extremedaemon
      @extremedaemon Год назад

      @@serterses2426 nee - das kommt nicht Frage für mich.

    • @volkerbraendel683
      @volkerbraendel683 Год назад

      Hätte ich nicht gemacht der 13900k ist schon geil wenn man den noch bisschen optimiert mein 12900k zieht auch nicht so viel wie angegeben auch optimiert 😊

    • @extremedaemon
      @extremedaemon Год назад

      @@volkerbraendel683 ja lässt sich viel machen mit Anpassungen und bei mir läuft er aktuell auf 5,8 GHz all-core und entsprechend Multi by core usage, nichtsdestotrotz nahezu immer das doppelt vom X3D - und ich mache mit meinen PC nichts außer gaming, daher ist der "Verlust" im Multicore zu verschmerzen. Und dazu kommt für mich noch, dass die 1700er Plattform von Intel tot ist, zumal mit den 14th nichts mehr großes an Performance kommt.

  • @Fischdose1
    @Fischdose1 Год назад +4

    Tolles Video!
    Kannst du mal einen Vergleich mit "Intel Core i9 13900K" und "AMD Ryzen 9 7950X vs. AMD Ryzen 9 7950X3D" machen?
    Danke!

    • @LayerZlayer2000
      @LayerZlayer2000 Год назад +1

      Das wäre mal sinnvoll ja

    • @DasMonty
      @DasMonty  Год назад +2

      Ist möglich, da ich auch beide CPUs da habe. Mal gucken 🙂

    • @Fischdose1
      @Fischdose1 Год назад

      @@DasMonty Das wäre super, weil ich nämlich für meinen neuen PC zwischen diesen schwanke! Danke!

    • @Stefan-yd4sf
      @Stefan-yd4sf Год назад

      @@DasMonty Aber bitte nutze mal bitte "unterschiedliche" Spiele, das sind halt alles irgendwie so "umgebaute Konsolengames". Ist das eigentlich immer die gleiche Game-Engine? Nutze doch mal auch sowas wie Valheim, oder Icarus oder auch mal Dota2.. dann hast du auch mal mehr unterschiedliche Ergebnisse!

  • @Jani3124_
    @Jani3124_ Год назад +3

    Ich denke mir immer wert Zockt realistisch in 720p oder 1080p wen man sich einen 13600k oder höher holt und dann noch mit einer 4080. Da Zockt man doch mindestens auf 1440p denke ich

    • @pasimo1399
      @pasimo1399 Год назад

      Die meisten zocken auf 1080p immernoch.
      Für die Cpu ist die Auflösung auch recht unrelevant und wenn man cpu Tests macht ist das eben die besten Wahl eine niedrige zu nehmen.
      Unabhängig davon wer jetzt in welcher spielt.

    • @Jani3124_
      @Jani3124_ Год назад

      @@pasimo1399 Ja das die meisten in 1080p Spielen ist mir schon klar und auch das man auf so geringen Auflösungen Testet. Aber ich denke mir halt der großteil von den Leuten die sich CPUs holen die über 300€ sind Zocken eher in min 1440p.

    • @pasimo1399
      @pasimo1399 Год назад

      @@Jani3124_ ich glaube man würde sich wundern wie viele auch von denen noch auf 1080p spielen.
      Dazu müsste es mal Daten geben, das wäre mal interessant.

    • @Jani3124_
      @Jani3124_ Год назад

      @@pasimo1399 Ja wäre echt mal interessant was so die meist genutzte Auflösung ist und wie viele Monitore man so hat.

    • @mrm7058
      @mrm7058 Год назад

      @@pasimo1399Über 60% sind bei Steam noch in 1080p, wie das hier in der Community aussieht, dazu könnte Monty ja mal eine Umfrage machen. 😊

  • @superprinz4753
    @superprinz4753 Год назад +2

    Ich werde die nächsten Wochen auf eine Ryzen 7000 CPU umsteigen, habe zur Zeit Intel 7820X (X299) und bemerke zur Zeit das ich selbst in 4K sehr schnell ins CPU bottleneck komme. Zusätzlich zum Spielen arbeite ich mit AutoCad und möchte für die Zukunft eine upgradefähige Plattform haben.

  • @dermanu3444
    @dermanu3444 Год назад +16

    Würde gerne ein Test aller gängigen CPUs vom Verbrauch, in Spielen, Idel, und im Browser haben.
    Das würde mich noch sehr interessieren.

    • @andreasrecke2171
      @andreasrecke2171 Год назад +3

      Warum ist der Stromverbrauch beim nichts tun wichtig? Ich schalte den Computer aus wenn ich nichts am PC mache!

    • @Joschi6007
      @Joschi6007 Год назад +4

      @@andreasrecke2171 Mein PC ist den ganzen Tag im Idle, wenn ich nicht gerade dran sitze

    • @dermanu3444
      @dermanu3444 Год назад +1

      @@andreasrecke2171 Möchte mich selbständig machen und da bin ich dann viel zuhause am PC. Bei den aktuellen Preisen, ist es dich interessant was ein PC dann verbraucht. Tendiere auf ein 13400K. Der verbraucht an sich nicht viel und du kannst dennoch etwas zocken ohne große Abschnitte zu machen.

    • @ulfs.3793
      @ulfs.3793 Год назад

      @@andreasrecke2171 Du schaltest jedesmal aus, wenn Du durch Telefon, Klingeln an der Tür oder (falls vorhanden) das Kind etwas möchte? Ob das so gut ist für die Hardware, ständig aus- und eingeschaltet zu werden.

    • @andreasrecke2171
      @andreasrecke2171 Год назад

      @@ulfs.3793 Für Telefon, Klingel, Geldbriefträger, Flaschenpost läuft der PC mit der von mir beauftragten Arbeit weiter. Aber wenn ich mit der Arbeit fertig bin und ggf. ein Spiel gespeichert oder beendet habe fahre ich den PC runter und starte ihn erst wieder wenn ich am PC arbeiten oder daddeln will. Oder mal eben Antworten auf Kommentare. Es reicht mir schon das meine beiden NASen von Qnap 24/7 am laufen sind und unteranderem meine Backups und meine Videos mit etwas mehr als 20 TB verwalten und für zugriffe bereit stehen. Und ja meine beiden Qnap NAS 4 Bay Kisten mit 8 TB erweiterungen. Werden gegen ein neues Qnap NAS mit 8 Bay und je 10 TB HDD ausgetauscht. Und der Xenon Rechner wir nur noch als Backup für die Videos verwedet. Und nur hochgefahren wenn er einmal im Monat seinen Backup Arbeitsauftrag nachkommen soll. Dann kann es tatsächlich sein dass Eine NAS und 3 Computer gleichzeitig am laufen sind und selbst dabei nicht im Idle rumstehen.

  • @Captain_Rudi
    @Captain_Rudi Год назад

    Irgendwie finde ich die Argumentation total Banane 🍌😅😂
    Der effizienteste High End Gaming Prozessor, aktuell nach dem 7950X3D die zweitschnellste Gaming CPU vergleichst du mit dem i5 13600K? Was ist denn das für ein absoluter Stumpfsinn? Vorallem für ein Effizienz/Energieverbrauchsvideo?
    Obendrein zeigst du Benchmarks in denen der Ryzen Prozessor auch noch mehr FPS liefert und trotzdem um 40-50% weniger Energie verballert. 😵 Der Ryzen7 zieht um die 50 Watt!!!! Überleg doch mal was das für ein Wert ist. Wahnsinn!
    Wie kann man das denn so schön reden? Schwer nachvollziehbar... sorry, aber diesmal ein echt mittelmäßiges bis schlechtes Video Monty!
    Ich habe ebenfalls Spielebenchmarks mit dem Ryzen7 7800X3D in 12 aktuellen Games gemacht und dabei auch alle drei gängigen Auflösungen in allen 12 Spielen ... UHD, WQHD und FullHD getestet. In den kleinen Auflösungen ist der Unterschied so richtig eklatant...hast du ja auch teilweise bestätigt.
    Getestet hatte ich mit einer 4080 und die war selbst in FullHD in sehr vielen Spielen voll ausgelastet und oft auch nur teilweise...und schwupps steigt der Abstand im Verbrauch zum 7800X3D rapide.
    In der aktuellen Situation gibt's eigentlich keine Argumente, sich für einen Raptorlake CPU zu entscheiden...wenn es ums Gaming geht...und solange es die X3D Chips ohne Intel Konkurrenz gibt. 😉

  • @scenesofalife
    @scenesofalife Год назад +2

    Habe mir den 13700K gegönnt, weil ich eh überwiegend auf der PS5 zocke. Mir geht es hauptsächlich um flüssigen Videoschnitt und da ist ja die iGPU der Intel-Prozessoren unschlagbar! Leider geht es in den meisten Tests auf RUclips immer nur ums Gaming. Da ich auf Luftkühlung setzen werde, war mir der Griff zum i9 dann doch ne Nummer zu heiß.

    • @Nudels99
      @Nudels99 Год назад

      Nutzt du Adobe? Ich weiß dass dort Quicksync einen hohen Vorteil bringt. Ich stehe nämlich auch vor der Entscheidung 13700k oder 7800x3D. Schließe Videoschnitt nicht aus bei mir. Nur wenn Quicksync ausschließlich in Adobe supportet wird, weiß ich nicht ob ich da Intel wirklich brauche.

    • @scenesofalife
      @scenesofalife Год назад

      @@Nudels99 Mir zu teuer. Nutze MAGIX Video Pro X. Dort wird ja auch auf Intel Quick Sync gesetzt. Die Codecs der AMD-Prozessoren werden offenbar nicht so weitläufig unterstützt. Aber mal ne andere Frage: dieses A im Profilbild - ich habe das schon so oft auf RUclips gesehen. Ist das aus einem Film oder ner Serie oder einfach nur random? XD

    • @sharkey9
      @sharkey9 Год назад +1

      Auch gerne vergessen zu erwähnen wird, dass Quicksync die optimale Methode zum Streamen ist. Bildqualität schlägt x264 und NVenc bei nahezu Null impact auf die FPS. Bezogen auf Twitch natürlich, ist nunmal der Standard.

    • @philippengl2342
      @philippengl2342 Год назад

      @@scenesofalife
      Dieses Profibild sollte man vor einigen Jahren mal für die Teilnahme bei einem Gewinnspiel verwenden.
      Ist sicher 2-3 Jahre her.

    • @scenesofalife
      @scenesofalife Год назад

      @@philippengl2342 Ah ok, hatte mal die Google Bildsuche angeworfen aber rein gar nichts gefunden.

  • @GamerJuli85
    @GamerJuli85 Год назад +1

    Also reicht ein 13600K oder auch ryzen 5800x3D völlig aus für Gamer. Es sei denn man möchte Full HD 200 fps und höher zocken..dann 7800x3D. Top Video!

  • @letsplaymittommy9311
    @letsplaymittommy9311 Год назад +1

    Hey Monty.
    Der Ryzen 5 7500F wird mittlerweile auf Geizhals Gelistet

  • @Serandi1987
    @Serandi1987 Год назад +1

    Habe wohl noch unzählige viele Jahre Ruhe mit dem 5800X3D & RTX 4090 im 4k Gaming only bis maximal 115 FPS bei 120Hz. Punkt. Aus. Ende! Mehr brauch ich einfach nicht und frage mich WOZU ich bitte mehr FPS benötigen sollte?? Ich vermisse es null und begrenze die sogar FREIWILLIG bei einer undervolted 4090 😂verstehe diese FPS-Jähger überhaupt nicht! Außerdem spart man unmengen an Strom mit undervolting und FPS Begrenzung! 💯
    Auch nicht im Competitive Gaming macht das doch keinen Sinn, wenn der eine 100 FPS und der andere 500 FPS hat. Ist doch vorne und hinten nicht mehr fair😅... Naja macht ihr mal ihr Junkies.
    Mein online competitive Game #1 ist und bleibt Tekken, was online wie offline auf 60 FPS begrenzt ist.
    Da ist es immer schön fair und am kann wirklich auf seine Leistung auch stolz sein, wenn man hochrangige Gegner in die Flucht schlagen kann! 💪😎
    ABER! JEDEM DAS SEINE!
    vielleicht habe ich ja absolut KEINE Ahnung 😂😂😂

  • @klaus845
    @klaus845 Год назад +5

    Man muss dazu sagen, das sich die Intel CPUs nochmal gut Undervolten lassen in dieser Gen, schade das du das ausgelassen hast und wie ein "Optimierter 13600k" performen würde.

    • @samserious1337
      @samserious1337 Год назад +5

      Kannst beim 7800X3D aber auch Curve Optimizer (-30) anwenden und aufgrund der sehr hohen Performance auch ruhig -200MHz runtertakten. Dadurch spart man insgesamt bis zu 20%.

    • @Dennace90
      @Dennace90 Год назад

      @@samserious1337 dazu noch total unrealistische werte... welche wirklich im BlueScreenBereich sind.. -
      das mit den MegaHertz funktioniert bei AMD nun mal wirklich nicht ohne 200h arbeit in den mainboard zu stecken.
      wirklich so eine schlechte generation die 5000er reihe im CPU Einstellungen gewesen..
      [da beißen sich 2-4 Mainboard OC ; 1-3 Windows Programme] kannste einfach in die tonne werfen AMD.

    • @samserious1337
      @samserious1337 Год назад

      @@Dennace90 Alles gut bei dir? Du redest ziemlich wirres Zeug.

    • @Dennace90
      @Dennace90 Год назад

      @@samserious1337 es bringt einfach nicht etwas wegen 2W noch krasser auf -20W zu zerstören. wenn man in der grafikkarte sofort 100W erreichen wird.

    • @samserious1337
      @samserious1337 Год назад

      @@Dennace90 Ich vermute mal, dass du nicht in Deutschland aufgewachsen bist, daher sehe ich mal über den Satzbau etc. hinweg. Doch, gerade bei dem 7800X3D bringt es nicht nur einen geringeren Verbrauch, sondern auch eine deutlich niedrigere Die-Temperatur - so kann man sich eine Wakü sparen.

  • @fitnesswarriorrichy
    @fitnesswarriorrichy Год назад +1

    Ich werde mir einen Ryzen 9 7950X3D bald holen, wenn ich mein neuen PC bauen werde. Es wär cool, wenn du ein Vergleich vom 7950X3D und I9 13900K(S) machst.

  • @vincentgo5297
    @vincentgo5297 Год назад +1

    Also ich muss sagen ich kann dem Fazit überhaupt nicht zustimmen. Der Stromverbrauch ist wie gezeigt deutlich höher, bei gleicher oder schlechterer Leistung. Wenn man in ein paar Jahren auf eine neue GPU upgraded aber seine CPU behalten will (und das ist nicht weit hergeholt) wird der 13600k umso stärker kurbeln müssen. Es wird also mit der Zeit nicht gerade besser werden.

  • @mikeanderson1660
    @mikeanderson1660 4 месяца назад

    Früher hatte ich Intel CPUs weil sie effizienter Waren. Da hab ich auch mehr bezahlt. Leistung soll sich lohnen und eine CPU bleibt Jahre verbaut. Das rechnet sich auch. Jetzt ist AMD drann. Für Gamer ist die 7800x3d wohl die bessere Wahl. Kostet gerade 340Euro.

  • @ludxx94
    @ludxx94 6 месяцев назад

    Im CPU Limit zu spielen ist teilweise garnicht so praxisfern. Bzw. Wird das im E-Sport Shooter-Bereich oft praktiziert um die maximalen fps rauszuholen. Damit der mehrere hundert Herz Monitor und die Maus mit mehreren Tausend herz Aktuallisierungsrate auch ausgenutzt werden.
    All das um ein möglichst akkurates 1zu1 Gefühl der Maussteuerung zu erzeugen.
    Böse Zungen behaupten, dass die 80hz CRTs (war das die Abkürzung für die Röhren Dinger) damals Trotzdem weniger Input-Lag und somit ein akkurates Spielgefühl ermöglichten.
    Sowie mein OLED sich akkurater anfühlt als mein LCD mit über 20hz mehr. Jedenfalls beeinflusst die ganze Kette den Input Lag.
    Der faktor FPS spielt bis zu einem gewissen Wert auch eine nicht untergeordnete Rolle. Zum Beispiel fühlt sich in Forza unter 60 FPS oder gar 30 die Steuerung schwammig an, was rennen in den hohen Klassen (schnelle Autos=alles muss schneller passieren) deutlich erschwert.

  • @appetizzer
    @appetizzer Год назад +1

    Ist doch klar, das der 7800X3D weniger verbraucht, da er wegen den 3D-V-Cache nicht so hoch takten kann. Und trotzdem zeigt er in Spielen eine höhere Leistung. Also, kein Grund aktuell eine Intel-CPU fürs Gaming zu kaufen.

  • @Tormentor467
    @Tormentor467 3 месяца назад

    Ich Wechsel jetzt vom i2500 k zum AMD ryzen 7 7800 X3D. Bin gespannt ob ich den Wechsel merke? Und von der AMD HD 6970 zur AMD xr 7900 xt ?

  • @DomainKingOne
    @DomainKingOne Месяц назад

    Ich bekomme meinem 13600K mit einer Arctic 280mm AiO nicht gekühlt wenn dann nur auf 100 % Lüfter und Pumpe

  • @rudiruessel9816
    @rudiruessel9816 Год назад +1

    7800x3d 4090 ❤

  • @fahrenheit...451
    @fahrenheit...451 Год назад

    40W Mehrverbrauch ggü. AMD bedeutet für Vielzocker ~20 EUR/ pro Jahr höhere Stromkosten hier in Deutschland. Anderherum betrachtet amortisiert sich ein 7800X3D mit seinen ~100 EUR Preisaufschlag ggü dem 13600K demzufolge erst ab ~5 Jahren. Höhere Mainboardkosten kommen ggf. oben drauf!

  • @TheTzzaa
    @TheTzzaa Год назад

    Wer bitte spielt mit einer RTX 4080 in HD? Jeder minimum 2k wenn nicht 4k. Sonst kann man bei einer alten Grafikkarte bleiben. Der Test für mich total sinnfrei....
    Und warum AMD Pro Auswahl? Was das fürn Quatsch Test bitte.... Das ja so wie F1 Reifen test auf einer Rally Piste.....

  • @dontowelie1302
    @dontowelie1302 Год назад

    Ich würde da Gerne mal auf ein Video von Kreativecke hinweisen. Der hat einen 13700k mit hilfe des Powerlimits runtergeregelt und festgestellt, dass die Intel CPUs bis etwa 50 Watt runtergeregelt werden können ohne wirklich Gamingleistung zu verlieren. ruclips.net/video/mQgM-Jgp9DI/видео.html
    Es scheint wohl eher ein problem von Intel zu sein, dass die E-Cores bei offenen Powerlimit genutzt werden, während der 7800X3D nur die Cores mit 3D cache nutzt.

  • @KingArthusSs
    @KingArthusSs Год назад

    der 7800x3D und der 7950x3D sind superGaming CPUs nur der 7900x3D ist sorry kacke ^^ 50 watt beim zocken sind grade so ok intel muss da nacharbeiten

  • @trigant3252
    @trigant3252 Год назад

    30-40Watt mehr bei viel weniger leistung in Full HD..... oO Macht vieleicht für den Gelegenheitszocker keinen unterschied aber für jmd .der 4-10h am Tag zockt. Hörrt sich jetzt nicht nach viel an aber bei den kleinen dingen fängt es an. Wenn mann bei den Prozessoren nicht nach Leistun per Watt schaut dann macht man es bei der Graifikarte sicher auch nicht und dann bräuchte ich anstelle von 300W max auf einmal 500-600. Nene den Watt Irssin der letzten Jahre mache ich nicht mit.

  • @Nikioko
    @Nikioko Год назад +1

    Also, ich habe mich für den 7800X3D entschieden.

  • @Gamba16374
    @Gamba16374 Год назад

    ein 13400F inklusive mainboard ca400€ und 7800X3D mit board ca 700€ ich frag mich nur für was sich mich als geringverdiener entscheiden soll 😂

  • @stephanweh6562
    @stephanweh6562 Год назад

    Stimmt leider nicht. Seit dem Wochenende ist der 7 7800X3D für 400 Euro über all zu haben. Gebt den mal bei Idealo ein .
    OK wahrscheinlich war zur Aufnahme die Preise noch nicht gesenkt 😅

  • @CornGer
    @CornGer Год назад

    Die frage ist doch zockdt du oder arbeitest du. Oder ist der PC dein all Heilmittel für der alltag.
    Für mich ist ein pc ein werkzug mit dem man seine arbeit vereinfachen und ausbauen kann amd bittet mir zu wenig da für das geld. Intel hat mit den höheren takts und höheren ram taks mehr Potenzial geschwindichkeit raus zu holen. Ind Qualität kostet nun mal.
    Ich finde das AMD nicht das gelbe vom ei ist. Cpu mögen ja noch okay sein. Aber Grafikkarten omg mehr steunzeit und gigantische daten die man nicht will. Öko ist AMD leider nicht. Die leistung bei AMD ist auch nicht konstand. Nur mit max takt auch bei kleinen belastungen ist es möglich die power zu gewährleisten. Das ist als kenne die karte keine gänge.
    Die beste pc konzept Konstruktion ist intel mit Nvidia. Leider muss man auch sagen das AMD technik bremst. Kein spiel kann rtx rendern. Man redert in spielen leider immer noch mit cuda. So sind aber rtx karten nicht gedacht. Es sind ki optimirte karten die mit ki inteligenz mit bringen. Die Intelligenz fehlt komplett. Weil amd seine ai kerne nichtvnutzt den konsolen noch nicht verfügbar macht. Ist das alles echter misst.
    Es ist schon peinlich das man so eingeschränkt ust auf der konsole das der umstand aber auch die teuersten karten in mitleiden schafft zieht. Ist so das schlimmste das es gibt. Amd offen und teilt. Nein mitlerer melkt man seine kunden. Mit schlechter umsetztung oder steinzeit technik. Die so bleibt auch für nvidia karten die so nicht mehr funktioniereen. Aber doch die top spitze ist. Das ist so peinlich. Was ist wenn ki 50%die nvidia karten beschleunigt nur weil man mit ki es mal richtig macht.

  • @joachimmueller5319
    @joachimmueller5319 Год назад

    Die 50w sind aber halt 100% der Energie Menge... Mehr und müssen auch gekühlt werden (Lautstärke)

  • @peterthomas3938
    @peterthomas3938 Год назад

    Ich nehme die cpu die mehr Strom für die Grafikkarte übrig lässt 😂😂

  • @markusenger1727
    @markusenger1727 Год назад

    Sorry aber für mich heißt der Sieger immer AMD und wenn ich mir wieder einen neuen Gaming PC zusammenbaue dann fällt meine Wahl unter Garantie wieder auf AMD

  • @Forci83
    @Forci83 Год назад +1

    Da ich neben dem Zocken auch der Bildbearbeitung meine Zeit am PC widme, sind viele Threads wichtig für mich. Aktuell reißt ein 3900x noch die Bits aus dem Speicher, aber ich hoffe stark auf den 14700k. Undervolting ist für mich im Übrigen auch absolute Pflicht. Wäre natürlich noch interessant, was Intel hier für Potential bietet. Die X3D CPUs laufen ja scheinbar schon mit drr optimalen Spannung.

  • @CornGer
    @CornGer Год назад

    Es ist falsch die anname man testet die cpu man testet wie gut ein game mit dem Befehlsatzt optimirt ist und wurde. Das hat nix mit der hardware zu tun.
    Verschiebt nicht die realität nur weil der weg der zahlen euch die sinne täuscht.
    Bei rtx ist das das gleiche. Ihr meint alke rtx zu testen in spielen die aber nur gtx nutzen rtx was ist das?
    Es gibt nur ein aktuelles game das rtx nutzt das ist portel. Der rest ist cuda optimirter misst.

  • @PeriQue1337
    @PeriQue1337 Год назад

    Intel ist seit Jahren für mich als Gamer nicht wirklich interessant. Soweit so unüberraschend.

  • @wojtaslajblich592
    @wojtaslajblich592 Год назад +2

    erstmal sehr cooles video schade nur das du nicht WQHD gemacht hast aber sonst 10 von 10 und wan kommt deine neue pc konfiguration mt der 4080 :)

  • @riki2059
    @riki2059 Год назад +1

    Erstmal Dankeschön für das Video, dafür erstmal ein Daumen nach 👍.
    Jedoch muss ich auch Kritik äußern und das geht nicht nur an dich sondern an eigentlich ALLE CPU Tests da draußen.
    Ich fände es sehr sinnvoll wenn man ein CPU Hungriges Spiel (z.b. Anno 1800/Cities Skylines etc......) Mit in den Test rein bringt. Da ist nämlich die Auflösung fast komplett egal. Die CPU ist dort früher oder später der Bottelneck. Das wäre fände ich ein praxis naher aber doch aussagekräftiger CPU Vergleich.

  • @DarkLord-tq7wv
    @DarkLord-tq7wv Год назад

    Wenn die bis zu 50 Watt Mehrverbrauch für eine Intel CPU "nicht ins Gewicht fallen" dann bitte keine Kommentare mehr zu dem Mehrverbrauch der RX 7900 XT(X).
    Man kann aber mit einer AMD CPU den Mehrverbrauch einer AMD GPU ausgleichen

  • @luciusagrippa5386
    @luciusagrippa5386 Год назад +1

    Machen 50 Watt Mehrverbrauch für den durchschnittlichen Zocker wirklich einen Unterschied bei der Stromrechnung? Ich denke da eher nicht. Habe das mal grob überschlagen mit 3h zocken pro Tag und 30 Tage im Monat zu einem Strompreis von 35 Cent pro kWh, das sind nicht Mals ca. 1,60€ im Monat. Selbst mit 6h suchten pro Tag liegt man bei 3,20€ Mehrkosten. Wenn man jetzt das gesamte System nach Stromverbrauch auslegt, zb auch die Grafikkarte nach Stromverbrauch Faktoren kauft, dann könnte es evtl. anders aussehen. Aber sind wir mal ehrlich, juckt das wirklich irgendeinen ob man ein paar Euro im Monat mehr für Strom ausgibt?

    • @luciusagrippa5386
      @luciusagrippa5386 Год назад

      Ein kleiner Nachtrag noch dazu, und zwar, was ich nicht berücksichtigt habe ist die Wärmeentwicklung. Wahrscheinlich muss bei höherer Leistung auch besser gekühlt werden, was evtl. auch die Entscheidung beeinflusst ob Luft- oder Wasserkühlung.

  • @mcroe4760
    @mcroe4760 Год назад

    Ich habe den Ryzen 9 5900x und hoffe, dass der noch no 3-5 Jahre macht.

  • @friedemanngadeke8366
    @friedemanngadeke8366 Год назад +3

    Bitte unbedingt auch den Stromverbrauch an der Steckdose messen. Denn so sind die Werte nicht vergleichbar.
    Zum Verbrauch des PCs gehören nämlich auch Chipsatz (Teil des Idle-Verbrauchs), Mainboardkomponten, RAM (AMD hatte andere Clocks), Auslastung der GPU, usw.

    • @johanwise9713
      @johanwise9713 Год назад

      Das macht in der Praxis nicht viel aus. Entscheidend ist wohl der Verbrauch der Gk und der Cpu. Die Verlustleistung des Netzteils ist aber schon wichtig - das kann je nach Dimensionierung des Systems horrend ausfallen.

    • @friedemanngadeke8366
      @friedemanngadeke8366 Год назад

      @@johanwise9713 Die Frage ist doch aber welchen Wert die Sensoren reporten. Wenn nur die Kerne gemessen werden ohne RAM-Controller etc., dann kann man das schön aussehen lassen.
      Es handelt sich halt um komplett unterschiedliche Peripherie-Architekturen.
      Zumindest hätte Monty mal kurz prüfen können, ob die Werte die er zeigt auch relevant sind. So ein Messgerät für die Steckdose ist nicht teuer.

    • @johanwise9713
      @johanwise9713 Год назад

      @@friedemanngadeke8366 Für seinen Zweck, die Cpus zu vergleichen, war es schon ok. Würde er an der Steckdose messen, wäre die Verlustleistung am Netzteil und der Verbrauch anderer Komponenten verfälschend. Besser wäre es, an den Litzen mit Zange zu messen, dann wären auch die Abweichungen und Relativitäten der Sensoren übergangen, die teilweise sehr schlimm sind. Manche Technikyoutuber haben das auch schon gemacht.

    • @friedemanngadeke8366
      @friedemanngadeke8366 Год назад

      ​@@johanwise9713 Relevant für den Stromverbrauch ist doch nur der Verbrauch des Gesamtsystems.
      Da ich bisher keinen anderen vergleich der beiden CPUs angeschaut habe, wüsste ich gerne, ob der hier gezeigte Effekt relevant ist.
      Mit einem 10-20€ Messgerät könnte man sowas messen.

    • @johanwise9713
      @johanwise9713 Год назад

      @@friedemanngadeke8366 Wenn Sie den Sensoren zu Recht nicht vertrauen, sollte Ihnen ein derart billiges Messgerät auch nicht geheuer sein 😂

  • @geraldmaier5816
    @geraldmaier5816 Год назад

    Für Fhd kaufe ich mir aber auch keine 450€ CPU 😅

  • @Der_Issa
    @Der_Issa Год назад

    Ich hab mal irgendwo ein Video gesehen, dass AMD im ilde weniger verbraucht wird, als in Softwares angezeigt wird.

  • @techniklover7638
    @techniklover7638 Год назад +2

    👋🏻 Hey Monty, hätte mal eine Bitte für ein Thema!
    Könntest Du mal einen Beitrag machen wo Du, sagen wir drei Custom-Modelle von Beispielsweise der RTX 4080 miteinander vergleichst?
    Also worin genau die unterschiede zwischen dem aktuell günstigsten, zum mittelpreisigen hin zum teuersten Modell aus der RTX 4080 Reihe besteht. Lohnt sich der Mehrpreis und bietet das teuerste Modell wirklich so viel mehr für´s Geld?
    Ist die günstigste Karte so viel schlechter was die Hardwarekomponenten und die Leistung angeht? Usw.
    Wäre wirklich toll Deine Expertise dazu zu hören 👍🏻👍🏻👍🏻

  • @mchonnygameshd
    @mchonnygameshd Год назад

    Aktuell läuft mein System noch auf einem X470 Aorus Ultra Gaming mit 5800x3d als Update vom 2600X plus einer RX 6700XT Red Devil und muss sagen sehe keinen plausibleren Grund zu Wechseln.

  • @Dave-vi3vy
    @Dave-vi3vy Год назад

    Next Gen vs Last Gen...

  • @3stmadoxx
    @3stmadoxx Год назад

    Ich frag mich immer warum alle der Stromverbrauch interessiert. Wer zocken als Hobby können die Stromkosten doch wohl Wurst sein. Ein Hobby kostet halt....

  • @Mehmet-Kayahan
    @Mehmet-Kayahan Год назад

    Ja Intel ist ein Stromfresser.😮😮😮
    Mit Intel kann man die Bude im Winter 😉 schön warm halten 😁😁

    • @mrm7058
      @mrm7058 Год назад

      Und im Sommer seine Bude in eine Sauna verwandeln.

  • @tonimuhlbauer6576
    @tonimuhlbauer6576 Год назад

    Ich hätte die Intel 13600K CPU gegen einen Ryzen 7 5800X3D getestet, denn preislich bekommt man auch die 5800X3D unter 300€ .

  • @Neon_195
    @Neon_195 Год назад +1

    Hab eine 13700k, der allerdings nur mit 150w läuft

    • @Nudels99
      @Nudels99 Год назад

      In Spielen verbraucht er dann aber trotzdem deutlich mehr?

    • @Neon_195
      @Neon_195 Год назад

      Ja, so ca. 40 -60 Watt, wenn ich die die FPS auf die meines Monitors cappe (sind halt nur 60 hz). Sonst eher 50-100 Watt ohne FPS Limit, also ähnlich wie der 13600k, spiele aber auch nicht im cpu limit@@Nudels99

  • @Godlikz
    @Godlikz 8 месяцев назад

    Ich spiele auf Full HD mit einer 6800XT dadurch bin ich hauptsächlich im CPU limit (Squad, EFT, Anno, Hell let lose) und grade für solche Leute wie mich sind die AMD CPUs wie geschaffen. Zudem kommt noch der Fakt von Rize-Bar wenn man Graka und CPU von AMD hat, bringt auch nochmal ein wenig mehr FPS. Meiner Meinung nach ist AMD in den letzten Jahren ein ernst zu nehmender Gegner geworden für NVIDIA und Intel.

  • @Mert-gf4jc
    @Mert-gf4jc Год назад +4

    Cl 32 und Cl 40 ist ein sehr spürbarer Unterschied man sollte schon das gleiche Ram-Kit nutzen.

  • @joachimeberhard2203
    @joachimeberhard2203 Год назад

    Ich habe meinen 13900K im UEFI auf max. 125W limitiert und kaum einen Unterschied festgestellt, ausser dass er weniger Strom verbraucht. Am Desktop braucht der 13900K allerdings im Schnitt nur 15-25W.

    • @DasMonty
      @DasMonty  Год назад

      Hab ich ähnlich gemacht. Merke auch nix davon 😁

  • @dasmorph2538
    @dasmorph2538 Год назад

    Wenn ein Gamer im Tagesdurchschnitt seinen Rechner fünf Stunden laufen lässt, dann spart er im Jahr damit um die 90 Euro. Das heisst nach 1,5 Jahren hat man die Kohle für den Mehrpreis wieder raus und nach drei Jahren hat man etwa 150€ eingespart. Der Kaufpreisnachteil ist also nicht wirklich schlimm meiner Meinung nach. Und anders als bei einer günstigen Grafikkarte kann man mit so einer CPU sicher 5 Jahre die Top GPU´s matchen. Für mich ist der AMD 7800X3D schon wirklich eine sehr gelungene CPU und ich würde sie auch sofort kaufen, wenn ich eine neue CPU benötigen würde. LG

    • @Forci83
      @Forci83 Год назад

      Deinen Strompreis möchte ich nicht haben... Bei 50W Unterschied und 365d x 5h ergeben sich ca 90KW. Also bei 40cent/KWh sind das 40EUR.

    • @dasmorph2538
      @dasmorph2538 Год назад

      True. Hatte zuerst mit deutlich mehr Stunden gerechnet. My fault. Aber dennoch holt die Cpu den Mehrpreis in einer durchschnittlichen CPU Lebensdauer wieder raus. Das Bleibt am Ende ein Faktum. @@Forci83

  • @Matti728
    @Matti728 Год назад

    mit Lite Load Stufe 3 (MSI eigenes Uv) braucht mein 13600K nur um die 145W, bei fast voller Leistung. Dafür ist die CPU deutlich kühler. In nem R23 Run reicht das immer noch für um die 23k Punkte. Beim Zocken eh irrelevant. Die niedrigeren Temps aber schon.

  • @devilhanzo1
    @devilhanzo1 Год назад +2

    Die Spieleperformance und Effiziens der X3D cpu ist schon extraklasse da kann man nur abwarten was Intel mit Arrowlake hinlegt, trotzdem ist der 13600KF zurzeit mein Favorit, wegen der Leistung die er bringt bei 300euro. Klar wäre ein 7800x3d geiler, aber der kostet halt auch einfach mal 130euro mehr.Ich warte einfach mal bis september^^.
    Hast du schon Pläne(benchmark,Overview etc) wenn der Raptorrefresh erscheint?
    Kühl schonmal die Bude vor, wird heiß morgen, fast wie eine Intel cpu 😅. schönes Restwochenende noch

    • @Joschi6007
      @Joschi6007 Год назад

      Stört dich nicht das er nur auf Windows 11 funktioniert? Das war der Grund für meinen 5800X3D. Das ich bei Windows 10 die E Kerne abschalten muss, hat mich gestört. Wenn möglich überspringe ich Win 11.. Erste Versionen von Win
      12 sollen Anfang 2024 kommen.

    • @devilhanzo1
      @devilhanzo1 Год назад

      @@Joschi6007 nein wenn ich mein system erneuer kommt eh win 11 drauf

    • @Joschi6007
      @Joschi6007 Год назад

      . @devilhanzo1 Selbst wenn Win 12 schon auf dem Markt ist? Die einzigen CPUs die davon profitieren sind Intel 1700. So etwas altes packt doch keiner in ein neues System. Vor einem Jahr hätte ich das noch verstanden. Konsequenter Weise solltest du ne RTX 3070 dazu kaufen, dann hast du ein 2020 Retrosystem

    • @devilhanzo1
      @devilhanzo1 Год назад

      @@Joschi6007 warum sollte ich jetzt bis anfang 24 warten? im september erstelle ich mein system mit 1700 und 25-26 kann ich immernoch überlegen ob ich daran was upgrade, aufjedenfall wird die leistung wohl mehr als ausreichend sein auch für die nächsten jahre und bei zen4 bin ich einfachmal um die 200 euro teurer, da spare ich mir das und stecke das evtl später in upgrades und btw habe ich eine 3060 auf einen skylakesystem insofern wäre dein retrosystem schon ein starkes upgrade

    • @Joschi6007
      @Joschi6007 Год назад

      Falls du schon ein Board mit dem Sockel hast versteh ich das, würde ich auch machen, wenn jemand eine 12400 CPU hatte. Wie viel der Refreh bringt kannst du bei Igor lesen, keine 5%, ist ne reine Verlegenheitslösung weil Intel keine Desktop variante von Meteor Lake hinbekommen hat. Wer jetzt noch ein Board 1700 mit toten Sockel investiert, aber jeder kann mit seiner Kohle machen was er will. Von mir aus kauf dir den neuen Monty PC 13900KS von Kröten PC. Gruß und noch ne schöne Woche

  • @Icitovic
    @Icitovic Год назад

    Definitiv 13600K mit ASUS Z790 + 4080 + 5600 DDR5, dazu schnelle SSD M2. So ein PC hat insgesamt die stabilsten Treiber, ist sehr ausgewogen, 4K Gaming, meistens FPS/€ … meiner Meinung nach die rationalste Lösung.

  • @marcusbuschbeck1121
    @marcusbuschbeck1121 Год назад

    Ich weiß nicht. Suche mir prinzipiell nen 65W Prozessor raus der gut genug ist und mam hat keine Kopfschmerzen beim Thema Netzteil, Mainboard und Kühlung. Es kackt doch eh die Grafikkarte ab wenn es drauf ankommt.

  • @ulfs.3793
    @ulfs.3793 Год назад

    Laut Computerbase bringt es im Idle der 7800x3d auf ganze 6 Watt höheren Idle verbrauch als der 13600K. 50 Watt bleiben 50 Watt, egal wieviel die Grafikkarte zieht. Und wenn man das Video nochmal schaut, wird auffallen, dass die 300 Watt nur bei Cyberpunk erreicht werden, laut Einblendung. Gerade in niedrigeren Auflösung, wenn man nicht gerade 300 fps haben muss, ist der Verbrauch der 4080 weit entfernt von 300 Watt.
    Fazit...mit meiner Auflösung von 2560*1080 hab ich mit dem 7800X3D alles richtig gemacht.
    Edit: Achja, die CPU habe ich für 419 Euro vor ein paar Wochen bekommen, inzwischen war sie auch für 408 Euro zu bekommen. Die 450 Euro im Video sind übertrieben, wenn man ein wenig die Preise verfolgt.

  • @puttyfrutti
    @puttyfrutti Год назад +1

    Ich habe nur Intel CPUs bisher gehabt und wollte AMD einfach mal eine Chance geben.
    Fürs reine Gaming ist es eigentlich völlig Latte ob man jetzt einen 7800x3d, einen 13600/13700 hat, spielen kann man mit allen ohne Probleme.
    Was mich am 7800x3d komplett überzeugt ist die Hitzeentwicklung, die ist quasi kaum vorhanden.
    Ich kann stundenlang zocken und die Temperaturen schwanken immer um die Mitte 50° rum, meine Intel CPUs waren dagegen Stahlöfen.
    Bin davon immer noch begeistert wie am ersten Tag, im Sommer ein Segen.

    • @DonGynikoo
      @DonGynikoo Год назад

      Wenn deine Intel CPUs Stahlöfen waren dann hast du irgendwas falsch gemacht. 😅

    • @nyutek
      @nyutek Год назад

      Also ich habe den 13600k und der ist keineswegs ein ofen bei mir. Schön undervolted und gut ist, sogar noch an performance dazugewonnen

    • @cuongtang9539
      @cuongtang9539 10 месяцев назад

      meine 13600K mit undervolt max. 61 grad beim Gaming (Luft gekühlt).

  • @ricy1173
    @ricy1173 Год назад

    tja die Qual der wahl. ich vermisse die vergleiche mit dem I7 13700 k /kf ( egal welches video hier auf you tube) naja trotz allem würde ich den Amd nehmen. mit einer Amd grafik7900XT da eine von der Leistungs vergleichbaren Nvidea karte einfa zu teuer ist sei es in der anschafung oder in den folgekosten (stromverbrauch). lg.

  • @uludak8468
    @uludak8468 Год назад

    hatte damals nur wegen dem preis zum 13600kf gefriffen. 5800x3d ist nicht viel besser und nur ddr4. 7800x3d war und ist einfach nicht meine preisklasse

  • @galli1732
    @galli1732 Год назад

    Bei mir Arbeitet ein 10600 😅

  • @CSSPlayer2000
    @CSSPlayer2000 Год назад

    Vergessen darf man aber auf keinen Fall das Bottleneck, daß zu schwache CPUs bieten, wenn die GPU zu stark ist.
    Und dass das CPU Limit nur bis HD ist, ist gänzlich falsch. Schön zu sehen, wenn man den MSI Afterburner oder ähnliche Overlay Programm laufen hat und die GPU nur wenig Auslastung, die CPU aber sehr hohe bis volle Auslastung hat. Denn limitiert eindeutig die CPU, man ist als im CPU Limit.

  • @xantrillja
    @xantrillja 9 месяцев назад

    Ich habe auch von Intel zu Amd gewechselt, aber ich muss feststellen, dass das Runtertakten im Idle bei AMD nicht funktioniert. Mir ist aufgefallen das es aber funktionieren kann, weil ich durch eine falsche Einstellung im Bios es geschafft habe, dass der Prozessor mit nur 1,5 Ghz rennt. Warum also taktet der 7800 nicht automatisch tief, wenn gerade nichts zu tun ist wie bei Intel? (Nur die einfache Einstellung im Energiesparplan "ausgeglichen")

  • @marcello4258
    @marcello4258 Год назад

    Fazit ein gelegenheitsgamer ist auf Grund der Preisunterschiedes mit dem Intel besser beraten.. bis man die CPU Leistung fürs Gaming braucht dauert es lange und dann will man die Platform uU wechseln (neue feautures, pcie etc pp)

  • @PhantomRiderX8
    @PhantomRiderX8 Год назад

    Ich hab in meinem PC nen 13600kf in Kombination mit einer rtx 4070 und bin 100% glücklich mit der Kombination

  • @mario_VANtastisch
    @mario_VANtastisch Год назад

    Der Vergleich hinkt gewaltig!!!! Aber was tut man nicht alles für ein Werbevideo!!!

  • @migelehabenschussl184
    @migelehabenschussl184 Год назад

    Man braucht halt unter Umständen beim 13600 bei gleicher graka nen größeres Netzteil und ne bessere Kühlung ich denke mal so groß ist der Unterschied bei der Anschaffung gar ich trotzdem beides geile cpu s

  • @HauDichWeg
    @HauDichWeg Год назад

    7800x3d mit 7900xtx

  • @SgtSCREAM93
    @SgtSCREAM93 Год назад

    teste das mal mit BF2042 .. da nimmt sich mein normaler 5800X laut riva tuner 120 W easy und bin hart im cpu limit in uwqhd

  • @DonGynikoo
    @DonGynikoo Год назад

    Bitte jetzt noch einmal das selbe Video mit den Grafikkarten machen. Von mir aus z.B. 4080 VS 7900 XTX. Atomic Heart ist in meinen Augen definitiv eines der der best programmiertesten Games von der Performance her was in den letzten Jahren rauskam denn da habe ich in 4K durchgehend 120 FPS (V-Sync in Game an) mit maximalen Details und DLSS Qualität. Wenn ich die FPS offen laufen lasse sind sogar teilweise knapp an die 160 FPS drin was sehr krass ist und das Game sieht meiner Meinung nach ziemlich gut aus trotz fehlenden RayTracing. Steuerung und die teilweise extrem nervigen Rätsel in dem Game stehen auf einem anderen Blatt. 😅Ich habe ne 4070 Ti und nen 13600K im Rechner. Ich will nicht wissen was man mit ner 4090 in dem Game erreicht.

  • @dontowelie1302
    @dontowelie1302 Год назад

    Ist 35-40 watt nicht der idle verbrauch vom 7800x3d? 60 Watt sieht sehr komisch aus.

  • @Reunion2460
    @Reunion2460 Год назад

    Mal schauen, was es geben wird entweder ein AMD oder Intel wenn dann warte ich eh noch bis die Preise weiter fallen. Zudem benötige ich eh ein neues Mainboard 😂

  • @markusk.3162
    @markusk.3162 Год назад

    Ich habe schon letztes Jahr auf ein neues AM5-System mir Ryzen5 7600x gesetzt und damit bereits auf den zukünftigen technischen Fortschritt bei AM5-CPUs geschielt. Heißt, wenn die AM5 Plattform ihre letzte CPU- Generation erhält werde ich mir höchst wahrscheinlich eine aktuelle X3D-CPU gönnen. Hätte ich das System nicht bereits würde ich jetzt jedoch zum teureren 7800X3D greifen. Vorerst reicht mir allerdings mein optimierter 7600X. Denn aktuell ist bei meinem Nutzungsverhalten selbst die RTX4090 meistens der Bottleneck.
    Und trotz dass ich aktuell die AM5- Plattform favorisierte, finde ich dass der Vergleich hier nicht fair ist. Ein Vergleich von Systemen die annähernd gleich viel kosten wäre meiner Meinung viel interessanter.

  • @patrickgraf3917
    @patrickgraf3917 Год назад

    Ich finds halt krass, dass AMD hier die Leistung deutlich erhöhen konnte, ohne Takt oder Anzahl der Kerne anzufassen

  • @Kamikatze_Gaming
    @Kamikatze_Gaming Год назад +6

    Ja sind Stromfresser und is langsamer. 2. Wahl. Punkt.

  • @Psycopath1986
    @Psycopath1986 Год назад

    Wie stark wäre denn ein 7900x3D? weil ich bin mir da echt seit längerem am überlegen, ob ich mir nicht wieder einen neuen PC zusammenbaue...7800x3d, sieht zwar net aus, aber ich möchte da mehr in die Zukunft blicken und eine CPU haben, die mehr als 8 Kerne hat. Gerade wenn man noch Videos rendert ist man mit einem 12Kerner oder mehr besser dran.

    • @samserious1337
      @samserious1337 Год назад

      Der 7900X3D ist keine "gute" Wahl, da nur 6 Kerne auf den 3DV-Cache zugriff haben und er damit schlechter als der 7800X3D ist. Obendrein kommt dazu die Scheduling-Thematik, weshalb ich von den Hybrid-CPUs eher abraten würde.

  • @thomawthoma8127
    @thomawthoma8127 Год назад +1

    Interesaant wären auch die low fps. Ansonsten top video

    • @mrm7058
      @mrm7058 Год назад +1

      Low fps und Frametimes. Die beiden Punkte entscheiden darüber wie flüssig sich ein Spiel anfühlt.

    • @CeltyST96
      @CeltyST96 Год назад

      @@mrm7058 frametimes sieht man ja. nimmt sich bei beiden nicht viel.

  • @TheHoff6300
    @TheHoff6300 Год назад +1

    Ein etwas komisches Video für meinen Geschmack.
    Ein Vergleich macht für mich immer nur mit ähnlich eingepreisten Artikeln wirklich Sinn, also eher sowas wie einem 13700K.
    "nur 40w" - oder halt meistens fast das Doppelte wie der AMD. Und dabei ist der AMD auch noch deutlich schneller.
    Mal abgesehen vom Idle-Verbrauch kann der AMD also alles besser.
    "Aber der kostet ja auch mehr!!!!" - Ja dann vergleicht halt mit der 450 € Intel CPU. Dann sieht es genau so aus nur mit noch mehr Strom.
    (Alles natürlich nur auf Gaming bezogen)

    • @DasMonty
      @DasMonty  Год назад +1

      Kritik wird natürlich angenommen 😉

    • @TheHoff6300
      @TheHoff6300 Год назад

      @@DasMonty
      deine News feier ich immer ;)

  • @paulzulu4630
    @paulzulu4630 Год назад

    Kannst du den Test nochmal in WQHD wiederholen