Viele kommentieren bzgl. der X3D Cores und falscher Zuordnung: Der durchschnittliche Gamer hat dieses Wissen ggf nicht. Hier sind Updates für Windows/BIOS/Chipsatz/Game notwendig. AMD sollte dafür sorgen, dass es out of the Box funktioniert und das passiert nur wenn man auf die Missstände aufmerksam macht. Es ist nicht zielführend wenn ich im Hintergrund etwas in diesem Umfang anpasse.
Dein Vergleich zwischen P- und E-Cores und CCD mit 3D-Cache und CCD ohne 3D-Cache ist allerdings auch nicht ganz passend. Den die "Cores" sind ja im Grunde dieselben. Nur das die mit dem Cache niedriger takten. Klar ist es trotzdem AMDs Verantwortung, dafür zu sorgen, dass die richtigen Cores beim Gaming angesprochen werden. Und wer wirklich nur zockt, kauft eh den 7800X3D. Der durchschnittliche Gamer kauft aber am Ende wohl weder 7800X3D noch 14900KS, sondern deutlich günstiger ein.
Amd ist leider ein Problem firma bezüglich treiber & software wie man sieht. Hatte mit amd karten nur schlechte erfahrungen und ein anderer bekannter reviewer hatte sogar probleme bei einer karte out of the box kein bild bekommen zu haben. Er musste die treiber via IGPU installieren für die karte.
Nein, du willst dass ich es fälsche :D Ich habe das getestet was die CPU macht. Was bist du denn so sauer? Wieso soll ich denn die Arbeit von AMD oder Intel machen und deren Probleme lösen?
Das ist doch einfach nur noch krank. Mehr Leistung schön und gut aber auch die Effizienz sollte bei der Entwicklung beachtet werden. Meiner Meinung eine CPU die keiner braucht.
Das ist bei ALLEN CPUs (und GPUs) so, nur das Intel mit dem KS ein extra starkes OC und Binning betreibt. Auch bei AMD ist es so, ein einfacher Vergleich wäre z.b. der 7900 und 7900X. Wieviel mehr Leistung bringt der mit X für wieviel % mehr an Strom? GPUs sind genauso. Meine 4090 ist undervoltet und für nur 6% weniger Leistung zieht sie >150W weniger. Jedes Prozent an mehr Leistung ist mit rund 8% mehr Strom erkauft.
Habe Anfang des Jahres einen 13900T für 350€ ergattern können (ES). Gleiche Anzahl an Cores, mit etwas weniger Takt, dafür nur 35W bzw. knapp 100W TDP. Im Cinebench komme ich beim Multi auf 1935, im Single auf 112, kratzt also gut am 14700K. Für mich echt nen super Schnapper. Und bevor die ganzen Fanboys hier mit ihrem 78x3d um die Ecke kommen, wollte absichtlich darauf spekulieren um mal bisschen mit dem Stromverbrauch in Relation zur Leistung zu experimentieren. Zusammen mit ner 4070 Ti komm ich bei WQHD Gaming auf gute 300-350W Systemverbrauch und bin sehr zufrieden damit.
Das erinnert schon stark Pentium 4 Zeit als man auf Teufel komm rau über den Takt aus rausprügelte was ging… Northwood war nice aber mit Prescott ging’s bergab bis hin zum Pentium D 🫣 6,2GHz ist beeindruckend aber der Vebrauch im Vergleich ist einfach fern jeder Vernunft 😳
Was ich echt klasse finde an RUclipsrn wie dir, ist die normale Art der Präsentation - nicht das übersteuerte aufgeblasene Entertainmentgequatsche vieler Ami-youtuber die jeden Moment zu explodieren scheinen vor angeblicher aufgeregtheit und Sensation.
Ist schon erstaunlich, was da an Strom weggenuckelt wird. Und dann stehen die gleichen Leute, die einen 14900k(s) bei mir kaufen, eine Woche später im Laden und beschweren sich, dass der Gamingmonitor, der ausgesucht wurde, nur Energielabel F oder G hat.
Gibt es wirklich Leute die das machen?! Denen ist ja echt nicht mehr zu helfen... Ich käme nicht mal auf die Idee mich über den Verbrauch meines 59" Samsung G9 zu beschweren wenn der von einer 4090 und nem 13900K befeuert wird 😀
@@mikemayer8293 Das sind so Typen, die nur das beste vom besten haben wollen. Und dann muss es mindestens eine AAA+ irgendwas sein. Die haben halt kein Ahnung bzw. veraltetes Wissen.
Vielen lieben Dank, das Sie sich die Zeit nahmen, diese Videos zu machen. Ihre Videos haben alle einen hohen qualitativen Inhalt, den ich mir bei vielen anderen wünschen würde. Gerade aus diesem Grund, sehe ich Ihnen immer gerne zu. Ich freue mich schon auf den zweiten Teil.
@@SoraKingOfLewdness der Leistung. Guck dir Tests an. Falls du es nicht glaubst. "Dummheit", schrieb ein Nerd ohne Ahnung und Passion auf YT gegen INTEL.
Ich finde gerade in der heutigen Zeit ist der Stromverbrauch enorm wichtig, darum ist der AMD Prozessor viel interessanter. Ich war ein großer Intel Fan in den letzten Jahren und nutze selbst noch einen 9700k und 9600k, würde mir aber z.Z. niemals einen Intel CPU kaufen. Preis, Performance und Stromverbrauch sprechen ganz klar pro AMD.
sehe ich auch so .... hab mir beim neuen PC ohne mich davor so richtig schlau zu machen einen 14600k reingebaut (durch die langjährige Zufriedenheit mit Intel) .... mann läuft das Ding heiss :D Bin jetzt nicht unzufrieden, aber im Ernst, Effizienz sieht anders aus.
Ich hab zwar auch den 7800x3D aber ganz ehrlich mir ging’s eher um den Cache und nicht um die Effizienz primär. Ich zocke ja nicht jeden Tag 8h so viel macht das auch nicht aus. Die CPU zieht ja nicht immer auf Anschlag 400 Watt 😂 Von daher alles cool, außerdem undervolte ich sowieso CPU/GPU.
@@KennedySpaceCenter-x2b In Reddit sagen 300 Threads das man bei vielen Spielen die Efficency Cores ausmachen muss weil sie Leistung droppen. Bei AMD hat man solche Probleme nicht. Mein 5800X3D zieht bei Star Citizen 53W und bringt 220fps. Intel CPU User sind in dem Game froh über 100fps laut reddit.
Man kann doch Process Lasso oder gar den Taskmanager nutzen, um die Kerne zuzuweisen. Bis auf Warzone funktionierte das immer sehr gut. Gerade im Sinne eines Tests wäre das vermutlich zwar lästig, aber halt für die korrekten Werte sehr wichtig.
Musst das ganze nur mit nem Chiller kombinieren und schon ist das ganze ne Wärmepumpe mit elektronischer Zusatzheizung. Somit durch einen Kredit Förderungsfähig. Den Stromverbrauch läuft dann auch auf dem Wärmepumpen-tarif deines Versorgers.
wieder tolles video und wieder mega info, danke wie immer dafür. Und ja der stromverbrauch ist hoch ob das die rechenleistung wert ist muss jeder für sich entscheiden. Ja AMD ist Heiss in Leistung und in Temperaturen. Gegen die hohen Temperaturen laufen bei mir Lüfter und dass auch mal schneller weil ich Temperaturen über 70°C nicht mag. Und gegen die Lautstärke der Lüfter gibt es Schallhauben oder Ohr Stöpsel, ich mach es bei der Lautstärke der Lüfter wie bei meinem lauten Nachbarn. Ich dreh den Sound hoch bis mich der Nachbar oder der Lüfter nicht mehr stört.
Danke für das tolle Video Roman :-). Was echt mal interessant wäre, ist der Vergleich von verschiedenen AMD und Intel Prozessoren zu Apple Silicon Prozessoren. Auch wenn der Anwendungsfahl der Prozessoren sehr unterschiedlich ausfällt wäre es trotzdem mal sehr interessant.
Ja das ist die Frage :-). Ich kenne mich da nicht sonderlich aus. Aber ein genereller Vergleich wäre echt mal schön. Ich verwende Privat fast nur Apple. Beruflich bin ich zu WIN gezwungen was aber in Ordnung ist. Aber alleine die Möglichkeiten mit dem M3, ist schon genial. In wie fern eventuelle Benchmarks aussagekräftig sind bleibt dahingestellt. @@manut9824
Ein Threadripper PRO 7995WX hat 96 Kerne und 350W (theoretische) TDP. Bei 400W begrenzt wird der in CineBench um die 80k Punkte schaffen. Fürs Gaming lohnt der KS nicht; fürs Arbeiten aber erst recht nicht. Was mache ich mit dieser Heizung? Die Wohnung warm? Nen Grund suchen, mir ein neues Netzteil zu kaufen, weil jetzt mindestens zwei Komponenten im PC über 300W ziehen? Das ist doch irre sowas. Ich habe mit 350W max. TDP gerechnet - dass der sich 400W ziehen kann, entbehrt sich jeglicher Logik^^ ABER: Was interessant wäre zu wissen, ist wie der 14900KS bei K Takt- und Powerlimits fungiert. Das sollte ja der hochwertigere Die sein, also eigentlich bei niedrigerem Takt entsprechend weniger ziehen.
@@manut9824 Der Threadripper lässt sich allerdings gut kühlen, da der wortwörtlich gigantisch ist. D.h. TDP je Fläche ist um ein Vielfaches geringer als beim KS.
@@manut9824Naja das bei AMD mit den X CPUs 7700X oder 7950X und den hohen Temperaturen hat einen anderen Hintergrund. Wie du schon beschrieben hast, liegt das nicht an einer Energieaufnahme jenseits der 300 W. Das hat Roman in seinen Videos schön gezeigt. Problem hier ist dieser dicke Heatspreader und diese mini-Hotspots (CCDs) auf der Platine. Intel schafft das hier mit der Wärmeverteilung besser. Geköpft ist so ein 7950x doch gut zu kühlen. Sogar besser als ich dachte. z.B.: CB R23 = ca. 40200 Punte / 240W / ca. 83°C // nach 2 Runs / CPU Kühler: NH-U12A, direct die ☺
Hey Roman, Was sagst du eigtl. zu den Rechenfehlern und Abstürzen bei den Intel CPUs auf dem Takt? Aber auch danke dass du die leistungsaufnahme angesprochen hast und nicht nur die Geschwindigkeit der CPUs. Ich fand schon vor Jahren interessant dass die Server/workstation CPUs locker 400-800 mhz niedriger Takten (selbst im top Segment). Ich bin halt selber Softwareentwickler und hätte Angst davor auf so einer CPU meine Sachen zu compilen, weil kann ja gut sein, dass da nen Fehler mir und dem Kunden einen nicht nachvollziehbaren strich durch die Rechnung macht.
Exakt. Die Xbox Gamebar gehört zum offiziellen AMD Performance Guide und muss aktualisiert sein und einmalig gestartet werden. Das wurde hier sicherlich nicht gemacht, wird es von den meisten nicht.
@@Ben-ki2in Das ist der Kompromiss zwischen der X3D perfomance eines 7800 und der Multicore Anwendungsperfomrance eines 7900. Das ist schon in Ordnung wenn auch verbesserungswürdig. Es ist aber auch nicht so das die Performance falls die Automatik in sletenen Fällen nicht funktioniert desaströs wäre. Und wenn man zum großen I schaut. Da mussten ein paar Spiele (Spielseitig!!) nachgepatcht werden um mit den P und E Cores klarzukommen. (was hier komischerweise nicht erwähnt wird)
8:40 kleiner tipp an der stelle: process lasso verwenden, um games die x3d-kerne zuzuweisen und windows die entscheidung komplett abzunehmen, welche kerne genutzt werden....
Wie schon mehrfach kommentiert: "Weil der durchschnittliche Gamer dieses Wissen nicht hat. AMD sollte dafür sorgen, dass es out of the Box funktioniert und das passiert nur wenn man auf die Missstände aufmerksam macht. "
Ehrlich gesagt würde ich solchen Programmen nie viel vertrauen schenken, da die auf Kernel-Ebene vermutlich Zugriffsrechte brauchen um überhaupt zu funktionieren und wenn so was eingeschleust wird von dritten oder den Hersteller selbst, vermute ich das dies sehr schwer nur noch zu entfernen ist.
Process Lasso nutzt soweit ich weiß die Windows-eigenen Settings dafür. Also nix mit Kernel-Ebene. Ist nicht anders als wenn du das im Task-Manager händisch machst
@@der8auer hättest du das process lasso oder eine ähnliche Software mal kurz in ca. 30 Sekunden im Video angewendet (ich weiss, extra Arbeit und so...) dann hättest nebenher noch für diese "Durchschnittsgamer die kein "Detailwissen" über PC Hard- & Software haben" und doch evtl. deine Videos sehen noch etwas mit auf den Weg gegeben. Ich geb dir ja schon zum größsten Teil recht. Theoretisch sollte es Out of the box funktionieren. Erst recht bei einem solchen Preis. Aber bei den ganzen Schnittstellen über die CPU, evtl. MB Chipsatz, Treiber, Windoof, das Game selbst und Zusatzfunktionen wie Xbox Game DingsDa, kann man den Schuldigen finde ich schlecht ausfindig machen.... EXPO & XMP sind ja auch nicht out of the box aktiv.... BTW deine YT Videos gefallen mir. Du bist einer der wenigen die rum experimentieren und auch ein größeres oder großes technisches Fachwissen mitbringen. Meine Kritik hält sich bei dir in Grenzen 🙂. PS: hab ein par Möglichkeiten von deinen Videos übernommen. Geköpfter 7950X mit dem Noctua NH-U12A direct die. Ein bisschen im Asus Bios gewerkelt (v1709). CB R23: 40215 / bei 83°C / 240W. Bei mehreren Runs schwankt das auch etwas, bleibt aber bei >39800.☺ Danke dir für die Tipps 👍 AiO? = auf keinen Fall 😂
@@maximkovac2000 Okay, gab damals auch so einen Tool für AMD FX-Prozessoren die Cores unparked haben und das hatte wohl auf Kernel-Ebene gearbeitet. Brauchte Adminrechte und Windows hat auch vor der Ausführung gewarnt. Den Process Lasso benötige ich soweit nicht. Besitze einen 12900k mit Asus Mainboard und das hat auf der "Rollen"-Taste die Funktion zur Not die E-Cores abzustellen. Einzige "Spiel" wo ich das brauche ist VR Chat, da das aus irgendeinen Grund E-Cores bevorzugt und damit um die 10 FPS killt.
Würde ich auch gerne sehen, aber es würden wahrscheinlich einfach zu viele Leute bei der Montage versagen. Entweder nicht die richtige Montage Hardware, oder sie cracken den Die. Und dann suchen die Leute bei Intel die Schuld. Da hat Intel wahrscheinlich einfach keinen Bock drauf.
Im Prinzip ja, im Detail nein. Alu-Kühlkörper mögen das Flüssigmetall nicht besonders, da es da zur chemischen Reaktion kommt, die das Alu sehr vereinfacht gesprochen langsam auflöst. Es sollte schon Kupfer oder (hochwertig) vernickeltes Alu sein.
Früher, zu Athlon XP Zeiten, war direct die Kühlung standard. Der einzige Schutz gegen absplitternde CPU-Kanten, waren ein paar Gummifetzen. Habe oft von gesplitterten CPUs gehört, persönlich ist es mir nie passiert.
Danke für deine umfassenden Test und vor allem die klare Kommunikation dieser, einfach genial! Hätte hier tatsachlich sehr sehr gerne noch den 13900K gesehen. Evtl. im Vergleich auch einfach mal mit angepasster Spannung auf Werte über 1,4. Bekommen wir wirklich nur einen 13900K mit anderem Label und anderen Settings oder handelt es sich doch um eine CPU mit "Designanpassungen"?
evtl hängt das x3d problem mit der windows game bar zusammen die ja erkennen sollte was ein game ist und entsprechend die ccx zuteilung vornehmen sollte, CB hatte das problem erst mit outcast
Was mich mal interessieren würde: Ein Realworld Vergleich mit den Apple M Prozessoren auch bezüglich Effizienz. Mal ganz unabhängig von dem Apple Ökosystem finde ich es nicht gut, dass man sein "Topmodell" nur Topmodell nennen kann, weil man mit der Brechstange agiert.
5900mhz ist aber im Multi nix. Habe ich mit der 280 Bequite pure Loop 2 auch bei etwa 300w mit Wärmeleitpaste, mit flüssig Metall taktet der auch etwa 6,2ghz 400w. wen ich oben am Gehäuse den Deckel ab mache, weil hab das bequite Gehäuse die hat zu wenige schlitze für ne Aio die so viel abführen soll. Im Single Bensch allerdings nie getestet. Was würde mein 13900k mit flüssigmetall + offenen Deckel und 360AIO den saugen 500w? dann ist der aber bei 6,5ghz?
@der8auer wo findet man eigentlich die von Intel spezifizierte max. Stromstärke je CPU heraus? Auf der Intel Homepage gibts es meines Wissens nur Angaben zu PL1, PL2 und Tau. Nachdem ja heute die meißten Mainboards von Werk aus mit zum Teil sehr erhöhten Konfigurationen arbeiten ist das nicht sehr durchschaubar für den Benutzer was eigentlich Standard wäre. Grade im Hinblick mit den Problemen instabiler "K" CPUs. Wäre super wenn du hier einen hilfreichen Kommentar hättest ;-)
Erstellst 2 Profile, ein Singlecore für Games und Anwendungen wie Photoshop, Videoschnitt usw., wo du die E-Cores abschaltest und das Hyperthreading(da sie in diesem Anwendungsbereich nicht relevant sind), wodurch du weniger Powerlimit brauchst und so weniger Hitze entsteht und das thermische Limit die CPU nicht drosselt, weil diese zu schnell erreicht wird. Das führt auch dazu, dass du die CPU höher takten kannst und dieser auch stabiler wird in der Spitze. Powerlimit auf ca. 253 Watt erst einmal stellen (auf keinen Fall auf auto lassen) und schauen, wie gut die Kühlung im Gehäuse organisiert ist. Dementsprechend kann man langsam Powerlimit steigern, so dass man unterhalb der thermischen Grenze bleibt und solange das der Fall ist, ist es kein Problem, wenn die CPU knapp bei 90% ist. Mit dieser Strategie holt man enorme Leistung aus der CPU raus und der Leistungsvergleich zum K wird sogar deutlicher. Bei einem zweiten Profil, dem multicore, kann man die E-Kerne und Hyperthreding einschalten, den Takt etwas senken und so primär für Anwendungen wie Maya, Rendern, Entwicklung usw. nutzen. Die Profile kann man dann ganz einfach im Bios nach Bedarf umschalten. Wenn man das strategisch richtig angeht mit dem 14900KS, ist es ein absoluter Spitzen-Prozessor mit beeindruckender Leistung, sowohl für Gaming, als auch für Entwicklung, wo sogar ein guter AIO mit gut organisiertem Airflow im Gehäuse ausreicht ... weshalb ich mir den gekauft habe.
Über den Task-Manager kann man die CPU Zugehörigkeit eines Prozesses manuell zuteilen. Dafür musst du einfach nur im Task-Manager auf den Reiter "Details" gehen und dort beim gewünschten Prozess Rechtsklick und "Zugehörigkeit festlegen" auswählen. Auf diese Weise kannst du manuell auswählen, welche Kerne der CPU bei einem bestimmten Prozess verwendet werden sollen. Keine schöne Lösung aber könnte funktionieren.
Danke für den interessanten Test. In der Grafik zu den Taktraten stimmen die Skalen der Achse glaube ich nicht. y-Achse ist um den Faktor 10 zu hoch, oder? In dem Fall wären Achsenbeschriftungen hilfreich :).
Gabs nicht mal so ein programm mit dem man windows/den programmen sagen kann auf welchen kernen was ausgeführt werden soll? erinnere mich das um 2014 auf meinem x5670 gemacht zu haben mit cs:go, damit es nur auf den gernen 3-6 ausgeführt wird für mehr fps, bevor es mit mehr kernen klar kam. Wäre doch sehr interessant für den 7950x3d. Oder auch für intel CPUs um das spiel auf den P cores und obs auf den E cores laufen zu lassen z.B.
Mein 14900k schafft Ram mit 6600 nicht und ich muss auf 6000 runter gehen damit das XMP profil ohne Blue-screens läuft... kann man da was machen? sind halt 4x Dominator 6600 cl32 aber bin schon enttäuscht dass das nicht läuft...
Da kann man nichts machen. Viele haben diese Probleme. Eine Freundin hat ihren 12700K auch nur mit DDR5 5200 stabil bekommen, sehr ärgerlich da sie fast 100€ mehr für DDR5 6400 ausgegeben hatte.
Ich hab ein Dual Kit von Corsair mit 64GB und 6600 MHz und die laufen zusammen mit dem i9-13900K problemlos mit ihrem XMP-Profil. Vier hochgetaktete Riegel stellen allerdings meist immer ein Problem dar. Bei vier Sticks gibt's keine Garantie, dass sie über 6000 MHz stabil laufen werden...
Ich habe die 14900k und ROG Maximus Z790 Formula aber irgendwie komme ich nur auf 33000 bei CB R23, mache doch bitte mal ein OC Video, irgenwas habe ich vergessen einzustellen weil bei 5,5 Ghz und 4,4 Ghz kommt der nur auf 5,2 und 4,2 max obwohl Wakü vorhanden ist. Ich bin da etwas ratlos, danke ( RAM 6200 MHz von Corsair)
Also ich komme mit meinem i9 13900K ohne OC auf circa 39000-40000 Punkte (Asus ROG Strix Z790-A Gaming WiFi D4 mit 128GB DDR4 3200mhz (4x32GB) AiO ist eine Corsair H150i Elite Cappelix
Es gibt einen mMn. großen Faktor, der mir generell in den Gaming Charts dieser Art fehlt. Mich interessiert weniger wie "viele" FPS ein 1% low hat, sondern viel mehr interessiert mich die Frequenz der 1% lows. Wie oft tritt das im Vergleich zwischen den CPUs auf? Sprechen wir hier von einem 1% low bei Intel und 100 1% lows bei AMD pro Minute Stunde oder vielleicht umgekehrt? Das wäre sehr interessant, wenn du dazu beim nächsten mal vielleicht ein paar Zahlen hättest. Aus meiner Sicht sind 10-20 FPS mehr oder weniger deutlich weniger aussagekräftig, als weniger 1% lows insgesamt zu haben.
Aus dem hier gezeigten Chart? Ne, es wird ja weder gezeigt wie lange der Benchmark ging, noch wie oft die FPS gedippt sind. Von daher kannste noch so gut in Mathe sein, das kann man nicht berechnen @@toseltreps1101
@@d8a_gg und ob du das kannst. Das bedingt ja die Mathematik dahinter von sich aus. Wenn die eine wie du schreibst 100 1% low frames hat, und die andere einen einzigen 1% low frame die Minute hat müsste die erste im schnitt das Hundertfache an FPS haben.
This is the one I have in my shopping list since months. Can't wait to upgrade my i7 - 5930K from 2015, had it run at 4.2 for the last 9 years almost non stop ;-) As soon I have some money, I'll get my new dream config, it's going to be an Alien mothership again ;-) I hope in the next 6-9 months ;)
Ich finds geil wie sich der Markt gedreht hat - früher war AMD der Stromfresser und Intel hat sich jahrelang auf ihrem Vorsprung ausgeruht und nun hat sich das Blatt gewendet 😊
Kann man einen 14900KS so anpassen (Bios) das er so läuft wie ein 14900K ? (Leistungsaufnahme, Performance) Ich weiß macht keinen sinn, aber nur theoretisch.
Reicht ein 300 Watt Luft-Kühler aus, für den i9-14900KS habe vor diese CPU zu köpfen. Kupfer IHS habe ich schon da. Oder wäre der i9-14900K die bessere Wahl für mich. Habe keine Lust mir einen anderen Kühler zu kaufen.
Hi, ich habe ein Asus Maximus Extreme Mainboard. Das Mainboard unterstützt den i9 14900KS. Mein CPU-Kühler ist ein Deepcool Assasin iii. Zusätzlich möchte ich diese CPU köpfen, dann kommt flüssig Metall darauf und eine voll Kupfer IHS, von Rockitcool darauf. Mein Kühler kann bis zu 280 Watt abführen. Frage schafft es mein CPU-Kühler diese CPU zu kühlen! Oder ist da eine i9 14900K sinnvoller? Meine derzeitige CPU ist ein i7 13700K. Ich zocke mit meinem PC nur. (Mir geht es nicht um das Geld. Ich würde extrem viel Verlust machen wenn ich alles verkaufen würde, und auf AMD Ryzen 7950 X3D um satteln würde.)
ist es nicht so das man bei den AMD CPUs die zweite CCD ausschalten kann direkt über das Ryzen Master von AMD? Reboot is wahrscheinlich noch angesagt aber dann sollten doch nur die 3D seite des Chips laufen oder sehe ich das falsch?
Wie schon unter dem anderen Kommentar beantwortet: "Weil der durchschnittliche Gamer dieses Wissen nicht hat. AMD sollte dafür sorgen, dass es out of the Box funktioniert und das passiert nur wenn man auf die Missstände aufmerksam macht.
@@der8auer das is so ne sache, der durchschnittliche Gamer wird dann aber auch kein XMP laufen haben , kein BAR und so weiter. Das kann man so stehen lassen aber da fängt es eben doch schon ganz wo anders an. Ob ich dann also AMD die schuld zu weißen würde wenn das bei RAM Standard schon so kommt? Als ich das letzte mal mir ein Board mit CPU und RAM konfigurieren lassen habe von Mindfactory ist das Teil ohne Aktives XMP gekommen. Von daher ist das nicht mal der durschnitt der Gamer die das nicht können. Und dann kommt ja noch dazu das sowas schon seit Jahren läuft. Das wäre jetzt die 3gen die das so macht? Ich würde die auto config auch besser finden.
@@der8auerDer durchschnittliche Gamer kauft sich auch keinen 7950X3D. Wie gesagt die Xbox Gamebar aktualisieren und einmalig öffnen, ist jetzt kein Hexenwerk.
@@der8auerKann AMD denn den Windows Scheduler ersetzen bzw. konfigurieren? Mich würde es auch nicht wundern, wenn die besser laufenden Spiele ihre Thread-Affinity selbst setzen.
@der8auer kannst du vielleicht mal so ein kleines Throwback Video machen? Zu alten, vergessenen Mainboards wie dem Foxconn Bloodrage zum Beispiel. Wäre doch was oder nicht
Einfach nur krank😂... Der verbraucht ja unter voller Leistung mehr als meine 4090🫣, die durchschnittlich gerade mal etwas mehr als die Hälfte davon verbraucht! Das ist jenseits von gut und böse☠️
doch 3dmark auf dem 13700k läuft bei win10 mehr auf den Ecores und bei win 11 auch noch viel Auslastung. zum teil max Takt eores und halber takt bei Pcores
Mit welcher Software werden die schönen diagramme erstellt? Zur cpu, ist ja schön das die so viel Leistung bringt, aber die soll man den brummer kühlen? Vielleicht einen eisblock drauflegen
Der Eisblock wäre zu schnell weg. Wenn ich sehe was sich mein 13700k schon unter auto settings genehmigt und was die wakü leisten muss, wird mir bei diesen 400+ Watt ganz anders.
@@TigerNationDEIch habe hier in einem WaKü-Kreislauf einen 7900X und 3960X, wenn beide volle Leistung bringen müssen dann haben meine 6 X 560er Radiatoren gut zu tun bzw. eher die Lüfter, die dann nicht mehr bei 20% rumdümpeln, wie im Normalbetrieb mit nur einem Rechner. Mir tut nur die zum Test verwendete 360er AIO leid.
Kühlbar ist das Ganze schon, aber die im Test verwendete 360er AIO ist dafür wohl eher nicht geeignet. Mit einer Custom-WaKü die ausreichend dimensioniert ist von der Kühlfläche (zb. ein Mora) bekommt man die Abwärme ziemlich einfach in den Griff.
Gerade für die Anwendungsleistung schade, dass der "normale" 7950x dann nicht dabei ist bei Cinebench. Beim Gaming ist das echt mies, was die abliefern. Gleiche Leistung bei mehr als 3x soviel Verbrauch wie AMD... Wäre interessant wieviel Vorsprung AMD hätte, wenn man deren CPUs mit 260 Watt betreibt
Tolles Video. Ich finds schon cool, wie viel Leistung solche CPU´s haben könne, wenn auch bei bis zu um die 400 Watt Leistungsaufnahmen. Einen kleinen Fehler habe ich in deinem Video gefunden. Der erste Chart im Abschnitt Cinebench R23 & Leistungsaufnahme, da steht unten am Chart FPS, aber da soll bestimmt R23 Multi stehen oder? Passiert, ist auch nicht so schlimm. 🙂
Die hohen Temps bei den Ryzen ist doch so gewollt, ist Teil der Boost-Vorgaben. Der fährt die CPU immer in diesen rel. hohen Temp-Bereich. Haben viele noch nicht begriffen.
War auch eine richtig gute CPU, die sich unter Wasser echt gut übertakten lässt. Ich hab auch noch eine 980 ti wassergekühlt, einfach weil das übertakten damals noch ordentlich Extraleistung gab. 👍
Würde mich interessieren, ob ein X3D-Model sogar weniger Strom ziehen würde, als mein aktueller 5700X. Na ja, für 145€ habe ich da bestimmt trotzdem nix falsch gemacht. Ich denke, für eine reine Gaming-Kiste sollte man aktuell maximal auf 24 Threads setzen. Alles andere wäre overkill und wohl eher kontraproduktiv, wie im Video zu sehen, zumindest bei Intel, derzeit. Ich habe mit meinem Ryzen 5700X und einer RTX 2070 Super jedenfalls null Probleme. Na ja, ich zocke halt nur in 1080p.
Warum verkauft Intel eigentlich keine geköpfte Version ab werk? Sollte doch eigentlich sogar weniger Aufwand bedeuten, weil die Produktionsschritte mit dem HS weggelassen werden können.
Weil vermutlich eigentlich die KS deutlich über die K performen sollten vermute ich. Oder sie liefen nicht stabil genug und man musste die Vcore so drastisch erhöhen und die hohe Leistungsaufnahme war nich geplant. Aber alles nur Spekulation.
Vielleicht eine dumme frage.. bin da auch nicht ganz so krass drin aber: Warum gibt es überhaupt diese P1 und P2 Limits? Warum macht das Intel nicht gleich in Ihrem Chip? o.O Denn die Mainboard Hersteller, die machen das nicht xD und nicht jeder stellt diese Werte in seinem BIOS ein.. und wundert sich warum die Temps und bla so krass hoch sind. Find ich irgendwie nicht smart gelöst, ehrlich gesagt. Aber vielleicht gibt es dafür jah einen Grund den ich nicht weiß, bitte klärt mich auf, wenn es diesen fall gibt. o: Benutze seit ka wievielen Jahren AMD CPU's
@@der8auer Jah aber als Deafult, könnten doch die Intel P1 und P2 werte drin stehen /: Da die Mehrheit nichts im BIOS umstellt, außer XMP und SAM vielleicht o: und andere Leute die andere Werte haben wollen, können das dann jah auch noch machen o:
ich finde es in Ordnung dass es dem Mainboard überlassen ist, aber ich finds einfach nur dämlich dass Mainboard Hersteller standardmäßig das PL auf unendlich setzten. WARUM? Das führt einfach nur dazu dass Leute sich fragen wieso ihr CPU auf 99ºC läuft. Wer eine Wasserkühlung hat kann das ja gerne selbst einstellen aber für 99% der Leute einfach nur unnötig und führt dazu dass der PC klingt wie eine Flugzeug Turbine, wenn er genauso gut leise sein könnte.
P1 definiert die langfristige Leistungsaufnahme, während P2 eine höhere Leistungsaufnahme für kurze Zeiträume erlaubt. So kann die CPU bei Bedarf höhere Taktraten erreichen, ohne die thermische Belastung zu stark zu erhöhen. Die Festlegung der P-Limits im Chip würde die Entwicklung und Herstellung komplexer machen.
Hey Roman, es gab ja mal von dir bei Caseking geköpft Intel Prozessoren, waren die mit Garantie verlust verkauft worden ??? PS: Was Ich feiern würde, ist wenn Du über Thermal Grizzly geköpft CPU's mit Garantie einzeln verkaufen darfst, also als "8auer" Version
Mich würde noch Interresieren welchen Kühler Intel empfehlen würde bei 400w Leistungsaufnahme. Braucht man da ein Temperiergerät aus dem Druckgussbereich? 😂 Auch das mit der Garantie ist mega gut gelöst und hoffe das Intel das in Zukunft weiter verfolgt oder das wenigstens Firmen wie Casking direkt geköpfte CPUs von Intel bekommen.
Hatte mit meinem 14900k schon das Problem gehabt, dass das Spiel Dota 2 immer zwischen die E und P Cores geschoben wurde. Aber mit der kostenlosen Version von Process Lasso lies es sich sehr schnell beheben. Und ich glaub seit dem letzten Windows Update würde es jetzt auch wieder ohne PL funktionieren.
@@noir-13 Im Jahr 2000 hat ein guter 19 Zoll Röhrenmonitor etwa 1000 Mark gekostet (entspricht inflationsbereinigt heute etwas über 800 EUR). 19 Zoll war damit so der größte Monitor, den man sich noch halbwegs leisten konnte. Den hat man dann aber auch einige Jahre verwendet. Wesentlich gängiger waren damals allerdings die günstigeren 17 Zoll Monitore. So mancher hatte auch noch einen älteren 15 Zoll Monitor. Ich weiß noch genau wie ich damals den 19 Zoll Monitor unserer Familie (die meisten Familien hatten 1 PC für alle) zur LAN Party geschleppt hab. Das Ding war für mich als 15-jährigen dermaßen sauschwer. 19 Zöller wogen um die 20 kg, manche etwas weniger, manche sogar etwas mehr. Ich glaube die 21 Zoll gingen sogar bis über 25 kg, aber einen 21 Zöller hatte damals keiner von uns.
@@a564-c3q 1400 Mark müsste mein 21er damals gekostet haben, wenn ich mich recht erinnere. Und 25 Kilo hört sich realistisch an. Der Nachteil war, dass auf einem normalen Biergartentisch nicht genug Platz für den großen Monitor und die Tastatur war, so dass die dann auf dem Schoß liegen musste. Aber ich konnte den Kuchen aus der Tiefkühltruhe damit super auftauen 😁
Also ist schon geil was mit dem Teil geht. Aber wenn wir mit der Hardware so weiter machen, brauchen wir bald einen neuen Schuko-Stecker Standard und eigene Sicherungen für die Steckdose über die der PC läuft. xD
Da ich fast nur zocke bin ich total zufrieden mit dem 7800x3d und das bei einer absurd niedrigen Leistungsaufnahme und man muss sich im Sommer keine sorgen um die Kühlung machen. Die Leistungsaufnahme des 14900ks erinnert mich an mein 8700k Overclocking 5.2 Ghz bei enormen Stormverbrauch und in der Praxis wie hier in den Tests nicht spürbarer FPS Zuwachs. Wie immer Super Video weiter so
Intel muss dringend etwas hinsichtlich des Stromverbrauchs tun... Wo soll denn das hinführen? Auch die Temperaturen sind bei beiden Herstellern Wahnsinn. Man muss einen i7 jetzt schon mindestens mit einer 240er-AiO oder mit vielleicht noch mit einem fetten Dual Tower-Luftkühler à la NH-D15 kühlen, um die Temperaturen bei Volllast konstant unter 100°C zu halten. Die Hitzeentwicklung bei den AMD-CPUs verstehe ich allerdings nicht. Weit unter 150W Leistungsaufnahme und trotzdem 90°C. Wie ist das möglich?
@@MKR3238hm eine Fertigung auslutschen, die eigentlich schon ewig alt ist, weil der Nachfolger einfach noch nicht bereit ist 14nm++++++++ lassen grüßen
Auch als AMD Fanboy muss ich sagen der Intel bringt zumindestens Leistung wenn auch bei mangelhafter Eiffizienz. Der Bulldozer war schlicht nicht konkurenzfähig. Jedoch hatte selbst die Brechstangen 5ghz Bulldozer Version eine Mehrleistung gegenüber dem Vorgänger.
Bezüglich ausgelesener Temperatur, die bei AMD anscheinend höher liegt als bei Intel, aber Intel wesentlich mehr Leistung aufnimmt, was widersprüchlich ist: Es macht einen gigantischen Unterschied aus, _wo_ die Temperatur abgelesen wird. In uralten CPUs wurde die Temperatur am A**** der Welt ausgelesen, und die wurden dann "nur" 60°C oder so ähnlich warm. Heutzutage sind die Temperaturfühler verdammt na am "Ort des Geschehens" dran, d.h. man liest die lokaeln Temperaturen aus und nicht irgendwelche gemittelten, wenn die Wärme schon teilweise abfließen konnte. Daher ist die Temperatur als Proxi der Effiziens oder Qualität o.ä. immer mit Vorsicht zu genießen. Idealerweise will man die Temperatur so nah wie nur möglich an dem Ort auslesen, wo zu hohe Temperaturen ein Versagen anrichten würden, d.h. man ist eigentlich froh, wenn der Temperaturfühler richtige, aber "zu hohe" Werte anzeigt, denn dann ist die gemessene Temperatur näher an der realen Temperatur der "Problemzone". Das ist die einzige Unbekannte. Ansonsten wissen alle doch was physikalisch abläuft, wenn eine CPU 250W verbraucht: die Leistung muss folgerichtig 1:1 als Wärme direkt abgeführt werden, d.h. meine Kühllösung muss 250W permanent abführen, egal was irgendwelche Temperatursensoren sagen.
ich finde das lustige bei amd und den 7950x (non x3d) wenn man ein eigenes package temp limit und watt limit setzt...kann man den super noch mit nem noctua nh-d15 betreiben Hab einfach den Mittelwert zwischen Eco Mode 105 Watt (was ungefähr die Werte dem 5950x entspricht) und es mit Stock Werten einen mittelwert gesetzt für PB2 und was soll ich sagen...es ist einfach heftig...klar er kommt nicht an einen intel i9 14900ks heran (DDR5 KIT läuft nur mit JEDEC Conig...Inkompatibler RAM Fail meiner Seite aus) aber ist noch gut kühlbar dadurch
@@LarsBa4und es gäbe kaum software dafür und 0 Spiele. Als der m1 vorgestellt wurde, wurde gezeigt wie metal gear solid drauf läuft .naja, metal gear solid startet unter macos nicht, lol
Für Gaming bräuchte ich den 14900 auch nicht ansatzweise. Das tu ich eh schon kaum noch, und wenn dann auf dem SteamDeck. Produktivität wäre da eher der Grund und da ist einfach MacOS mit dem M2 Ultra oder M3 Max in meinen Augen deutlich weiter vorne. Sofern die Anwendungen nativ auf dem Gerät laufen. Den Vorteil den der Intel hat: Kerne, viele Kerne. Eigentlich das was ich für Anwendungen wie PixInsight benötige, nur bei der Leistungsaufnahme.. nein danke 😅
Viele kommentieren bzgl. der X3D Cores und falscher Zuordnung:
Der durchschnittliche Gamer hat dieses Wissen ggf nicht. Hier sind Updates für Windows/BIOS/Chipsatz/Game notwendig. AMD sollte dafür sorgen, dass es out of the Box funktioniert und das passiert nur wenn man auf die Missstände aufmerksam macht. Es ist nicht zielführend wenn ich im Hintergrund etwas in diesem Umfang anpasse.
Dein Vergleich zwischen P- und E-Cores und CCD mit 3D-Cache und CCD ohne 3D-Cache ist allerdings auch nicht ganz passend. Den die "Cores" sind ja im Grunde dieselben. Nur das die mit dem Cache niedriger takten. Klar ist es trotzdem AMDs Verantwortung, dafür zu sorgen, dass die richtigen Cores beim Gaming angesprochen werden.
Und wer wirklich nur zockt, kauft eh den 7800X3D. Der durchschnittliche Gamer kauft aber am Ende wohl weder 7800X3D noch 14900KS, sondern deutlich günstiger ein.
Amd ist leider ein Problem firma bezüglich treiber & software wie man sieht.
Hatte mit amd karten nur schlechte erfahrungen und ein anderer bekannter reviewer hatte sogar probleme bei einer karte out of the box kein bild bekommen zu haben. Er musste die treiber via IGPU installieren für die karte.
@@chibiribiri ja genau das sage ich ja selbst im Video. Ein 7800X3D ist wesentlich günstiger und hat diese Probleme nicht.
Nein, du willst dass ich es fälsche :D Ich habe das getestet was die CPU macht. Was bist du denn so sauer? Wieso soll ich denn die Arbeit von AMD oder Intel machen und deren Probleme lösen?
Sehe ich genau so. Es sollte out of the Box funktionieren.
Das ist doch einfach nur noch krank. Mehr Leistung schön und gut aber auch die Effizienz sollte bei der Entwicklung beachtet werden. Meiner Meinung eine CPU die keiner braucht.
eine cpu die keiner braucht und die keiner kühlen kann
Das ist bei ALLEN CPUs (und GPUs) so, nur das Intel mit dem KS ein extra starkes OC und Binning betreibt.
Auch bei AMD ist es so, ein einfacher Vergleich wäre z.b. der 7900 und 7900X. Wieviel mehr Leistung bringt der mit X für wieviel % mehr an Strom?
GPUs sind genauso. Meine 4090 ist undervoltet und für nur 6% weniger Leistung zieht sie >150W weniger. Jedes Prozent an mehr Leistung ist mit rund 8% mehr Strom erkauft.
das das gleiche wie bei ei phone ist eher ne flex cpu ^^ *bitte nicht ernst nehmen*
Habe Anfang des Jahres einen 13900T für 350€ ergattern können (ES). Gleiche Anzahl an Cores, mit etwas weniger Takt, dafür nur 35W bzw. knapp 100W TDP. Im Cinebench komme ich beim Multi auf 1935, im Single auf 112, kratzt also gut am 14700K. Für mich echt nen super Schnapper. Und bevor die ganzen Fanboys hier mit ihrem 78x3d um die Ecke kommen, wollte absichtlich darauf spekulieren um mal bisschen mit dem Stromverbrauch in Relation zur Leistung zu experimentieren. Zusammen mit ner 4070 Ti komm ich bei WQHD Gaming auf gute 300-350W Systemverbrauch und bin sehr zufrieden damit.
AIO Tester brauchen das Teil. Eine Art Luxus Widerstand.
Das erinnert schon stark Pentium 4 Zeit als man auf Teufel komm rau über den Takt aus rausprügelte was ging…
Northwood war nice aber mit Prescott ging’s bergab bis hin zum Pentium D 🫣
6,2GHz ist beeindruckend aber der Vebrauch im Vergleich ist einfach fern jeder Vernunft 😳
Das heißt wir brauchen ein neues Projekt Unvernunft von Roman 😀
Alles schön und gut... die Weisse Katze hat auf jedenfall Freude mit im Bild zu sein :)
Was ich echt klasse finde an RUclipsrn wie dir, ist die normale Art der Präsentation - nicht das übersteuerte aufgeblasene Entertainmentgequatsche vieler Ami-youtuber die jeden Moment zu explodieren scheinen vor angeblicher aufgeregtheit und Sensation.
Ist schon erstaunlich, was da an Strom weggenuckelt wird. Und dann stehen die gleichen Leute, die einen 14900k(s) bei mir kaufen, eine Woche später im Laden und beschweren sich, dass der Gamingmonitor, der ausgesucht wurde, nur Energielabel F oder G hat.
Ist aber wirklich so und dann muss man ewig lang erklären, dass es eine neue Skala ist und nach der Alten wäre es nen A oder AA Monitor.
Gibt es wirklich Leute die das machen?! Denen ist ja echt nicht mehr zu helfen... Ich käme nicht mal auf die Idee mich über den Verbrauch meines 59" Samsung G9 zu beschweren wenn der von einer 4090 und nem 13900K befeuert wird 😀
@@mikemayer8293 Das sind so Typen, die nur das beste vom besten haben wollen. Und dann muss es mindestens eine AAA+ irgendwas sein. Die haben halt kein Ahnung bzw. veraltetes Wissen.
4% mehr FPS für 33% mehr Leistungsaufnahme... Bulldozer Brechstange lässt grüßen
3-fache Leistungsaufnahme sind +200% bzw insgesamt 300% der AMD CPU. Ein Zuwachs um 33% wäre gerade einmal das 1,33-fache.
@@letalissonus es wird hier vs 14900 k verglichen.
@@letalissonus der 14900k war gemeint
Habe ich auch direkt dran gedacht.
Es geht hier um Leistung und nicht um Geld.
Vielen lieben Dank, das Sie sich die Zeit nahmen, diese Videos zu machen. Ihre Videos haben alle einen hohen qualitativen Inhalt, den ich mir bei vielen anderen wünschen würde. Gerade aus diesem Grund, sehe ich Ihnen immer gerne zu. Ich freue mich schon auf den zweiten Teil.
KSS Kühlschmierstoff 😂
Grüße an alle CNC Jungs
O la la, was eine Luxusheizung😂😂😂 Perfekt für den Frühling ❤
Einfach krank der Stromverbrauch im Gaming, zumindest im Vergleich zum 7950X3D
Der macht ja einer 4090 Konkurrenz 🫣🫣🫣
So ist das wenn man auf Leistung geht...
@wischmopps293 Optimierung bei dem game auf AMD. Ist bei manchen der Fall. Aber Intel ist dennoch stärker wie man sieht...
@@IIXxSLAYERxXII womit stärker? Im unteren einer stellen bereich? Das ist keine stärke sondern Dummheit 😊
@@SoraKingOfLewdness der Leistung. Guck dir Tests an. Falls du es nicht glaubst. "Dummheit", schrieb ein Nerd ohne Ahnung und Passion auf YT gegen INTEL.
Ich finde gerade in der heutigen Zeit ist der Stromverbrauch enorm wichtig, darum ist der AMD Prozessor viel interessanter. Ich war ein großer Intel Fan in den letzten Jahren und nutze selbst noch einen 9700k und 9600k, würde mir aber z.Z. niemals einen Intel CPU kaufen. Preis, Performance und Stromverbrauch sprechen ganz klar pro AMD.
sehe ich auch so .... hab mir beim neuen PC ohne mich davor so richtig schlau zu machen einen 14600k reingebaut (durch die langjährige Zufriedenheit mit Intel) .... mann läuft das Ding heiss :D Bin jetzt nicht unzufrieden, aber im Ernst, Effizienz sieht anders aus.
Ich hab zwar auch den 7800x3D aber ganz ehrlich mir ging’s eher um den Cache und nicht um die Effizienz primär.
Ich zocke ja nicht jeden Tag 8h so viel macht das auch nicht aus.
Die CPU zieht ja nicht immer auf Anschlag 400 Watt 😂
Von daher alles cool, außerdem undervolte ich sowieso CPU/GPU.
Es ist einfach traurig dass Intel sogar mit 3 fachem Stromverbrauch und doppeltem Preis nicht mithalten kann.
@@KennedySpaceCenter-x2b In Reddit sagen 300 Threads das man bei vielen Spielen die Efficency Cores ausmachen muss weil sie Leistung droppen. Bei AMD hat man solche Probleme nicht. Mein 5800X3D zieht bei Star Citizen 53W und bringt 220fps. Intel CPU User sind in dem Game froh über 100fps laut reddit.
also mein 13700k braucht 80 Watt bei Hunt Showdown.....3440x1440p.
beste kanal auf youtube ❤️🔥❤️🔥❤️🔥❤️🔥
Man kann doch Process Lasso oder gar den Taskmanager nutzen, um die Kerne zuzuweisen. Bis auf Warzone funktionierte das immer sehr gut. Gerade im Sinne eines Tests wäre das vermutlich zwar lästig, aber halt für die korrekten Werte sehr wichtig.
Tolle Heizug mal wieder von Intel. Aber ein wenig teuer dafür :D
Musst das ganze nur mit nem Chiller kombinieren und schon ist das ganze ne Wärmepumpe mit elektronischer Zusatzheizung.
Somit durch einen Kredit Förderungsfähig.
Den Stromverbrauch läuft dann auch auf dem Wärmepumpen-tarif deines Versorgers.
wäre im winter gut gewessen ,jetzt zu spät
@@Ullion404du bist einfach ein verdammtes Genie
@@Erksah02 Neuer Trend: Statt Sommer-Auto jetzt Winter-CPUs
😂😂😂
Tolles Video, aber wie sieht es mit den Daten bei Counter-Strike 2 mit eSports-Settings aus? Wäre cool die noch zu erfahren.
wieder tolles video und wieder mega info, danke wie immer dafür. Und ja der stromverbrauch ist hoch ob das die rechenleistung wert ist muss jeder für sich entscheiden. Ja AMD ist Heiss in Leistung und in Temperaturen. Gegen die hohen Temperaturen laufen bei mir Lüfter und dass auch mal schneller weil ich Temperaturen über 70°C nicht mag. Und gegen die Lautstärke der Lüfter gibt es Schallhauben oder Ohr Stöpsel, ich mach es bei der Lautstärke der Lüfter wie bei meinem lauten Nachbarn. Ich dreh den Sound hoch bis mich der Nachbar oder der Lüfter nicht mehr stört.
Danke für das tolle Video Roman :-).
Was echt mal interessant wäre, ist der Vergleich von verschiedenen AMD und Intel Prozessoren zu Apple Silicon Prozessoren. Auch wenn der Anwendungsfahl der Prozessoren sehr unterschiedlich ausfällt wäre es trotzdem mal sehr interessant.
Ja aber wie? Es gibt Crossover Benchmarks aber wie aussagekräftig sind die?
Ja das ist die Frage :-). Ich kenne mich da nicht sonderlich aus. Aber ein genereller Vergleich wäre echt mal schön.
Ich verwende Privat fast nur Apple. Beruflich bin ich zu WIN gezwungen was aber in Ordnung ist. Aber alleine die Möglichkeiten mit dem M3, ist schon genial. In wie fern eventuelle Benchmarks aussagekräftig sind bleibt dahingestellt. @@manut9824
Bester Katzenkanal auf RUclips...
achja die Tech-Inhalte sind auch ganz OK... 😅😉
Ein Threadripper PRO 7995WX hat 96 Kerne und 350W (theoretische) TDP. Bei 400W begrenzt wird der in CineBench um die 80k Punkte schaffen. Fürs Gaming lohnt der KS nicht; fürs Arbeiten aber erst recht nicht. Was mache ich mit dieser Heizung? Die Wohnung warm? Nen Grund suchen, mir ein neues Netzteil zu kaufen, weil jetzt mindestens zwei Komponenten im PC über 300W ziehen? Das ist doch irre sowas. Ich habe mit 350W max. TDP gerechnet - dass der sich 400W ziehen kann, entbehrt sich jeglicher Logik^^
ABER: Was interessant wäre zu wissen, ist wie der 14900KS bei K Takt- und Powerlimits fungiert. Das sollte ja der hochwertigere Die sein, also eigentlich bei niedrigerem Takt entsprechend weniger ziehen.
Naja so gesehen was Heizleistung angeht is der AMD ja auch "heißer" bei weniger Stromaufnahme also auch da effizienter.
@@manut9824 Der Threadripper lässt sich allerdings gut kühlen, da der wortwörtlich gigantisch ist. D.h. TDP je Fläche ist um ein Vielfaches geringer als beim KS.
@@manut9824Naja das bei AMD mit den X CPUs 7700X oder 7950X und den hohen Temperaturen hat einen anderen Hintergrund. Wie du schon beschrieben hast, liegt das nicht an einer Energieaufnahme jenseits der 300 W. Das hat Roman in seinen Videos schön gezeigt. Problem hier ist dieser dicke Heatspreader und diese mini-Hotspots (CCDs) auf der Platine. Intel schafft das hier mit der Wärmeverteilung besser. Geköpft ist so ein 7950x doch gut zu kühlen. Sogar besser als ich dachte. z.B.: CB R23 = ca. 40200 Punte / 240W / ca. 83°C // nach 2 Runs / CPU Kühler: NH-U12A, direct die ☺
Für 'n YT-Algo ... Video wie immer GEIL, TOP, SUPER
Hey Roman,
Was sagst du eigtl. zu den Rechenfehlern und Abstürzen bei den Intel CPUs auf dem Takt?
Aber auch danke dass du die leistungsaufnahme angesprochen hast und nicht nur die Geschwindigkeit der CPUs.
Ich fand schon vor Jahren interessant dass die Server/workstation CPUs locker 400-800 mhz niedriger Takten (selbst im top Segment).
Ich bin halt selber Softwareentwickler und hätte Angst davor auf so einer CPU meine Sachen zu compilen, weil kann ja gut sein, dass da nen Fehler mir und dem Kunden einen nicht nachvollziehbaren strich durch die Rechnung macht.
Ist käse, wenn du Softwareentwickler bist, kaufst du einfach ein W680/Workstation Chipsatz und setzt ECC Ram ein. Auch der 14900K/KS kann ECC.
geil die stromanbieter freuen sich
7950x3d windows + G als Spiel markieren?
Exakt. Die Xbox Gamebar gehört zum offiziellen AMD Performance Guide und muss aktualisiert sein und einmalig gestartet werden.
Das wurde hier sicherlich nicht gemacht, wird es von den meisten nicht.
@@TheTaurus104Das sollte Grund genug sein, sich diese CPU nicht zu kaufen
nö, man sollte es einfach nur mal kommunizieren, dann wäre das Problem erledigt. @@Ben-ki2in
@@Ben-ki2in Das ist der Kompromiss zwischen der X3D perfomance eines 7800 und der Multicore Anwendungsperfomrance eines 7900.
Das ist schon in Ordnung wenn auch verbesserungswürdig.
Es ist aber auch nicht so das die Performance falls die Automatik in sletenen Fällen nicht funktioniert desaströs wäre. Und wenn man zum großen I schaut. Da mussten ein paar Spiele (Spielseitig!!) nachgepatcht werden um mit den P und E Cores klarzukommen. (was hier komischerweise nicht erwähnt wird)
Sehe ich ganz genauso.
Würde mich interessieren ob man den ungeköpft mit einem custom loop gekühlt bekommt...
Schwierig. Ich warte eigentlich drauf das wir demnächst so kleine Kühlaggregate zusätzlich in den Kreislauf einbinden MÜSSEN xD
Was bekommst du aus der CPU für 400 Watt ist den die Bude wenigstens warm für
8:40 kleiner tipp an der stelle: process lasso verwenden, um games die x3d-kerne zuzuweisen und windows die entscheidung komplett abzunehmen, welche kerne genutzt werden....
Wie schon mehrfach kommentiert:
"Weil der durchschnittliche Gamer dieses Wissen nicht hat. AMD sollte dafür sorgen, dass es out of the Box funktioniert und das passiert nur wenn man auf die Missstände aufmerksam macht. "
Ehrlich gesagt würde ich solchen Programmen nie viel vertrauen schenken, da die auf Kernel-Ebene vermutlich Zugriffsrechte brauchen um überhaupt zu funktionieren und wenn so was eingeschleust wird von dritten oder den Hersteller selbst, vermute ich das dies sehr schwer nur noch zu entfernen ist.
Process Lasso nutzt soweit ich weiß die Windows-eigenen Settings dafür. Also nix mit Kernel-Ebene. Ist nicht anders als wenn du das im Task-Manager händisch machst
@@der8auer hättest du das process lasso oder eine ähnliche Software mal kurz in ca. 30 Sekunden im Video angewendet (ich weiss, extra Arbeit und so...) dann hättest nebenher noch für diese "Durchschnittsgamer die kein "Detailwissen" über PC Hard- & Software haben" und doch evtl. deine Videos sehen noch etwas mit auf den Weg gegeben. Ich geb dir ja schon zum größsten Teil recht. Theoretisch sollte es Out of the box funktionieren. Erst recht bei einem solchen Preis. Aber bei den ganzen Schnittstellen über die CPU, evtl. MB Chipsatz, Treiber, Windoof, das Game selbst und Zusatzfunktionen wie Xbox Game DingsDa, kann man den Schuldigen finde ich schlecht ausfindig machen....
EXPO & XMP sind ja auch nicht out of the box aktiv....
BTW deine YT Videos gefallen mir. Du bist einer der wenigen die rum experimentieren und auch ein größeres oder großes technisches Fachwissen mitbringen. Meine Kritik hält sich bei dir in Grenzen 🙂.
PS: hab ein par Möglichkeiten von deinen Videos übernommen. Geköpfter 7950X mit dem Noctua NH-U12A direct die. Ein bisschen im Asus Bios gewerkelt (v1709). CB R23: 40215 / bei 83°C / 240W. Bei mehreren Runs schwankt das auch etwas, bleibt aber bei >39800.☺ Danke dir für die Tipps 👍
AiO? = auf keinen Fall 😂
@@maximkovac2000 Okay, gab damals auch so einen Tool für AMD FX-Prozessoren die Cores unparked haben und das hatte wohl auf Kernel-Ebene gearbeitet. Brauchte Adminrechte und Windows hat auch vor der Ausführung gewarnt.
Den Process Lasso benötige ich soweit nicht. Besitze einen 12900k mit Asus Mainboard und das hat auf der "Rollen"-Taste die Funktion zur Not die E-Cores abzustellen.
Einzige "Spiel" wo ich das brauche ist VR Chat, da das aus irgendeinen Grund E-Cores bevorzugt und damit um die 10 FPS killt.
Die cpu unterstützt ddr5 mit 5600mhz laut intel. Macht es da sinn schnelleren arbeitsspeicher zu nehmen? Das check ich nicht.
@der8auer
Wann ist der Mycro Direct Die Kühler denn mal zu haben ? Ich hoffe nicht erst wenn der nächste Sockel erscheint.
Da frage ich mich:
Wieso verkauft Intel gewisse CPUs ohne Heatspreader als OC-Version nicht?
Würde ich auch gerne sehen, aber es würden wahrscheinlich einfach zu viele Leute bei der Montage versagen. Entweder nicht die richtige Montage Hardware, oder sie cracken den Die.
Und dann suchen die Leute bei Intel die Schuld. Da hat Intel wahrscheinlich einfach keinen Bock drauf.
Genau, kann man gleich nochmal 10% teurer machen das Ding 🤣
Kann man dieses Flüssigmetall überall drauf packen, wo auch normale Wärmeleitpaste funktionieren würde?
Im Prinzip ja, im Detail nein. Alu-Kühlkörper mögen das Flüssigmetall nicht besonders, da es da zur chemischen Reaktion kommt, die das Alu sehr vereinfacht gesprochen langsam auflöst. Es sollte schon Kupfer oder (hochwertig) vernickeltes Alu sein.
ich liebe deine Katzen und wie du damit umgehst. Natürlich auch deine Videos
Warum bieten die CPU Firmen nicht direkt geköpfte CPU's an ? müssen doch vom Band nur bevor der Heatsp. draufkommt ausschleusen :-P
Irgendwas muss aufweniger und /oder teurer in der Herstellung sein...
Früher, zu Athlon XP Zeiten, war direct die Kühlung standard. Der einzige Schutz gegen absplitternde CPU-Kanten, waren ein paar Gummifetzen. Habe oft von gesplitterten CPUs gehört, persönlich ist es mir nie passiert.
Danke für deine umfassenden Test und vor allem die klare Kommunikation dieser, einfach genial! Hätte hier tatsachlich sehr sehr gerne noch den 13900K gesehen. Evtl. im Vergleich auch einfach mal mit angepasster Spannung auf Werte über 1,4. Bekommen wir wirklich nur einen 13900K mit anderem Label und anderen Settings oder handelt es sich doch um eine CPU mit "Designanpassungen"?
evtl hängt das x3d problem mit der windows game bar zusammen die ja erkennen sollte was ein game ist und entsprechend die ccx zuteilung vornehmen sollte, CB hatte das problem erst mit outcast
Was mich mal interessieren würde: Ein Realworld Vergleich mit den Apple M Prozessoren auch bezüglich Effizienz. Mal ganz unabhängig von dem Apple Ökosystem finde ich es nicht gut, dass man sein "Topmodell" nur Topmodell nennen kann, weil man mit der Brechstange agiert.
5900mhz ist aber im Multi nix. Habe ich mit der 280 Bequite pure Loop 2 auch bei etwa 300w mit Wärmeleitpaste, mit flüssig Metall taktet der auch etwa 6,2ghz 400w. wen ich oben am Gehäuse den Deckel ab mache, weil hab das bequite Gehäuse die hat zu wenige schlitze für ne Aio die so viel abführen soll. Im Single Bensch allerdings nie getestet.
Was würde mein 13900k mit flüssigmetall + offenen Deckel und 360AIO den saugen 500w? dann ist der aber bei 6,5ghz?
Mehr Schreibfehler als Hirnzellen 😂
@der8auer wo findet man eigentlich die von Intel spezifizierte max. Stromstärke je CPU heraus? Auf der Intel Homepage gibts es meines Wissens nur Angaben zu PL1, PL2 und Tau. Nachdem ja heute die meißten Mainboards von Werk aus mit zum Teil sehr erhöhten Konfigurationen arbeiten ist das nicht sehr durchschaubar für den Benutzer was eigentlich Standard wäre. Grade im Hinblick mit den Problemen instabiler "K" CPUs. Wäre super wenn du hier einen hilfreichen Kommentar hättest ;-)
gab es bei dir auch das problem, das man das icc limit von 307 auf 512 setzen muss damit die kerne stabil auf 5900 laufen?
9:20 die kann man doch übers BIOS deaktivieren bestimmt oder? also alle non X3D-Kerne einfach deaktivieren und los gehts...
Erstellst 2 Profile, ein Singlecore für Games und Anwendungen wie Photoshop, Videoschnitt usw., wo du die E-Cores abschaltest und das Hyperthreading(da sie in diesem Anwendungsbereich nicht relevant sind), wodurch du weniger Powerlimit brauchst und so weniger Hitze entsteht und das thermische Limit die CPU nicht drosselt, weil diese zu schnell erreicht wird. Das führt auch dazu, dass du die CPU höher takten kannst und dieser auch stabiler wird in der Spitze. Powerlimit auf ca. 253 Watt erst einmal stellen (auf keinen Fall auf auto lassen) und schauen, wie gut die Kühlung im Gehäuse organisiert ist. Dementsprechend kann man langsam Powerlimit steigern, so dass man unterhalb der thermischen Grenze bleibt und solange das der Fall ist, ist es kein Problem, wenn die CPU knapp bei 90% ist. Mit dieser Strategie holt man enorme Leistung aus der CPU raus und der Leistungsvergleich zum K wird sogar deutlicher.
Bei einem zweiten Profil, dem multicore, kann man die E-Kerne und Hyperthreding einschalten, den Takt etwas senken und so primär für Anwendungen wie Maya, Rendern, Entwicklung usw. nutzen. Die Profile kann man dann ganz einfach im Bios nach Bedarf umschalten.
Wenn man das strategisch richtig angeht mit dem 14900KS, ist es ein absoluter Spitzen-Prozessor mit beeindruckender Leistung, sowohl für Gaming, als auch für Entwicklung, wo sogar ein guter AIO mit gut organisiertem Airflow im Gehäuse ausreicht ... weshalb ich mir den gekauft habe.
Über den Task-Manager kann man die CPU Zugehörigkeit eines Prozesses manuell zuteilen. Dafür musst du einfach nur im Task-Manager auf den Reiter "Details" gehen und dort beim gewünschten Prozess Rechtsklick und "Zugehörigkeit festlegen" auswählen. Auf diese Weise kannst du manuell auswählen, welche Kerne der CPU bei einem bestimmten Prozess verwendet werden sollen. Keine schöne Lösung aber könnte funktionieren.
Danke für den interessanten Test. In der Grafik zu den Taktraten stimmen die Skalen der Achse glaube ich nicht. y-Achse ist um den Faktor 10 zu hoch, oder? In dem Fall wären Achsenbeschriftungen hilfreich :).
Wann kommt denn endlich der 18088SS auf den Markt?
Gabs nicht mal so ein programm mit dem man windows/den programmen sagen kann auf welchen kernen was ausgeführt werden soll? erinnere mich das um 2014 auf meinem x5670 gemacht zu haben mit cs:go, damit es nur auf den gernen 3-6 ausgeführt wird für mehr fps, bevor es mit mehr kernen klar kam. Wäre doch sehr interessant für den 7950x3d. Oder auch für intel CPUs um das spiel auf den P cores und obs auf den E cores laufen zu lassen z.B.
process lasso
Mein 14900k schafft Ram mit 6600 nicht und ich muss auf 6000 runter gehen damit das XMP profil ohne Blue-screens läuft... kann man da was machen? sind halt 4x Dominator 6600 cl32 aber bin schon enttäuscht dass das nicht läuft...
Bin jetzt nicht der absolute Experte, aber sollte dual Chanel nicht stabiler laufen?
Da kann man nichts machen. Viele haben diese Probleme. Eine Freundin hat ihren 12700K auch nur mit DDR5 5200 stabil bekommen, sehr ärgerlich da sie fast 100€ mehr für DDR5 6400 ausgegeben hatte.
DDR5 hat Stabilitätsprobleme bei hohen Taktraten und vier RAM Riegeln.
Ich hab ein Dual Kit von Corsair mit 64GB und 6600 MHz und die laufen zusammen mit dem i9-13900K problemlos mit ihrem XMP-Profil. Vier hochgetaktete Riegel stellen allerdings meist immer ein Problem dar. Bei vier Sticks gibt's keine Garantie, dass sie über 6000 MHz stabil laufen werden...
Ja, ok… sehr schade… aber vielen Dank an alle für ihre Erfahrungen!
Ich habe die 14900k und ROG Maximus Z790 Formula aber irgendwie komme ich nur auf 33000 bei CB R23, mache doch bitte mal ein OC Video, irgenwas habe ich vergessen einzustellen weil bei 5,5 Ghz und 4,4 Ghz kommt der nur auf 5,2 und 4,2 max obwohl Wakü vorhanden ist. Ich bin da etwas ratlos, danke ( RAM 6200 MHz von Corsair)
Also ich komme mit meinem i9 13900K ohne OC auf circa 39000-40000 Punkte (Asus ROG Strix Z790-A Gaming WiFi D4 mit 128GB DDR4 3200mhz (4x32GB) AiO ist eine Corsair H150i Elite Cappelix
Es gibt einen mMn. großen Faktor, der mir generell in den Gaming Charts dieser Art fehlt. Mich interessiert weniger wie "viele" FPS ein 1% low hat, sondern viel mehr interessiert mich die Frequenz der 1% lows. Wie oft tritt das im Vergleich zwischen den CPUs auf? Sprechen wir hier von einem 1% low bei Intel und 100 1% lows bei AMD pro Minute Stunde oder vielleicht umgekehrt? Das wäre sehr interessant, wenn du dazu beim nächsten mal vielleicht ein paar Zahlen hättest. Aus meiner Sicht sind 10-20 FPS mehr oder weniger deutlich weniger aussagekräftig, als weniger 1% lows insgesamt zu haben.
Das könntest du dir ganz einfach selbst berechnen, wenn du in Mathe aufgepasst hättest.
Aus dem hier gezeigten Chart? Ne, es wird ja weder gezeigt wie lange der Benchmark ging, noch wie oft die FPS gedippt sind. Von daher kannste noch so gut in Mathe sein, das kann man nicht berechnen @@toseltreps1101
@@d8a_gg und ob du das kannst. Das bedingt ja die Mathematik dahinter von sich aus.
Wenn die eine wie du schreibst 100 1% low frames hat, und die andere einen einzigen 1% low frame die Minute hat müsste die erste im schnitt das Hundertfache an FPS haben.
@@d8a_gg Wenn man keine Ahnung hat, einfach mal die...
habe den Wert nicht richtig verstanden. Jetzt hab ichs, danke für die Erklärung@@thoges5040
Hat AMDs neuer Chipsatztreiber von gestern hier etwas verbessert?
This is the one I have in my shopping list since months. Can't wait to upgrade my i7 - 5930K from 2015, had it run at 4.2 for the last 9 years almost non stop ;-) As soon I have some money, I'll get my new dream config, it's going to be an Alien mothership again ;-) I hope in the next 6-9 months ;)
your money, your decision. But why would you do that to yourself? Really puzzling.
@@horsthorstensen1277 What would you go with mate? Always interested to know others opinion on this kind of investment
Ich glaube die Kadsen sind die einzigen hier, die mit 400W Abwärme KEIN Problem haben.
Kadse 👍🏼
Kadse süss
Kadastrofe
Ich finds geil wie sich der Markt gedreht hat - früher war AMD der Stromfresser und Intel hat sich jahrelang auf ihrem Vorsprung ausgeruht und nun hat sich das Blatt gewendet 😊
Kann man einen 14900KS so anpassen (Bios) das er so läuft wie ein 14900K ? (Leistungsaufnahme, Performance)
Ich weiß macht keinen sinn, aber nur theoretisch.
Vielleicht sind sie da ja auch effizienter weil bessere Selektierung.
Reicht ein 300 Watt Luft-Kühler aus, für den i9-14900KS habe vor diese CPU zu köpfen.
Kupfer IHS habe ich schon da.
Oder wäre der i9-14900K die bessere Wahl für mich.
Habe keine Lust mir einen anderen Kühler zu kaufen.
Wäre interessant zu sehen, ob Helldivers mit dem X3D unter Linux besser funktioniert. Evtl. haben die das mit den Cores besser im Griff.
Hi, ich habe ein Asus Maximus Extreme Mainboard.
Das Mainboard unterstützt den i9 14900KS.
Mein CPU-Kühler ist ein Deepcool Assasin iii.
Zusätzlich möchte ich diese CPU köpfen, dann kommt flüssig Metall darauf und eine voll Kupfer IHS, von Rockitcool darauf. Mein Kühler kann bis zu 280 Watt abführen.
Frage schafft es mein CPU-Kühler diese CPU zu kühlen!
Oder ist da eine i9 14900K sinnvoller?
Meine derzeitige CPU ist ein i7 13700K.
Ich zocke mit meinem PC nur.
(Mir geht es nicht um das Geld.
Ich würde extrem viel Verlust machen wenn ich alles verkaufen würde, und auf AMD Ryzen 7950 X3D um satteln würde.)
ist es nicht so das man bei den AMD CPUs die zweite CCD ausschalten kann direkt über das Ryzen Master von AMD? Reboot is wahrscheinlich noch angesagt aber dann sollten doch nur die 3D seite des Chips laufen oder sehe ich das falsch?
Wie schon unter dem anderen Kommentar beantwortet:
"Weil der durchschnittliche Gamer dieses Wissen nicht hat. AMD sollte dafür sorgen, dass es out of the Box funktioniert und das passiert nur wenn man auf die Missstände aufmerksam macht.
@@der8auer das is so ne sache, der durchschnittliche Gamer wird dann aber auch kein XMP laufen haben , kein BAR und so weiter. Das kann man so stehen lassen aber da fängt es eben doch schon ganz wo anders an. Ob ich dann also AMD die schuld zu weißen würde wenn das bei RAM Standard schon so kommt?
Als ich das letzte mal mir ein Board mit CPU und RAM konfigurieren lassen habe von Mindfactory ist das Teil ohne Aktives XMP gekommen. Von daher ist das nicht mal der durschnitt der Gamer die das nicht können.
Und dann kommt ja noch dazu das sowas schon seit Jahren läuft. Das wäre jetzt die 3gen die das so macht?
Ich würde die auto config auch besser finden.
@@der8auerDer durchschnittliche Gamer kauft sich auch keinen 7950X3D. Wie gesagt die Xbox Gamebar aktualisieren und einmalig öffnen, ist jetzt kein Hexenwerk.
@@der8auerKann AMD denn den Windows Scheduler ersetzen bzw. konfigurieren? Mich würde es auch nicht wundern, wenn die besser laufenden Spiele ihre Thread-Affinity selbst setzen.
wäre mal intressant zu wissen was so ein system verbraucht wenn man nur mal ein film auf netflix guckt
@der8auer was für RAM hattest du mit 7600Mhz? Von Corsair oder G-Skill und wieviel Riegel und Größe 64Gb ?
wünsche allen Käufern schweißtreibende Gaming-Sessions 😅
@der8auer kannst du vielleicht mal so ein kleines Throwback Video machen? Zu alten, vergessenen Mainboards wie dem Foxconn Bloodrage zum Beispiel. Wäre doch was oder nicht
Einfach nur krank😂... Der verbraucht ja unter voller Leistung mehr als meine 4090🫣, die durchschnittlich gerade mal etwas mehr als die Hälfte davon verbraucht!
Das ist jenseits von gut und böse☠️
doch 3dmark auf dem 13700k läuft bei win10 mehr auf den Ecores und bei win 11 auch noch viel Auslastung.
zum teil max Takt eores und halber takt bei Pcores
welche Software ist das ingame Overlay mit FPS, GPU & CPU?
how shop now?
Wann kommt Unvernunft 2.0?
Mit welcher Software werden die schönen diagramme erstellt?
Zur cpu, ist ja schön das die so viel Leistung bringt, aber die soll man den brummer kühlen? Vielleicht einen eisblock drauflegen
Der Eisblock wäre zu schnell weg. Wenn ich sehe was sich mein 13700k schon unter auto settings genehmigt und was die wakü leisten muss, wird mir bei diesen 400+ Watt ganz anders.
@@TigerNationDEIch habe hier in einem WaKü-Kreislauf einen 7900X und 3960X, wenn beide volle Leistung bringen müssen dann haben meine 6 X 560er Radiatoren gut zu tun bzw. eher die Lüfter, die dann nicht mehr bei 20% rumdümpeln, wie im Normalbetrieb mit nur einem Rechner. Mir tut nur die zum Test verwendete 360er AIO leid.
Kühlbar ist das Ganze schon, aber die im Test verwendete 360er AIO ist dafür wohl eher nicht geeignet. Mit einer Custom-WaKü die ausreichend dimensioniert ist von der Kühlfläche (zb. ein Mora) bekommt man die Abwärme ziemlich einfach in den Griff.
Gerade für die Anwendungsleistung schade, dass der "normale" 7950x dann nicht dabei ist bei Cinebench.
Beim Gaming ist das echt mies, was die abliefern. Gleiche Leistung bei mehr als 3x soviel Verbrauch wie AMD... Wäre interessant wieviel Vorsprung AMD hätte, wenn man deren CPUs mit 260 Watt betreibt
Tolles Video. Ich finds schon cool, wie viel Leistung solche CPU´s haben könne, wenn auch bei bis zu um die 400 Watt Leistungsaufnahmen. Einen kleinen Fehler habe ich in deinem Video gefunden. Der erste Chart im Abschnitt Cinebench R23 & Leistungsaufnahme, da steht unten am Chart FPS, aber da soll bestimmt R23 Multi stehen oder? Passiert, ist auch nicht so schlimm.
🙂
Die hohen Temps bei den Ryzen ist doch so gewollt, ist Teil der Boost-Vorgaben. Der fährt die CPU immer in diesen rel. hohen Temp-Bereich.
Haben viele noch nicht begriffen.
Das ist schon krass wo das alles hingegangen ist und ich zocke noch immer auf einem i7 4790k. Aber es läuft perfekt mit Wakü.
War auch eine richtig gute CPU, die sich unter Wasser echt gut übertakten lässt.
Ich hab auch noch eine 980 ti wassergekühlt, einfach weil das übertakten damals noch ordentlich Extraleistung gab. 👍
Is das die Katze von Blofeld? ❤
Würde mich interessieren, ob ein X3D-Model sogar weniger Strom ziehen würde, als mein aktueller 5700X. Na ja, für 145€ habe ich da bestimmt trotzdem nix falsch gemacht. Ich denke, für eine reine Gaming-Kiste sollte man aktuell maximal auf 24 Threads setzen. Alles andere wäre overkill und wohl eher kontraproduktiv, wie im Video zu sehen, zumindest bei Intel, derzeit. Ich habe mit meinem Ryzen 5700X und einer RTX 2070 Super jedenfalls null Probleme. Na ja, ich zocke halt nur in 1080p.
Warum verkauft Intel eigentlich keine geköpfte Version ab werk?
Sollte doch eigentlich sogar weniger Aufwand bedeuten, weil die Produktionsschritte mit dem HS weggelassen werden können.
Weil vermutlich eigentlich die KS deutlich über die K performen sollten vermute ich. Oder sie liefen nicht stabil genug und man musste die Vcore so drastisch erhöhen und die hohe Leistungsaufnahme war nich geplant. Aber alles nur Spekulation.
Schöner Elektronen Beschleuniger 🤣👍
Brechstange und sein Freund^^
Hi Roman, wäre es möglich, mal ein Video über die Herstellung der Conductonaut zu machen? Fände ich super spannend!
Vielleicht eine dumme frage.. bin da auch nicht ganz so krass drin aber:
Warum gibt es überhaupt diese P1 und P2 Limits? Warum macht das Intel nicht gleich in Ihrem Chip? o.O Denn die Mainboard Hersteller, die machen das nicht xD und nicht jeder stellt diese Werte in seinem BIOS ein.. und wundert sich warum die Temps und bla so krass hoch sind.
Find ich irgendwie nicht smart gelöst, ehrlich gesagt.
Aber vielleicht gibt es dafür jah einen Grund den ich nicht weiß, bitte klärt mich auf, wenn es diesen fall gibt. o: Benutze seit ka wievielen Jahren AMD CPU's
Ich finde gut, dass es dem Mainboard überlassen ist. So hat jeder die Möglichkeit einzustellen was er möchte
@@der8auer Jah aber als Deafult, könnten doch die Intel P1 und P2 werte drin stehen /: Da die Mehrheit nichts im BIOS umstellt, außer XMP und SAM vielleicht o: und andere Leute die andere Werte haben wollen, können das dann jah auch noch machen o:
ich finde es in Ordnung dass es dem Mainboard überlassen ist, aber ich finds einfach nur dämlich dass Mainboard Hersteller standardmäßig das PL auf unendlich setzten. WARUM? Das führt einfach nur dazu dass Leute sich fragen wieso ihr CPU auf 99ºC läuft. Wer eine Wasserkühlung hat kann das ja gerne selbst einstellen aber für 99% der Leute einfach nur unnötig und führt dazu dass der PC klingt wie eine Flugzeug Turbine, wenn er genauso gut leise sein könnte.
P1 definiert die langfristige Leistungsaufnahme, während P2 eine höhere Leistungsaufnahme für kurze Zeiträume erlaubt. So kann die CPU bei Bedarf höhere Taktraten erreichen, ohne die thermische Belastung zu stark zu erhöhen.
Die Festlegung der P-Limits im Chip würde die Entwicklung und Herstellung komplexer machen.
@@feschber Jah das jah mein reden :D Versteh ich auch nicht
Hey Roman, es gab ja mal von dir bei Caseking geköpft Intel Prozessoren, waren die mit Garantie verlust verkauft worden ???
PS: Was Ich feiern würde, ist wenn Du über Thermal Grizzly geköpft CPU's mit Garantie einzeln verkaufen darfst, also als "8auer" Version
Hat er Sheek neu eingefärbt? 🐱🐈🐈
Er hat doch 2 Katzen :)
@@Luca_ huch gar nicht gewusst haha ;D
Mich würde noch Interresieren welchen Kühler Intel empfehlen würde bei 400w Leistungsaufnahme. Braucht man da ein Temperiergerät aus dem Druckgussbereich? 😂 Auch das mit der Garantie ist mega gut gelöst und hoffe das Intel das in Zukunft weiter verfolgt oder das wenigstens Firmen wie Casking direkt geköpfte CPUs von Intel bekommen.
Hab einen i7-14700k und den auf 125W begrenzt, unter dem Noctua U12A bleiben die Temperaturen im gelbem Bereich.
Hatte mit meinem 14900k schon das Problem gehabt, dass das Spiel Dota 2 immer zwischen die E und P Cores geschoben wurde. Aber mit der kostenlosen Version von Process Lasso lies es sich sehr schnell beheben. Und ich glaub seit dem letzten Windows Update würde es jetzt auch wieder ohne PL funktionieren.
Ich würde die Amd CPU immer bevorzugen. Dieses Intel Strommonster ist mir zu wieder....Danke fürs Video :D
Ich hab früher noch einen 21 Zoll CRT gebraucht, um mein Zimmer zu heizen. Mit aktuellen CPUs und GPUs geht's auch ohne.
@@noir-13 2002 war der riesig. Und mit gut 20 Kilo fast doppelt so schwer wie der Tower
@@noir-13
Im Jahr 2000 hat ein guter 19 Zoll Röhrenmonitor etwa 1000 Mark gekostet (entspricht inflationsbereinigt heute etwas über 800 EUR). 19 Zoll war damit so der größte Monitor, den man sich noch halbwegs leisten konnte. Den hat man dann aber auch einige Jahre verwendet.
Wesentlich gängiger waren damals allerdings die günstigeren 17 Zoll Monitore. So mancher hatte auch noch einen älteren 15 Zoll Monitor.
Ich weiß noch genau wie ich damals den 19 Zoll Monitor unserer Familie (die meisten Familien hatten 1 PC für alle) zur LAN Party geschleppt hab. Das Ding war für mich als 15-jährigen dermaßen sauschwer. 19 Zöller wogen um die 20 kg, manche etwas weniger, manche sogar etwas mehr.
Ich glaube die 21 Zoll gingen sogar bis über 25 kg, aber einen 21 Zöller hatte damals keiner von uns.
Schön die Pizza auf der LAN Party mit warm gehalten, das waren noch Zeiten 🤣
@@a564-c3q 1400 Mark müsste mein 21er damals gekostet haben, wenn ich mich recht erinnere. Und 25 Kilo hört sich realistisch an. Der Nachteil war, dass auf einem normalen Biergartentisch nicht genug Platz für den großen Monitor und die Tastatur war, so dass die dann auf dem Schoß liegen musste. Aber ich konnte den Kuchen aus der Tiefkühltruhe damit super auftauen 😁
@@a564-c3q Ja,die 21 Zöller waren wahnsinnig schwer. ich hatte auch 17 Zoll und empfand das als groß^^
Also ist schon geil was mit dem Teil geht. Aber wenn wir mit der Hardware so weiter machen, brauchen wir bald einen neuen Schuko-Stecker Standard und eigene Sicherungen für die Steckdose über die der PC läuft. xD
Schaffen wir die 10ghz?
Das kommt schon noch dieses Jahrzehnt aber nur mit flüssig Helium
ach 16000kssss und 1200 watt und dann sehen wir die 20ghz
Was für eine schöne Katze.
Da ich fast nur zocke bin ich total zufrieden mit dem 7800x3d und das bei einer absurd niedrigen Leistungsaufnahme und man muss sich im Sommer keine sorgen um die Kühlung machen. Die Leistungsaufnahme des 14900ks erinnert mich an mein 8700k Overclocking 5.2 Ghz bei enormen Stormverbrauch und in der Praxis wie hier in den Tests nicht spürbarer FPS Zuwachs. Wie immer Super Video weiter so
1080p siegt intel bei gaming.... und ein richtiger gamer der online zockt geht nie über 1080p lol...
@@Buffy1919 😂 Wer einmal 4K gezockt hat will nie wieder zurück 😂
@@bahr377 4k competitive games na klar xD
@@Buffy1919 Also mit der 4090 laufen alle competitive Games zwischen 200 und 500 fps sehe da kein Grund warum nicht. Bin sehr zufrieden
Erinnert an Pentium 4 vs Athlon 64 Zeiten, wo ein 1,8ghz Athlon 64 es mit einem 3000mhz Intel Pentium 4 aufnehmen konnte in Spielen.
Intel muss dringend etwas hinsichtlich des Stromverbrauchs tun... Wo soll denn das hinführen?
Auch die Temperaturen sind bei beiden Herstellern Wahnsinn. Man muss einen i7 jetzt schon mindestens mit einer 240er-AiO oder mit vielleicht noch mit einem fetten Dual Tower-Luftkühler à la NH-D15 kühlen, um die Temperaturen bei Volllast konstant unter 100°C zu halten. Die Hitzeentwicklung bei den AMD-CPUs verstehe ich allerdings nicht. Weit unter 150W Leistungsaufnahme und trotzdem 90°C. Wie ist das möglich?
Weil das Cache-Die auf dem Chip mit den CPU-Kernen liegt. Das heißt, die Abwärme der CPU-Kerne muss durch das Die des Caches zum Heat-Spreader.
Von Intel kommt wohl nichts mehr😂 wie beim Bulldozer mit der Brechstange 😂
10nm ist einfach so durch
Außer Kontrolle 😂 Intel komplett mit der Brute Force Attacke
@@MKR3238hm eine Fertigung auslutschen, die eigentlich schon ewig alt ist, weil der Nachfolger einfach noch nicht bereit ist
14nm++++++++ lassen grüßen
Auch als AMD Fanboy muss ich sagen der Intel bringt zumindestens Leistung wenn auch bei mangelhafter Eiffizienz. Der Bulldozer war schlicht nicht konkurenzfähig. Jedoch hatte selbst die Brechstangen 5ghz Bulldozer Version eine Mehrleistung gegenüber dem Vorgänger.
@@manut9824 das stimmt
Also AMD zum zocken und Intel zum arbeiten?
Intel nur zum Heizen.
@@nipa5961 haha oder das
Warum schafft es Intel nicht wie Amd in 5 nm zu fertigen? Das wäre wesentlich energiesparender als die aktuellen 10 nm
R-Batch lässt grüßen. Mich würde die VID - Tabelle mal interessieren
Bezüglich ausgelesener Temperatur, die bei AMD anscheinend höher liegt als bei Intel, aber Intel wesentlich mehr Leistung aufnimmt, was widersprüchlich ist:
Es macht einen gigantischen Unterschied aus, _wo_ die Temperatur abgelesen wird. In uralten CPUs wurde die Temperatur am A**** der Welt ausgelesen, und die wurden dann "nur" 60°C oder so ähnlich warm. Heutzutage sind die Temperaturfühler verdammt na am "Ort des Geschehens" dran, d.h. man liest die lokaeln Temperaturen aus und nicht irgendwelche gemittelten, wenn die Wärme schon teilweise abfließen konnte.
Daher ist die Temperatur als Proxi der Effiziens oder Qualität o.ä. immer mit Vorsicht zu genießen. Idealerweise will man die Temperatur so nah wie nur möglich an dem Ort auslesen, wo zu hohe Temperaturen ein Versagen anrichten würden, d.h. man ist eigentlich froh, wenn der Temperaturfühler richtige, aber "zu hohe" Werte anzeigt, denn dann ist die gemessene Temperatur näher an der realen Temperatur der "Problemzone". Das ist die einzige Unbekannte. Ansonsten wissen alle doch was physikalisch abläuft, wenn eine CPU 250W verbraucht: die Leistung muss folgerichtig 1:1 als Wärme direkt abgeführt werden, d.h. meine Kühllösung muss 250W permanent abführen, egal was irgendwelche Temperatursensoren sagen.
Was ist mit Star Citizen😎? Mein r9 5900x hat bei 60-90% Auslastung ganz schön zu kämpfen
That black t-shirt is going to show so many white cat hairs...
ich finde das lustige bei amd und den 7950x (non x3d) wenn man ein eigenes package temp limit und watt limit setzt...kann man den super noch mit nem noctua nh-d15 betreiben
Hab einfach den Mittelwert zwischen Eco Mode 105 Watt (was ungefähr die Werte dem 5950x entspricht) und es mit Stock Werten einen mittelwert gesetzt für PB2
und was soll ich sagen...es ist einfach heftig...klar er kommt nicht an einen intel i9 14900ks heran (DDR5 KIT läuft nur mit JEDEC Conig...Inkompatibler RAM Fail meiner Seite aus) aber ist noch gut kühlbar dadurch
wäre das ne apple cpu würde die "13900k pro max ultra supidupi" heißen
Das ganze system hätte dann aber vermutlich nur nen Stromverbrauch von 200 Watt 😅
@@LarsBa4und es gäbe kaum software dafür und 0 Spiele. Als der m1 vorgestellt wurde, wurde gezeigt wie metal gear solid drauf läuft .naja, metal gear solid startet unter macos nicht, lol
Für Gaming bräuchte ich den 14900 auch nicht ansatzweise. Das tu ich eh schon kaum noch, und wenn dann auf dem SteamDeck.
Produktivität wäre da eher der Grund und da ist einfach MacOS mit dem M2 Ultra oder M3 Max in meinen Augen deutlich weiter vorne. Sofern die Anwendungen nativ auf dem Gerät laufen.
Den Vorteil den der Intel hat: Kerne, viele Kerne. Eigentlich das was ich für Anwendungen wie PixInsight benötige, nur bei der Leistungsaufnahme.. nein danke 😅