für alle, die es nicht selbst recherchieren wollen: In China darf man keine Produkte vertreiben, die Taiwan erwähnen, deshalb die Änderung zum China-Branding
@@DanielMarquas Erzähl keinen Quatsch. Warum sollte Taiwan China sein? Wäre so als wenn ich sagen würde Österreich ist Deutschland. Ist es nicht. Hong Kong und Macau sind China, ja. Diese Ländereien wurden von China an Portugal und Britain verpachtet und sind nun wieder im Besitz Chinas.
@@Wavex3illu Weil Taiwan von keinem Land als eigenständiges Land anerkannt wird!!! Ich muss mich nicht hinter einem Alias verstecken sagt sehr viel über die Person aus.
Bei manchen Software-Produkten zahlt man pro CPU-Kern tausende Euro an Lizenzkosten, für einen lowend dedicated server kann ein vierkerner also unter Umständen noch Sinn machen
Die guten alten Vierkerner, es gibt noch eine andere interessante CPU die öfters im Forum auftaucht: Es ist der Intel 5775c mit EDRAM L4 Cache. Mit Köpfen, OC und deaktivierter IGPU geht der L4 Cache im Gaming richtig ab und zieht sogar einem 7700K und Ryzen 3600x vorbei. Das war die erste CPU die wortwörtlich über einen 3D Cache verfügt.
Cool das das mal wer erwähnt. Es gab damals schon paar Games die gut auf den Cache reagierten aber im Vergleich zum 4790k und 6700k war sie komplizierter zu ocen bei meist ähnlichen Ergebnissen aber für 50-100$ mehr lohnt sich nie, nur jetzt Retro for fun.
ist technisch überhaupt nicht vergleichbar mit 3D Cache, ist ein seperater Cache Chip auf dem Substrate und demnach deutlich schlechtere Latenzen als zum 3D Cache bei den AMD Chips. Trotzdem sehr coole Chips, leider sehr selten.
@@Ground15 Naja L4 Cache und xl L3 Cache sind schon 2 ähnliche Konzepte, es kommt ja hinzu das es im Verhältnis zum nächst schlechteren, also ddr3 Ram im Vergleich zum ddr5 Ram steht. War damals underrated, aber auch zu teuer
Der AMD EPYC 4124P ist eine von 2 4-Kern CPUs für den Sockel AM5. Die andere wäre der AMD Ryzen 3 8300G. Ein Vergleich mit dem Intel Core i3-14100 wäre interessant.
Es gibt die Epyc 4004 Series wo die CPU auch dazugehört, da gibts es noch nen 6,8,12,16 kerner und die nutzen die AM5 Plattform und den 12 und 16 Kerner gibts sogar mit 3d V Cache Zu mindestens laut AMD Website
Ergänzung: Die wurde am 21.05 Vorgestellt von AMD das sind Low Cost Server CPUs, die die AM5 Plattform nutzen, Lizensierung von Server Software wird im B2B Bereich über die Cores Berechnet Amd Epyc 4124P (4c/8t) Amd Epyc 4244P (6c/12t) Amd Epyc 4344P (8c/16t) Amd Epyc 4364P (8c/16t) Amd Epyc 4464P (12c/24t) Amd Epyc 4564P (16c/32t) Mit 3d V Cache Amd Epyc 4484PX (12c/24t) Amd Epyc 4584PX (16c/32t)
@@shadowwhite9324 oder man deaktiviert einfach die Kerne eines 7600, zum Beispiel. Zumindest ist in Ryzen Master die Option vorhanden, jeden Kern zu deaktivieren.
Lieber der8Bauer, schaff dir unbedingt ein Rasterelektronenmikroskop (REM) an, damit du nicht mehr auf externe Firmen angewiesen bist! Stell dir vor, du kannst die kleinsten Strukturen von CPUs direkt selbst analysieren, ohne monatelang auf Ergebnisse zu warten. Mit einem Focused Ion Beam (FIB) könntest du alte CPUs sogar bearbeiten und die Details sofort in deinen Videos zeigen - das wäre ein absoluter Gamechanger für deinen Kanal! Stell das Gerät in deinem Studio auf, dekorier es mit alten PC-Teilen, damit es perfekt zu deinem Setup passt. So hast du es immer griffbereit und kannst in jedem Video beeindruckende Einblicke in die Welt der CPU-Technik geben. Und hey, kontaktiere doch die Firmen, die solche Geräte anbieten - vielleicht bekommst du sogar eine Kooperation und sie stellen dir das Gerät kostenlos für deine Videos zur Verfügung. Das würde deinen Kanal auf ein völlig neues Level bringen!
Also wenn ich für einen Kunden eine Workstation mit ordentlichem ECC support bräuchte, würde ich SOFORT ne AM5 Version mit 6 oder 8 Kernen kaufen. Ryzen hat ja leider keinen wirklich guten ECC Supoport (selbst der vorhandene Support ist kein vollständiges ECC) und Datenbank sind für ECC sehr dankbar. Frage mich sowieso warum so "echte PC Workstations"(wie früher die von IBM usw.) seit ewigen Zeiten nicht mehr produziert werden. Die waren teuer, aber zuverlässig und unzerstörbar.
ganz einfach: Epyc und Threadripper wurden zusammengelegt um mehr Kerne für weniger Geld verkaufen zu können. Allerdings weiß ich nicht was du unter einer echten PC Workstation verstehst. Epyc ist schon sehr stabil-niedrige Taktraten, lächerliche spannungen und extrem geringer Strombedarf. Leider sind die Temperaturen aufgrund der Fertigungsgröße doch recht hoch, das wäre aber bei IBM im 4nm verfahren dann auch nix anderes mehr.
Wisst ihr noch, als 2-Kern CPUs (Celeron etc.) raus kamen und man das als absolut schnell angesehen hat? Heute sind einfach 4-Kern CPUs schon obsolet..
meine letzten handys hatten einen 8kerner xD als ich den r7 2700x gekauft habe, dachte ich der wäre schnell, dann der 5800x3d, mit OC dauerhaft 145w bei 90° aber so echt ne geile cpu, jetzt der 7800x3d der nie unter 30w braucht ber ich sehe ihn auch nie über 50 beim zocken. die gpu saugt 300-350w i.d.R. auch der leistungsunterschied von ner 750ti, 1060 zu 3060 is übel und jetzt die 7900xtx finde es aber erstaunlicher, dass wir nicht nur schaffen alles so schnell schnelelr zu kriegen, sondern, dass wir es auch brauchen.
wobei es halt auch etwas gedauert hat^^ mein erster Lappi hatte Dualcore, das war 2006, 2008 hatte ich den q6600 und und 2012 hatte ich auch noch ein i7 mit 4 Kernen 2,4 Ghz.. läuft immer noch^^ aber traurig das jedes mittelklasse Handy mehr Kerne, mehr Takt und mehr RAM haben als die PCs vor 10 Jahren^^
Wie meinst du "Heute sind 4 Kern CPUs einfach schon obsolet"? Die gibts schon seit 2006/2007. In Menschen Jahren gerechnet sind die CPUs schon gefühlte 80 Jahre 😂
@@johannesdatblue4164 Tja, ob man das wirklich braucht ist eine andere Frage. Durch diese enorme Leistungssteigerung kann man auch schlampige Programmierarbeit einfach weg pfuschen und wer weiß, wie viel besser Spiele laufen könnten, wenn sie richtig optimiert und programmiert wären.
Ich wusste nicht einmal, dass AMD noch 4-Kern CPUs für den Desktop Sockel rausbringt. OC schaut interessant aus, für die " Intel-typischen 6GHz" fehlt aber noch etwas 😆 Wie würde es sich verhalten wenn man einen kleinen Akkuschrauber beim Köpfen verwendet anstelle mit dem Schraubendreher zu hantieren? Weniger Aufwand und schneller oder würde man etwas potenziell beschädigen können?
Ja Epyc zum zocken lol, und dazu noch der kleinste .) Wie wärs ma mit nem Vergleich von Blender oder Photoshop gegen nen anderes 4kern-Brötchen ^^ Aber ja, OC sitzt drin gut zu wissen, wenn man köpft und Wakü macht.
hey roman, mich würde interesieren was mit stickstoff OC bei der cpu bringen könnte ob man mit der cpu die 7000-8000 mhz knacken kann, wäre cool das mal zu sehen.
Hängt die schlechte Effizienz vielleicht damit zusammen, dass das ein schlechtes Sample ist, also eine CPU, die eigentlich mal ein 8 oder 6-Kerner werden sollte, wo aber einige gerne so schlecht waren, dass sie abgeschaltet werden mussten? Das gibts ja häufiger, so kam ja auch der 5600X3D zustande.
Macht ja kein Unterschied da er sie nicht tdp locked bencht. Er hebt ja im vid Spannung an und der prozzi verbraucht dann über 100, statt 84, wie eine 65watt cpu default nun mal zieht, mein 5700x läuft da ohne Settings genauso
Ich kann mir vorstellen das es CPU sind die eigendlich 6 Kerne oder mehr haben aber wo einige kerne abgeschaltet wurden weil sie nicht So funktionieren wie es soll,gab es ja früher schonmal bei der AMD Athlon serie wo es eine CPU gab wo mann mit einem Progamm die Kerne b.z.w. damals 1 Kern wieder aktivieren konnte.Würde mich mal interessieren ob es für diese CPU auch ein Programm gibt um zu sehen ob die CPU mehr als 4 kerne hatt und ob mann die aktivieren kann.
Da wäre generell mal interessant, wie sich die großen Epycs für AM5 im Vergleich zu den normalen Zen4-Prozessoren schlagen. Die haben immerhin auch massig L3-Cache. Wären die im Vergleich etwa gar on par mit den X3D-CPUs?
Ich Finde es gut wenn man Resteverwertung macht egal Ob CPU, GPU, RAM SSD, HDD und so weiter, würde die CPU hier mit einer kleinen GPU ( Formfaktor ) in einem Kleinem System sehen für Büro und oder Multimedia PC sehen.
@@JohannesR-d1r Der Witz an der Sache ist ja, das Google wohl die ausgefeiltesten Algorithmen hat um jeden Furz im Netz zu finden und Zusammenhänge herzustellen und viel Geld und Arbeit in die KI-Forschung steckt, aber es nicht schafft die Bots zu blocken.
Mein damaliger Ryzen 1200 (4/4) ließ sich auch recht gut übertakten und dabei noch undervolten. Der Ryzen 1200 lief im Zweit-PC, für Netflix, Prime Video usw. Heute schmückt der Prozessor nur noch meine Vitrine mit anderen, alten CPUs aus der Vergangenheit.
Direkt bei ThermalGrizzly. Er verdeutlicht damit auch das seine Eigenentwicklungen ideal für Overclocking geeignet sind. Noch besser kann man seine Produkte nicht präsentieren.
Hallo Roman, bitte entschuldige, dass ich hier schreibe. Ich hoffe du kannst mir die Frage beantworten. Was ist stabiler beim Ram OC, bei extremem Werten. Ein AM5 Setup mit 7800X3D oder ein LGA 1700 Setup mit einer 14900K? Bei den Corsair Dominator Titanium? Wenn man von annähernd gleichen Voraussetzungen beim Board ausgeht. Also max. Ram Takt etc...? Es würde mich sehr sehr freuen, wenn du mir das beantworten könntest. Ausflippen würde ich, wenn du dazu sogar ein Video machst. Ein paar Freunde von mir sind auch in der OC Szene wie ich. Ich bin da eher der neutrale, aber wir haben das blaue Lager das behauptet, dass Intel dafür die bessere Wahl ist und das rote Lager, dass behauptet, das AMD die bessere Wahl sei. Leider haben wir alle keine vergleichbaren Systeme um festzustellen, wer Recht hat. Würde mich sehr sehr freuen, wenn du dich der Frage annehmen würdest! 🙂
für so eine art mini-workstation in preiswert kann die cpu genutzt werden . teste doch mal workloads von programmen wie blender oder sowas . für so einen nas-server könnte man das teil auch verwenden . streamer könnten die cpu auch in einen preiswerten stream-pc bauen , für streams ohne zocken . gibt also schon die eine oder andere anwendung für der gerät 🙂 .
Blender Benchmarks hat Gamers Nexus bei CPU Reviews immer dabei. Aber für eine "mini-Workstation" macht so ein Teil gar keinen Sinn, Blender nutzt alles an CPU, was da ist. Wenn Hitze ein Problem wäre, kann man einen normalen Ryzen immer noch undervolten oder in den Eco-Modus setzen.
Hat diese CPU Funktionen die Epic vorbehalten sind? Könnte auch was mit dem Vertrieb zu tun haben, wenn Epic anders vertrieben wird als Ryzen oder TR. Wenn Kunden sagen, sie wollen Epic haben aber nicht auf SP5 Basis.
in der heutigen welt ist es wahrscheinlich wirklich einfacher den trotteln zu geben was sie wollen, statt sie über ihre Dummheit aufzuklären. LEIDER ist zu befürchten, dass sone Mühle dann aber auch im Mediamarkt landet und entsprechend als Epyc verkauft wird...
Existiert um mit Intel gleichzuziehen. Besonders gut sind die 4-Kerner AM5 Epycs bei kleinen Storage Servern, da diese keine großen Anforderungen an die CPU stellen, aber halt trotzdem eine CPU benötigt wird für Netzwerk und Paritätskalkulationen. EPYC will man, weil die von AMD für Dauerbetrieb validiert sind, und damit eine entsprechende Herstellergarantie aufweisen. Klar, physikalisch ist das eine 7600X mit 2 defekten (deaktivierten) Kernen, aber man bekommt halt die Garantie von AMD, dass die für den Einsatzzweck geeignet sind.
Ist die Garantie so ein großes Ding in dem Sektor? Ich hatte jetzt 6 Jahre einen 200GE in einem Mediaserver im Dauerbetrieb laufen, die hälfte des Tages unter Volllast (BOINC). Gleicher Anwendungszweck mit einem Athlon 5350, der läuft jetzt seit 10 Jahren, die hälfte der Zeit ebenfalls den halben Tag unter Volllast mit BOINC. Vielleicht hatte ich nur Glück, aber kann mir eigentlich nicht vorstellen, dass diese CPUs sonst schnell sterben würden.
@@Coolgamer400 Sie sterben sonst auch nicht schnell, sind ja die identischen CPUs. Aber wenn ich ein Unternehmen bin und darauf produktiv Services laufen habe in denen ich 99.9999% uptime erwarte, dann will ich dafür Produkte die 1) validiert sind und 2) bei denen ich versichert bin gegen Ausfälle. Wenn ich ne Geschäftsausfallversicherung habe, dann wollen die sehen, dass ich auch angemessene Bauteile verwende bevor die mir ihre Police auszahlen
@@insu_na Wenn du tatsächlich 99.9999% uptime erwartest (six nines - was 31 Sekunden downtime im Jahr entsprechen würde), dann hat dein Host, an den du diesen Anspruch stellst, redundante Hardware. Wenn du überhaupt solch einen Host findest.. Und billig wird das dann auch nicht. zB etliche Gameserver laufen mit Desktop CPUs (bei Level1 gabs ein Video über intels Debakel, und Analysen dazu über Ausfälle bei Gameservern, und der Vergleich mit AMD CPUs - das waren alles Desktop CPUs)
@@bernds6587 Und was willst du mir damit jetzt sagen? Natürlich habe ich alle Server in meinem Lab geclustert, sodass bei einem Ausfall direkt die VMs auf einem anderen Server loslaufen, aber auch da erwarte ich vom Hersteller halt Zuverlässigkeitsgarantien
Ist schon interessant wie sich das Weltbild geändert hat. Wenn man bedenkt das vor Ryzen diese CPU Standard waren und man vielleicht immer noch damit zu tun hätte wenn AMD nicht gewesen wäre. Vielleicht hätte Intel ohne AMD als Innovation auf 6 Kerne aufgerüstet und da wären wir dann bis heute hängengeblieben. Ich weiß zwar das Forschung und Entwicklung der größte Teil des Kuchens bei den Ausgaben ist aber ich glaube das Intel nur so Fett geworden ist wegen dem zurück halten des Fortschritts. Lieber wurde jedes Quäntchen Leistung aus Vorhandenem heraus gepresst anstatt einen Schritt weiter zu gehen. Man könnte auch sagen sich auf den Lorbeeren und dem Technischen Vorsprung ausgeruht.
AMD hatte schon "6 und 8 Kerner" mit den FX Prozessoren. Echte Kerne waren die Module nicht, aber auch mehr als nur ein einzelne Kerne, weil jedes Modul 2 Integereinheiten mit eigenem L1 Cache hatte, aber halt auch nur 1 Gleitkommaeinheit Also eher so 4x 1,5 Kerne mit 8 Threads oder 6x 1,5 Kerne mit 6 Threads. Für Integeranwendungen waren das 6 bzw 8 Kerner, für Gleitkomma dann halt nur 3 oder 4.
die waren kein standart. vor ryzen hatte man kaum vorteil bei gaming mit nem i7, da hatten fast Alle normalen Zocker nen i5 4 kerner ohne hyperthreading
@@helloweener2007 amd hatte mit den phenoms echte 6 kerner und die haben auch extrem lange verdammt gut performt, aber die spiele wurden leider über die kommenden 12 Jahre nur auf 4 inteltypische kerne optimiert. dieser fx quatsch war schon hart peinlich, wenn man viele Jahre später als es längst gegessen war sich auch noch ein Gerichtsurteil einfängt, dass doppelte Komponenten nicht mehr Kerne zaubern.
@@schortkramer4405 Intel hatte auch CPU mit mehr als 4 Kernen nur waren diese nicht Mainstream und schon gar nicht bezahlbar. Viele kauften sich auch eher einen Intel Xeon da billiger mit gleicher Performance wie ein I7..usw... . Später hat Intel auch das Xeon Schlupfloch gestopft weil sie Geld verloren haben. Die Xeon Prozessoren waren auch besser als die I7..usw... . Denn alles was kein Xeon werden konnte haben sie zu I7 degradiert.
Höchstwahrscheinlich sind hier 4 von 8 Kernen deaktivert worden. Meines wissens Produziert AMD allgemein nur noch 8-Kern Chips und deaktiviert gegebenenfalls 2 der 8 Kerne (bei den 12-Kernern wie dem r9 7900x werden dann auf jedem der 2 verbauten Chips je 2 Kerne deaktiviert, darum hat der 7900x3d ja auch nur 6 Kerne mit 3d cache...). "echte 6-Kerner" gibt es von AMD also auch nicht mehr...
Wäre AMD nicht gewesen hätten wir alle heute noch mit 4 Kernen im Client High End leben müssen! Natürlich ohne HEDT und dessen Preisschild zu betrachten.
Bei der CPU wäre Effizienzoptimierung spannend gewesen. Also Leistung/Watt und wie sie sich als Mini-Homeserver für eine Nextcloud oder ähnliches schlägt.
wie man aus den Tests eigentlich schlussfolgern kann ist die Effizienz genau so oder eher noch schlechter als bei 6 oder 8 Kernern, und das würde eben auch genau so skalieren mit undervolting.
Meist läuft so eine Software in einer virtuellen Maschine, der man Kerne bzw. Threads zuweisen kann. Und wenn solch Software direkt läuft, dann könnte man Hyperthreading deaktivieren, oder einzelne Kerne deaktivieren
@@bernds6587 ..Es geht aber darum was Du an cores Lizenzierung musst, ich kenn’ Unternehmen die sind hin gewatschelt und haben dann eine CPU herausnehmen müssen..vor dem Audit.^^
@@Reflexiony Wenn die Software direkt auf der Hardware läuft.. klar. Ist aber eben nicht immer oder überall der Fall. Es gibt zumindest die Option in Ryzen Master, einzelne Kerne der 7000er und 9000er CPUs zu deaktivieren. Ohne Gewähr - getestet hab ich das nicht
Bulldozer war 4 Module mit 8 integer Kernen, gut solange kein Thread alle rechenwerke eines Moduls nutzt. Suff nur mehr Strom als Intel gen 3&4 bei ähnlicher Multicore Leistung und 60-70% singlecore
Könnte es sein, dass das so eine China-Only-Low-Budget CPU ist, bei der die anderen vier Kerne defekt sind? Nvidia bringt auch teils GPUs mit weniger VRAm und/oder Shader-Einheiten nur für den chinesischen Markt, teils nur für Internet-Cafes, die dann aber trotzdem irgendwie bei Ali Express & Co landen.
Roman mich wundert warum du nicht darauf kommst wofür man (potentiell Starke) CPUs mit wenigen Kernen produziert. Man kann bei den deaktivierten Kernen dennoch den Speicher nutzen
schönes video der ist zustand ist wie immer heute anders als zur 4 kern zeit softwware wurde besser optimirt und etwas anderes genutzt. was heute dann sich für zu kleine kern systeme negative auswirkt weil sie die gestigene mehr leistung immer noch mit weniger verarbeiten müssen. die frage bleibt ist die spiele optimirung der grund für ein schlechtes ergebnis oder setzt man einfach grundlegent einfach mehr als 4 kere voraus und bei kleineren systemen fehlt die optimirung dann. mehr takt heist mehr zücklen mehr möglichkeiten aber wenn man die nicht nutzen kann bringt das OC dann nix wenn man dann lenger warten muss weil stau da ist. und es ja doch berechnet werden muss. mehr ist mehr wenn man es gut nutzen kann. war bei 8 kern und mehr kern CPU füher auch ein problem man kaufte mehr und konnte mehr kaum nutzen nur wenn man die lasten selbst verteilt hat weil windows auch heute grund setzlich immer alles komisch verschibt. kern 0 und 1 sind oft so überbelastt wo auch immer die maus und tastatur usb und co verarbeitet wird. das man sein spiel oder program auf die übrigen verteilen sollte. im besten fall hat man dann wirklich volle kern leistung über bei 4 kernen ist es faglich ob das windows irgend wir gut regelt. tools wie laso und änliches sind ja schon sehr alt. weil die technik mehr kerne zu haben schon lange da ist und es hat sich auch kaum was verbessert. ich frage mich ob man mit KI im windows wenn es mal nutzbar wird dann möglich ist solche optimierungen dann zu machen. usb timings zu verbessern dynamisch zu machen. eine überwachung zu bekommen das das neue usb gerät andere geräte runter zieht bitte updaten oder entfernen oder auf einen anderen slot nutzen der nicht belastet wird. aber so was macht windows nicht. eine temperatur anzeige für CPU kan windows auch nicht. man braucht immer fremde tools oder system verstekte programme um das aus zu lessen. ein echtes peinlichkeits merkmal das man in windows so viel nicht hat und einfach kann. wo ist nur die qualität hin diel man kommen sollte mit windows 10. mit 11 macht man was so bescheuertets. schade das man sich nicht mal mehr auf grund bausteine verlassen kann. ich verstehe auch nicht warum man über 4 jahre braucht um dem system KI zu gänlich zu machen. dann auch noch die sache exklusive machen. keiner will in einem gekauften system werbung abos oder änliches nutzen oder sehen zu müssen. ein system ist meine spiel wisse ich nutze es nicht MS MS stellt nur die bausteine bereit und selbst da fehlt heite einfach viel. wie KI RTX. ich rede nicht von DLSS oder RT. sondern das man mit net fremwork das einfacher in bestehende programme nutzbar mchen kann. so viel ki und nutzbar ist es nicht. instalationen man wartet auf die beknakte CPU warum nicht mit KI. ist die echtzeit berechnung so langsam das echtzeit langsamer ist als CPU ich dachte etwas zu berechnen braucht zeit und energie. wie ÖKO ist windows dann wen man nur CPU ram nutzt. MS und sein flug simulator update muss ja hammer geil sein das man um die pracht zusehen 64GB ram braucht. warum macht man nicht das mit der modernsten technologie wie RTX. mit KI. die ram und shader reduziert oder sogar komplett nicht mehr braucht. wurde so nicht die 4090 vorgeselt mit dem spielzimmer demo. die live native mit 300 FPS DLSSwar aus. er sagte würde man das auch noch aktivieren würde man mit der 4090 so 600 FPS schafefen, aber weil die demo unter 3000 rukelte und einbrüche hate hat man an der performenc gearbeitet. und die KI power um 2/3 erhöht genau der teil der heute fehlt weil kein speil KI macht. ist schon lustig was man kauft und bekommt weil die basis nicht da ist. und jetzt kommt bald 5000 die neue generation man nutzt noch nicht mal RTX und kommt so nicht mal an die grenze von RTX. aber leute kaufen karten wie nix. leider profitiert nur chat gpt von KI. der ganze rest ist nicht da oder nicht nutzbar. NVIDIA hat auch MC RTX eingestelt ich verstehe nicht warum ich hätte gerne was hardwae technisches das sich dynamisch verbessert als was software lastiges wie shader das immer gleich ist und nicht dynamisches ist. gerade in schachten wo armenhen oder models immer gleich sind da kann KI mit dynamisches rendern echte einzigartige truppen erschafen wie es warhemmer sehr umstendlich macht. die mess latte von games workshop ist so hoch das wir nicht mal wissen wie viele spiele es nicht zu uns schaffen. schade das alle nur den weg von UT gehen aber RTX bittet zum ersten mal einen komplett neuen und eigenen weg an der nicht grose daten braucht und viel ram nutzt. und doch gibt man RTX shader rendert shader kompeliert sogar shader vor nur mum in spilen feaks zu bekommen statts simulation. wie es KI macht und kann. ich will mal ein spiel sehen das verglichen wir in größe ram verbrauch und energie verbrauch. wenn man versucht so viel wie möglich von der CPU auf die GPU zu bekommen. ich denke das intel denau aus dem grund versagt hat. weil man zu viel CPU macht stats GPU zu nutzen und mal RTX richtig nutzen um mehr werte zu schafen wie deep lerning und auch selbst handelnde gegner die selbst entscheidungen treffen wenn sie dich sehen verfolgen dich suchen und auch weiter gerendert werden wen du ganz wo anders bist. level größe nicht mehr nur eineige km sondern ganze welten man frei dort rum laufen kann. alles besuchen und man selbst entscheiden kan was wie wo wann ich fort setze. star citzien will das alles bitten in iner welt und noch besser sein als jedes MMO oder RPG. das sind schon im kern veränderungen nötig die seit 15 jahren an daueren und jetzt fängt das leben dort sich an zu regen . die ersten tire und einfachen regeln sind drin. matrix ist nicht mehr fern sondern schon im grunde möglich. das tolle ist das 2 server so gut miteinader sprechen und in echtzeit spieler dinge und auch server übergreifende dinge in echtzeit austauschen können. in welchen spiel ist das möglich und es ist egal wie viele server man am ende hat. schon jetzt hat star citizen x meilensteien übertroffen. das beste ist das es nicht ein börsen konzern ist der sagt jetzt muss das spiel raus sondern das man versucht immer die aktuellste technik möglich zu machen zwar ist da CIG leicht abgewichen und hebt heute etwas zurück aber das was trotzdem schon möglich ist und das was möglich sein wird wenn der singel player da ist man will halt zeigen was man kann und nicht schon das beste vor relase raus hauen. also sind das was dort zu sehen ist nur platzhalter. geil ist das was halt das beste versucht und kalr sagt was nicht geht und was doch geht und auch fehler wie jetzt können wir das doch. 15 jahre entwiklung und offene videos zum spiel zeigen klar die schwächen der andere auf. schade ist nur das sie mehr geld für müll verlangen. weil es schon immer so gemacht wurde wie das man in starfild kein DLSS ermöglichen kan aber eine mod 14 tage später es enfach möglich macht. das sind so sachen die einfach nur dumm sind. oder was bringt mit ein schoss von harry potter wenn ich das nicht mit meinen freunden erkunden kann. singelplayer spiele sind schrott wen das settig es zuläst und man es machen könnte. mods braucht um das zusammen zu spielen wie rimworld oder andere. das wertet das spiel auf und nicht nur zum schlechten sondern zum guten. früher xbox halo war mehr ein sozialies spiel. ein party spiel wir haben das mit 16 leuten im lan gespielt. wir brauchten auch nur das spiel. das war die ware stärke der xbox und heute braucht jeder eine kosole um zusamen zuspielen und internet. man kan sagen das kosolen alle bis auch nintendo es bis heute nicht versanden haben was kunden wollen. playstaion und tekken ist ein singelplayer game. darum hat die PS so viele und vermerht sie immer mehr. die spieler weiche mit bis zu 4 plaern also 8 spieler auf einer konsole. hat dort nicht funktioniert. Der PC hate den durchbruch mit CS was lan und internet gespielt werden konnte und heute noch gespielt ist nur lan partys macht man nicht. der supf der singel player spiele ist falsch. spiele waren und sind schon immer soziale spiele gewäsen selbst schach aleine ist dumm. aber spiele denken das ist das was wir als nutzer wollen. ich wolte mit meinen sohn stardw velly spielen ich auf den steam deck er auf der switch glaubt ihr das geht nein. schade no crssplay und dafür habe ich im nintendo store 15 € bezahlt. man lebt auf den kosten der kunden will aber spiele anbitten und vernetzt sie nicht bescheuerter kann man ein spiel nicht verkaufen warum soll man so noch irgend ein spiel kaufen. der PC versagt weil man kein RTX macht oder KI nutzt. aber CPU ram und VRAM ist wichtig. ja wenn man shader nutzt. eine geile nicht player welt die alle publicher da aufgebaut haben und es einfach nicht verbessern wollen warum GTX konsolen exklusive ist zeigt nur das man versagen will. wir leben heute in einer KI welt nutzt KI. wir brauchen viele KI fals es mal eine KI gibt die nicht gut ist. dann brauchen wir KI die der einen ki die schranken weißen. das braucht zeit und erfarung. aber die zeit wird nicht genutzt. also kein vortschritt. seit RTX da ist stteht KI spiele und windows nur still rum. wie eingefrohren.
@@bernds6587 klar geht das nur filter youtube viel was man schribt und kominationen von wörtern sind verboten. oder man muss es auf teilen. mache ich auch manchmal. ich finde eigene meinung wichtig nicht nur wie man empfindet oder einem zustimmt. sondern eine eigene begründung warum man es teilt oder nicht. oder sind alle herzlose roborter mit schlechten absichten. wie soll man aufkären wenn dinge unklar sind oder nicht im kondex stehen. ich versuche immer alles so genau wie möglich darzustellen. das braucht halt mehr text sagt aber auch mehr aus. und ich bin auch dann klar zu erkennen das ich kein bot bin. mit meinen fehlern im text bin ich so einzigartig das man sogar sagen kann ich bin das einzig wahre wort. eigenlob stinkt aber denau darum geht es eine identiät zu haben. ich für mich kann es sagen das ich sie habe. auch ich mache fehler und fehler machen ist menschlich. man weis oft nicht das man was falsch gemacht hat erst wenn es ersichtlich ist oder man so ferst steckt wie gafik mit RTX. shader ist wie gift für die karten. aber jeder würde das anders sehen. RTX wurde zur rund um verbeserung erfunden und macht es das. nein. man gibt 2000€ für KI aus und nutzt diese in spielen nicht das ist die realität weil shader alles an resucen verbrauchen. wie geil kann also heute noch ein sahder spiel sein. ich abe auch nie gehört das UT KI kann oder bereitstelle und RTX voll zu unter stützen.
In alten MMOs ists halt so das die halt nie wirklich mehrere Kerne effizient Usen was absoluter shit ist sobald mehrere Charaktere geladen werden kackt halt jede CPU ab weil der einzelne kern nichts kann. Daher hab ich mich schon immer gefragt ob sowas genau da Carrien würde. Würd mich voll interessieren ob das "die Erlösung" wäre.
Ich denke nicht, dass es da zwischen einem "normalen" 6 Kerner und diesem 4 Kerner große Unterschiede gibt. Ob es die eventuell 5 - 10% wirklich wert sind, dass man die CPU sonst kaum für andere Spiele nutzen kann? Glaube nicht.
@@taifoon999 du kannst auch einfach eine normale 6er oder 8er CPU mit Ryzen Master zu einer 1-Kern CPU machen. die lässt sich sicherlich dann noch höher übertakten :D
Es ist ein Epic kein Ryzen, auch wenn der IO die der gleiche ist und somit beide ECC unterstützen so wie ein paar andere dinge ist der Prozessor selbst ein anderer und hat ganz andere Befehlssatz Anforderungen als eine Desktop-CPU. Ich meine ja AMD macht das schon seit mehr als 2 Jahrzehnte, das ihre Desktop-CPUs viele Serverfunktionalitäten bieten, die am meisten gebraucht werden im privaten bzw. Kleinunternehmer Umfeld. Und das sie Linux Systeme Fördern bzw. nicht behindern, macht AMD CPUs auch in diesen Bereichen einen großen Anteil aus. Was ich damit sagen will, ist AMD hat den Fokus auf Langlebigkeit und einem weiteren Einsatzspektrum, natürlich hat das seien preis in Form von älteren Techniken bei der Fertigung geringere Leitung. Intel hingegen setzt auf Innovation und Performance in spezifischen Einsatzgebieten. Daher sind Desktop-CPUs deutlich abgespeckt im Vergleich zu Server-CPUs. Aber Treiber und Zugänglichkeit sind so ein Thema in Linux Umfeld, falls man vorhat seine Desktop-CPU in einem Homeserver zu betreiben. Das ist halt der Preis den man bei Intel zahlen muss. Grob kann man sagen, wer immer das neuste und schnellste braucht, geht zu Intel. Aber wer einen PC braucht, der arbeiten soll und das lange, der geht zu AMD. Wie AMD gezeigt hat ist der AM4 noch nicht tot und das wird er die nächsten 5 Jahre auch nicht sein. Intel hingegen braucht ständig einen neuen Sockel, sonst können die sich nicht weiter entwickeln. AMD hingehen der Sockel hat mehr drauf als nötig, er ist einfach da, auch wenn man Kompromisse eingehen muss in zukünftigen CPUs für diesen Sockel spielt es am Ende keine Rolle, denn bei AMD geht es um Langlebigkeit, der Möglichkeit des Upgrades der CPU Funktionalitäten und nicht der Leistung selbst. Aber dennoch gibt es unterscheide zwischen den Ryzen, Ryzen PRO und den Epic. Ryzen sind die High End und Multi Purpose Desktop CPU für Privatanwender und Kleinunternehmen, Die Ryzen PRO sind fürs Unternehmensumfeld gedacht und sind auf Makellosigkeit geprüft und angepasst auf harsche Umgebungen, z.b. große hitze, källte und luftfeuchte. Die Epic sind reine Server-CPUs sie sind speziell auf den Serverbereich ausgelegt, mit ihren Befehlssätzen und sind ebenfalls auf Makellosigkeit geprüft und angepasst auf harsche Umgebungen, z.b. große hitze, källte und luftfeuchte. Darum sind die auch Teurer. Den Epic mit den 4 Kernen ist vermutlich für Datei Server gedacht, also quasi eine NAS. Man braucht keine besonders starke CPU in einem Datei-Server besonders nicht, wenn man smarte Raidcontroller verwendet, die auch Caching beherrschen. Um eine 40Gbit Multiport Verbindung zu handeln würde vermutlich 2 Threads von dieser CPU schon ausreichen.
Gut auf den Punkt gebracht, es gibt ja nen Test zum Epyc 4564P der wurde mit dem 9950x und 7950x verglichen Ergebnis Performen alle 3 auf Gleichen Level Alle 3 sind ja 16 Kern CPUs und ja die 4004 Epyc Serie wurde mehr oder weniger als Shadow Drop für Unternehmen im Mai gelaunched Letzte Woche hat ja AMD die neuen Epyc Prozessoren Präsentiert sowas ist auch immer Spannend zu sehen
@@shadowwhite9324 richtig und man darf auch nicht vergessen es gibt soviele embedded CPUs oder nur für OEM von der die Öffentlichkeit gar nichts mitbekommt, da sie nur für das Unternehmensfeld gedacht sind. Als Beispiel den Intel j4050 den nur asrock fest verlötet auf einem Mainboard anbietet. Laut intel der database ist das als ein high end x86_64 tablet Prozessor oder , für NAS Anwendungen und HT-PCs gedacht. Ist quasi ein alter intel pentium mit einer besseren Grafikeinheit die 2 4k streams gleichzeitig verarbeiten kann. Mit einem Linux lauft der flüssig aber windows kannst du vergessen. win7 vielleicht aber 10 ist zu anspruchsvoll und 11 geht schon mal gar nicht.
Hast du dafür auch Quellen, weil du schreibst "ist der Prozessor selbst ein anderer" Gleicher Sockel, gleiche Performance (bei gleicher Kern-Anzahl), gleiche Features, etc etc. Nur weil EPYC draufsteht (und dein gesagtes für die anderen EPYCs zutrifft) heisst das lange noch nicht, dass auch EPYC in diesem AM5ern "drinsteckt". Anderes Binning ist der Unterschied, mehr aber auch nicht. Wenn du dazu mehr Infos hast, alsse ich mich gerne eines Besseren belehren, dass diese AM5 EPYCs so verschieden sind. Interessanterweise haben alle den Zusatz "P", was bei den "großen" für "single socket" steht. Nun... wo bleiben Boards mit zwei AM5 sockeln, und AM5 EPYCs ohne den "P" Zusatz?
@@bernds6587 hast du einen Plan wie eine CPU funktioniert und was nötig ist um multi socket zu betreiben? Ich glaube nicht, sonst würdest du es verstehen. Der Core beinhaltet den Decoder für die Befehlssätze der IO, die ist nur für die Kommunikation zwischen den Core Chipsets, falls mehr als einer vorhanden ist und die Kommunikation zu dem Mainboard und zu anderen Sockets. Die CPU selbst ist ein Epyc der IO die ist aber von einem Ryzen oder andere CPU die Den AM5 Sockel nutzt, da der AM5 kein Multi socket Support hat kann der IO die das auch nicht Infinity Fabric Interchip Interconnect. Mal abgesehen davon sind dazu 260 zusätzlich Pins vonnöten die der AM5 Sockel nicht hat. Ich mein, du kaufst auch einen Skoda mit viel PS und hast einen Audi Motor dadurch drin. Kann der dann auch alles, was ein Audi kann? Nee, weil du das billig Auto gekauft hast. Weil es Fährt aber möchtest dennoch ab und wann spass damit haben. DAS Gleiche ist mit dem EPYC der Befehlssatz ist der gleiche aber alles drumherum ist eine Standard AM5 CPU. Warum macht man das? ist doch ganz Klar, als Kleinunternehmen braucht man keinen 30.000€ Server und alles, was er am Ende tut ist eine Webseite hosten und ein bisschen daten lager und vielleicht noch einen EMail dienst bereit stellen. Das tut dein Dell Optiplex von 2007 auch ganz gut ohne das es wer mit bekommt aber der kostet nur 800€ und braucht deutlich weniger Strom. Bietet er sichere und effiziente Decoder und Encoder? MIt großer Wahrscheinlichkeit nein, darum ein 4 Kern epyc. Er kann alles, was ein epyc auch kann aber für billige Consumer Hardware, für die man nicht noch seine Seele verkaufen muss, um sie überhabt nutzen zu dürfen. Ich sag da nur DELL EMC und ihre Knebelverträge und dann kommt da noch windows server wo du für jeden core den deine CPU hat eine volle Lizenz kaufen musst die nur ein jahr gültig ist. Und falls du VMs laufen hast, zählt jede VM als eigenständiges System. Kurz um du kannst z.b. auf diesem Vierkerner 8 VM laufen haben und alle haben Zugriff auf alle Kernen bedeutet du darfst für Nutzung von 36 Kerne bezahlen. Plötzlich wird die CPU sinnvoll nicht war? ich arbeite in diesem bereich ich bekomm immer wider die frage gestellt warum der scheiß so teuer ist. Es gibt auch intel cpus die eigentlich Server cpus sind, aber auf einem consumer Sockel sitzen. Da ist es das gleihe nur intel gibt denen dann kryptische namen mit denen keiner was anfangen kann oder weist du aus dem kopf was ein j5040 ist? Es ist ein intel Pentium Silver Gemini mit uhd606 für server/NAS Anwendungen, HTPCs, Highend Media Tablets auf x86_64 basis, und Netbooks. Wo findet man die CPU? auf dem welt markt nur im auf dem ASRock j5040-itx. sonnst nirgends aber im asiatischen Mark fasst überall was mit NAS oder Medien zu tun hat, also anzeige Tafeln z.b. und in günstigen Laptops für die Schule. Weil Cromebooks sind da nicht so der Renner bzw kennt quasi keiner.
@@reinekewf7987 du hast wohl deinen eigenen ersten Kommentar nicht mehr im Kopf gehabt. Du hast dort explizit geschrieben: " Es ist ein Epic kein Ryzen, auch wenn der IO die der gleiche ist und somit beide ECC unterstützen so wie ein paar andere dinge ist der Prozessor selbst ein anderer und hat ganz andere Befehlssatz Anforderungen als eine Desktop-CPU. " Und in diesem Video geht es um einen EPYC der 4004er Reihe, der in einen AM5 Sockel geht. Niemand hat hier von den "großen" EPYCs geschrieben. Nur weil du diese wohl gemeint hast (wird mit deinem halben Buch nun klar) wäre es wohl sinnvoll gewesen, das dazu zu schreiben. Sonst kann man es nicht wissen, was du nun genau meinst. Etwas wie "Die anderen 'großen' EPYCs sind ganz anders aufgebaut und haben andere Anforderungen als die AM5 Ryzen und EPYCs" ... usw Du hast aber nur von Epyc geschrieben, was ALLE einschließt, eben auch diese "kleinen", und insbesondere geht es in dem Video ja wie gesagt um eine CPU im AM5 Sockel. Und ja: mir ist bekannt, dass multi-Socket-CPUs andere Anforderungen haben, und weitaus mehr Lanes benötigen etc etc usw usf.... aber: War aber gar nicht Thema
Kaum das Video hochgeladen und schon ein halbes Dutzend Bot Kommentare 😅. Man sollte meinen ein so riesiger Laden wie Google wäre besser darin diese Accounts zu sperren.
versuch mal die auflösung zu reduzieren (720p oder weniger) und auf niedrigste Grafikeinstellung zu stellen. So verhinderst du ein FPS limit durch die meisten Grafikkarten
die single core leistung ist doch sehr wichtig bei spielen nicht die kern anzahl da die meisten spiele 1 cpu kern nutzen wäre dieser sogar besser als ein 6 core cpu
was @@PhilippJanusch sagt. Und selbst wenn man uralte Spiele spielt, bei denen das der Fall ist, dann ist jede 8 / 12 / 16 Kern CPU auch im Singlecore-Bereich lockerst schnell genug.
@@bernds6587 Starcraft II war und ist zB ein populäres Beispiel das in den ersten Jahren nur 2 Kerne ausgelastet hat, Ka ob das mit Patches geändert wurde aber das war da schon ~2010 ungewöhnlich. Anno1404 von 2009 lastete schon 3 Kerne voll und nen 4ten etwas aus, passend also für 8 Jahre&Gens Intel i3 Dualcore+HT
@@bernds6587 die Intel gen 13/14 e Cores haben die Single Thread Leistung eines i7 6700k. Das ist so crazy. Aber bis haswell Skalliert alles echt gut mit heavy oc Takt, deshalb reicht n 4790k oft noch für uhd 45 fps gaming
den holt er sich bloß, wenn Rekorde in Aussicht stehen aber hier hat die befreundete Konkurrenz das Feld schon abgegrast und vielleicht hat er die cpu sogar von sonem konkurrenten?
Juhu, Sonntag ist, neues Video von Roman 😊🎉...meine 4090 ist am Freitag zurück gekommen von Thermal Grizzly und funktioniert wieder einwandfrei... ALLES BESTENS!!!
Naja Intel hat mit der N Reihe auch 4 Kerner und mit dem 100 sogar reine ohne hypertreading und nur single RAM . Also warum nicht auch von AMD 😜. Furn kleinen server/nas/ha server . Gut zu gebrauchen da sparsam idle 5-6watt😼
Die Ryzen CPUs mit Chiplets sind definitiv nicht bei 5-6W im idle. Leider ist durch eben dieses Chiplet Design der Idle-Verbrauch vergleichsweise hoch, auch wenn man das recht gut mittels Undervolting reduzieren kann. Wenn geringer idle-Verbrauch müsste man zu einer monolithischen CPU greifen, sei es derzeit intels berühmt-berüchtigten 13te und 14te Generations-CPUs, oder Ryzen 8000er Generation.
Es wird nicht mehr von daheime aus gedreht. Irgendwo habe ich gelesen, dass seine Freundin gestalkt wurde und sogar aufgesucht wurde. Mittlerweile ist sie auch schon seit längerem inkognito.
@@AlterEGO836Na ja, es beantwortet doch deine Frage! Die Katze oder Katzen sind daheime und kommen nicht mit zu Case King. Den Stress tut Roman seiner Katze nicht an, da dieses Büro bei Case King in seiner Halle mit CNC Maschine etc steht. Es wird da auf professionelles Umfeld gelegt wo auch Messmaschinen etc sind, wo Katzenhaare allgemein mal Probleme machen können. Ich denke, es wird nicht mehr dazu kommen.
Klingt wie ne Crysis 1 CPU wenig Kerne Ultra hohe Taktrate :) Ich erinner mich dunkle dran das Crysis 1 so schlecht lief selbst auf neuerer Hardware weil die Game Dev's spekuliert haben das die PC Hardware in richtung wenig Kerne Ultra hoher Takt gehen wird was am ende nie passiert ist was dazu führte das Crysis 1 selbst auf moderner Hardware nicht wirklich toll läuft.
Habe mir 2017 oder war es 2016 mal einen FX 6300 gekauft für 68€. OK der war schon paar Jahre alt. Aber günstig. Aktuell nutze ich eine 11400f der hat mal glaube ich 120€ gekostet dieses Jahr. Der gibt es noch für 97€ bei Mindfactory und ist von 2021. Oder sind Prozessoren gemeint die dieses Jahr auf den Markt kommen und dann 100€ kosten? Muss sagen das diese Low Budget Lösungen für mich funktionieren. Habe 2016 unter 300€ bezahlt für das aufrüsten und jetzt knapp über 300€.
Was will man bitte mit 100€ CPUs? Damit kann man nichts im Gaming reizen. Damit kann man nur schlecht Zocken. Für Büro vollkommen ok, aber fürs Zocken MUSS man Geld in die Hand nehmen.
Das Problem in Valorant (und vermutlich auch in anderen Games) sind nicht die fehlenden Kerne sondern der halbierte L3 Cache. 32mb vs 16mb sind schon ordentlich. Hätte man der Cpu den 32mb l3 cache gegeben wäre die cpu nach dem oc vermutlich sogar schneller als der 7600x.
für alle, die es nicht selbst recherchieren wollen:
In China darf man keine Produkte vertreiben, die Taiwan erwähnen, deshalb die Änderung zum China-Branding
Also meine Amd Ryzen ist aus Malaysia, stellt dass für China ein Problem dar ?.
@@DanielMarquasNö Taiwan ist Taiwan und fertig.
@@DanielMarquas Erzähl keinen Quatsch. Warum sollte Taiwan China sein? Wäre so als wenn ich sagen würde Österreich ist Deutschland. Ist es nicht. Hong Kong und Macau sind China, ja. Diese Ländereien wurden von China an Portugal und Britain verpachtet und sind nun wieder im Besitz Chinas.
@@MrChocobit Nö, Taiwan gehört zu China. Genauso wie die Krim zu Russland gehört ;)
@@Wavex3illu Weil Taiwan von keinem Land als eigenständiges Land anerkannt wird!!! Ich muss mich nicht hinter einem Alias verstecken sagt sehr viel über die Person aus.
Bei manchen Software-Produkten zahlt man pro CPU-Kern tausende Euro an Lizenzkosten, für einen lowend dedicated server kann ein vierkerner also unter Umständen noch Sinn machen
VM machen und entsprechend die Cores zuweisen;)
Dann kann man was vernünftiges verbauen UND sogar nur 1 Core letztlich für die Software zuweisen;)
@@m4d-m4xBei den meisten Softwareherstellern müssen die Kerne von Hypervisor lizenziert werden. Von dem her trotzdem ein valider Punkt
@@m4d-m4x Wollte gerade sagen. In den meisten Hypervisor Systemen sehen die Betriebsysteme die CPU des Hosts und keine "Virtuelle VM CPU"
Deswegen den Xen Hypervisor. Aber nicht XenServer, sondern XenProject
sachen gibs, und ich wette selbst roman hatte davon noch nie gehört.
Genau wegen solchen Videos liebe ich diesen Kanal. Hat mich sehr unterhalten. Direkt einen Nutzen? Nein, aber informativ auf den Punkt gebracht.
Die guten alten Vierkerner, es gibt noch eine andere interessante CPU die öfters im Forum auftaucht: Es ist der Intel 5775c mit EDRAM L4 Cache.
Mit Köpfen, OC und deaktivierter IGPU geht der L4 Cache im Gaming richtig ab und zieht sogar einem 7700K und Ryzen 3600x vorbei. Das war die erste CPU die wortwörtlich über einen 3D Cache verfügt.
Cool das das mal wer erwähnt. Es gab damals schon paar Games die gut auf den Cache reagierten aber im Vergleich zum 4790k und 6700k war sie komplizierter zu ocen bei meist ähnlichen Ergebnissen aber für 50-100$ mehr lohnt sich nie, nur jetzt Retro for fun.
ist technisch überhaupt nicht vergleichbar mit 3D Cache, ist ein seperater Cache Chip auf dem Substrate und demnach deutlich schlechtere Latenzen als zum 3D Cache bei den AMD Chips. Trotzdem sehr coole Chips, leider sehr selten.
@@Ground15 Naja L4 Cache und xl L3 Cache sind schon 2 ähnliche Konzepte, es kommt ja hinzu das es im Verhältnis zum nächst schlechteren, also ddr3 Ram im Vergleich zum ddr5 Ram steht.
War damals underrated, aber auch zu teuer
3D cache ist einfach nur ein zusätzlicher Decoder, der die einzelnen Register anspricht bzw. auswählt.
Der AMD EPYC 4124P ist eine von 2 4-Kern CPUs für den Sockel AM5.
Die andere wäre der AMD Ryzen 3 8300G.
Ein Vergleich mit dem Intel Core i3-14100 wäre interessant.
interessant das ganze Thema. Wusste nicht das es so ne CPU gibt.
Ich auch nicht
leider verkauft AMD da halt ne ganze menge es wissen hin.
Es gibt die Epyc 4004 Series wo die CPU auch dazugehört, da gibts es noch nen 6,8,12,16 kerner und die nutzen die AM5 Plattform
und den 12 und 16 Kerner gibts sogar mit 3d V Cache
Zu mindestens laut AMD Website
Ergänzung:
Die wurde am 21.05 Vorgestellt von AMD
das sind Low Cost Server CPUs, die die AM5 Plattform nutzen, Lizensierung von Server Software wird im B2B Bereich über die Cores Berechnet
Amd Epyc 4124P (4c/8t)
Amd Epyc 4244P (6c/12t)
Amd Epyc 4344P (8c/16t)
Amd Epyc 4364P (8c/16t)
Amd Epyc 4464P (12c/24t)
Amd Epyc 4564P (16c/32t)
Mit 3d V Cache
Amd Epyc 4484PX (12c/24t)
Amd Epyc 4584PX (16c/32t)
@@shadowwhite9324Aber nur bei Software die closed Source wie Windows sind. Ansonsten ist die Anzahl der Kerne egal.
@@shadowwhite9324 oder man deaktiviert einfach die Kerne eines 7600, zum Beispiel. Zumindest ist in Ryzen Master die Option vorhanden, jeden Kern zu deaktivieren.
danke für den Test. Sehr interessanter Prozessor, zumindest für mich.
Lieber der8Bauer, schaff dir unbedingt ein Rasterelektronenmikroskop (REM) an, damit du nicht mehr auf externe Firmen angewiesen bist! Stell dir vor, du kannst die kleinsten Strukturen von CPUs direkt selbst analysieren, ohne monatelang auf Ergebnisse zu warten. Mit einem Focused Ion Beam (FIB) könntest du alte CPUs sogar bearbeiten und die Details sofort in deinen Videos zeigen - das wäre ein absoluter Gamechanger für deinen Kanal! Stell das Gerät in deinem Studio auf, dekorier es mit alten PC-Teilen, damit es perfekt zu deinem Setup passt. So hast du es immer griffbereit und kannst in jedem Video beeindruckende Einblicke in die Welt der CPU-Technik geben. Und hey, kontaktiere doch die Firmen, die solche Geräte anbieten - vielleicht bekommst du sogar eine Kooperation und sie stellen dir das Gerät kostenlos für deine Videos zur Verfügung. Das würde deinen Kanal auf ein völlig neues Level bringen!
Kostet ja nichts
Ein geistiger Ryzen 3 Nachfolger
Also wenn ich für einen Kunden eine Workstation mit ordentlichem ECC support bräuchte, würde ich SOFORT ne AM5 Version mit 6 oder 8 Kernen kaufen.
Ryzen hat ja leider keinen wirklich guten ECC Supoport (selbst der vorhandene Support ist kein vollständiges ECC) und Datenbank sind für ECC sehr dankbar. Frage mich sowieso warum so "echte PC Workstations"(wie früher die von IBM usw.) seit ewigen Zeiten nicht mehr produziert werden. Die waren teuer, aber zuverlässig und unzerstörbar.
ganz einfach: Epyc und Threadripper wurden zusammengelegt um mehr Kerne für weniger Geld verkaufen zu können. Allerdings weiß ich nicht was du unter einer echten PC Workstation verstehst. Epyc ist schon sehr stabil-niedrige Taktraten, lächerliche spannungen und extrem geringer Strombedarf. Leider sind die Temperaturen aufgrund der Fertigungsgröße doch recht hoch, das wäre aber bei IBM im 4nm verfahren dann auch nix anderes mehr.
Wisst ihr noch, als 2-Kern CPUs (Celeron etc.) raus kamen und man das als absolut schnell angesehen hat?
Heute sind einfach 4-Kern CPUs schon obsolet..
meine letzten handys hatten einen 8kerner xD als ich den r7 2700x gekauft habe, dachte ich der wäre schnell, dann der 5800x3d, mit OC dauerhaft 145w bei 90° aber so echt ne geile cpu, jetzt der 7800x3d der nie unter 30w braucht ber ich sehe ihn auch nie über 50 beim zocken. die gpu saugt 300-350w i.d.R.
auch der leistungsunterschied von ner 750ti, 1060 zu 3060 is übel und jetzt die 7900xtx
finde es aber erstaunlicher, dass wir nicht nur schaffen alles so schnell schnelelr zu kriegen, sondern, dass wir es auch brauchen.
wobei es halt auch etwas gedauert hat^^ mein erster Lappi hatte Dualcore, das war 2006, 2008 hatte ich den q6600 und und 2012 hatte ich auch noch ein i7 mit 4 Kernen 2,4 Ghz.. läuft immer noch^^
aber traurig das jedes mittelklasse Handy mehr Kerne, mehr Takt und mehr RAM haben als die PCs vor 10 Jahren^^
Wie meinst du "Heute sind 4 Kern CPUs einfach schon obsolet"? Die gibts schon seit 2006/2007. In Menschen Jahren gerechnet sind die CPUs schon gefühlte 80 Jahre 😂
@@johannesdatblue4164 Tja, ob man das wirklich braucht ist eine andere Frage. Durch diese enorme Leistungssteigerung kann man auch schlampige Programmierarbeit einfach weg pfuschen und wer weiß, wie viel besser Spiele laufen könnten, wenn sie richtig optimiert und programmiert wären.
@@Inf1niteDreams witcher 3 war ein Traum. Mit 2iner 1060 aug biegen und brechen auf 4k gezockt 🤣😅
Ich wusste nicht einmal, dass AMD noch 4-Kern CPUs für den Desktop Sockel rausbringt. OC schaut interessant aus, für die " Intel-typischen 6GHz" fehlt aber noch etwas 😆
Wie würde es sich verhalten wenn man einen kleinen Akkuschrauber beim Köpfen verwendet anstelle mit dem Schraubendreher zu hantieren?
Weniger Aufwand und schneller oder würde man etwas potenziell beschädigen können?
Sehr cooles Video!
Wann kommt der neue Direct-Die-Kühler auf den Markt?
Super Video
Sehr spannend! Aber wie gut sieht das neue Asus Mainboard aus 😮
8 Kerne :D Star Citizen gestern 100% von meinen 13900k
eigendlich der nachfolger des 1500x /2500X und oder 3300x
Ja Epyc zum zocken lol, und dazu noch der kleinste .) Wie wärs ma mit nem Vergleich von Blender oder Photoshop gegen nen anderes 4kern-Brötchen ^^ Aber ja, OC sitzt drin gut zu wissen, wenn man köpft und Wakü macht.
hey roman, mich würde interesieren was mit stickstoff OC bei der cpu bringen könnte ob man mit der cpu die 7000-8000 mhz knacken kann, wäre cool das mal zu sehen.
Hängt die schlechte Effizienz vielleicht damit zusammen, dass das ein schlechtes Sample ist, also eine CPU, die eigentlich mal ein 8 oder 6-Kerner werden sollte, wo aber einige gerne so schlecht waren, dass sie abgeschaltet werden mussten? Das gibts ja häufiger, so kam ja auch der 5600X3D zustande.
könnte mir vorstellen dass so eine cpu im office oder in der industrie eingesetzt werden können
warum nicht eine 65w TDP CPU als Vergleich nehmen, wie zb den 7500f oder 7600 ? oder eco modus mit dem 7600x.
Macht ja kein Unterschied da er sie nicht tdp locked bencht. Er hebt ja im vid Spannung an und der prozzi verbraucht dann über 100, statt 84, wie eine 65watt cpu default nun mal zieht, mein 5700x läuft da ohne Settings genauso
@@PhilippJanusch es geht um den 7600x nicht um den EPYC.
@@Uthleber tdp unlocked sind 7600 und 7600x gleichschnell
Ich kann mir vorstellen das es CPU sind die eigendlich 6 Kerne oder mehr haben aber wo einige kerne abgeschaltet wurden weil sie nicht So funktionieren wie es soll,gab es ja früher schonmal bei der AMD Athlon serie wo es eine CPU gab wo mann mit einem Progamm die Kerne b.z.w. damals 1 Kern wieder aktivieren konnte.Würde mich mal interessieren ob es für diese CPU auch ein Programm gibt um zu sehen ob die CPU mehr als 4 kerne hatt und ob mann die aktivieren kann.
Da wäre generell mal interessant, wie sich die großen Epycs für AM5 im Vergleich zu den normalen Zen4-Prozessoren schlagen.
Die haben immerhin auch massig L3-Cache.
Wären die im Vergleich etwa gar on par mit den X3D-CPUs?
Wäre interessant zu sehen ob du denn record mit der CPU übertreffen würdest 🎉😁🤞
Ich Finde es gut wenn man Resteverwertung macht egal Ob CPU, GPU, RAM SSD, HDD und so weiter, würde die CPU hier mit einer kleinen GPU ( Formfaktor ) in einem Kleinem System sehen für Büro und oder Multimedia PC sehen.
Die CPU gibt es extra für dich, damit du uns ein Video spendieren kannst. 😂
Welches Spiel ist bei 12:05?
Kann der ECC und können die anderen CPUs ECC?
Welche Mainboards unterstützen ECC?
die bots sind wieder mal am start
sind schon wieder weg
Genau das würde auch ein bot sagen
@@der8auer ..bis diese oder andere wieder kommen.. Aber machen wir uns nichts vor, YT ist nicht wirklich die seriöse Plattform, die wir gerne hätten.
@@JohannesR-d1r Der Witz an der Sache ist ja, das Google wohl die ausgefeiltesten Algorithmen hat um jeden Furz im Netz zu finden und Zusammenhänge herzustellen und viel Geld und Arbeit in die KI-Forschung steckt, aber es nicht schafft die Bots zu blocken.
@@JohannesR-d1r wer will das denn? ich will tit***!
Zwar bisschen out of Context, aber denkst du das es sich lohnen würde auf die X3D Varianten der 9000er Serie zu warten um von nem 9 3900XT upzugraden?
Einfach den Test vom 9800X3D abwarten. Derzeit ist alles andere Spekulation.
mir fehlt der katzen content :(
Nein endlich geht es wieder mehr um Tech und nicht mehr um die nervigen Katzen!
@@noxxphoxDu scheinst ja sehr viel Spaß im Leben zu haben
🐈
Uff...
Typischer Single Beta Mensch, welcher bis auf Katzen keine sonstigen Kontakte hat.
Mein damaliger Ryzen 1200 (4/4) ließ sich auch recht gut übertakten und dabei noch undervolten. Der Ryzen 1200 lief im Zweit-PC, für Netflix, Prime Video usw. Heute schmückt der Prozessor nur noch meine Vitrine mit anderen, alten CPUs aus der Vergangenheit.
sry hat nichts mit video zu tun.. aber wo kann man so ein Wasserblock kaufen der extra für Geköpfte cpu ist ?
Direkt bei ThermalGrizzly. Er verdeutlicht damit auch das seine Eigenentwicklungen ideal für Overclocking geeignet sind. Noch besser kann man seine Produkte nicht präsentieren.
Der Gezeigte ist von seiner Eigenmarke, Thermal Grizzly
zu Kaufen gibt es die auf der Webseite von Thermal Grizzly
gibt es schon vergleichs infos über deine wakü zu einer normalen aio???
Hallo Roman, bitte entschuldige, dass ich hier schreibe. Ich hoffe du kannst mir die Frage beantworten.
Was ist stabiler beim Ram OC, bei extremem Werten. Ein AM5 Setup mit 7800X3D oder ein LGA 1700 Setup mit einer 14900K? Bei den Corsair Dominator Titanium? Wenn man von annähernd gleichen Voraussetzungen beim Board ausgeht. Also max. Ram Takt etc...?
Es würde mich sehr sehr freuen, wenn du mir das beantworten könntest. Ausflippen würde ich, wenn du dazu sogar ein Video machst. Ein paar Freunde von mir sind auch in der OC Szene wie ich. Ich bin da eher der neutrale, aber wir haben das blaue Lager das behauptet, dass Intel dafür die bessere Wahl ist und das rote Lager, dass behauptet, das AMD die bessere Wahl sei. Leider haben wir alle keine vergleichbaren Systeme um festzustellen, wer Recht hat.
Würde mich sehr sehr freuen, wenn du dich der Frage annehmen würdest! 🙂
für so eine art mini-workstation in preiswert kann die cpu genutzt werden . teste doch mal workloads von programmen wie blender oder sowas . für so einen nas-server könnte man das teil auch verwenden . streamer könnten die cpu auch in einen preiswerten stream-pc bauen , für streams ohne zocken .
gibt also schon die eine oder andere anwendung für der gerät 🙂 .
Blender Benchmarks hat Gamers Nexus bei CPU Reviews immer dabei. Aber für eine "mini-Workstation" macht so ein Teil gar keinen Sinn, Blender nutzt alles an CPU, was da ist. Wenn Hitze ein Problem wäre, kann man einen normalen Ryzen immer noch undervolten oder in den Eco-Modus setzen.
Hat diese CPU Funktionen die Epic vorbehalten sind?
Könnte auch was mit dem Vertrieb zu tun haben, wenn Epic anders vertrieben wird als Ryzen oder TR. Wenn Kunden sagen, sie wollen Epic haben aber nicht auf SP5 Basis.
in der heutigen welt ist es wahrscheinlich wirklich einfacher den trotteln zu geben was sie wollen, statt sie über ihre Dummheit aufzuklären. LEIDER ist zu befürchten, dass sone Mühle dann aber auch im Mediamarkt landet und entsprechend als Epyc verkauft wird...
Was für ein Asus am5 mb und ryzen CPU würdest du für eine 2080super empfehlen?
Gibts im Alltag oder Gaming Vorteile von ECC?
Welche Berechtigung hat denn die CPU um da zu sein? Mir erschließt sich leider nicht der Sinn dahinter oder hab ich was übersehen ?
Kommt noch ein Test zur Tryx Panorama AIO? Ist jetzt das zweite Video wo man sie sieht ;-)
Existiert um mit Intel gleichzuziehen. Besonders gut sind die 4-Kerner AM5 Epycs bei kleinen Storage Servern, da diese keine großen Anforderungen an die CPU stellen, aber halt trotzdem eine CPU benötigt wird für Netzwerk und Paritätskalkulationen. EPYC will man, weil die von AMD für Dauerbetrieb validiert sind, und damit eine entsprechende Herstellergarantie aufweisen. Klar, physikalisch ist das eine 7600X mit 2 defekten (deaktivierten) Kernen, aber man bekommt halt die Garantie von AMD, dass die für den Einsatzzweck geeignet sind.
Ist es nicht eher ein 7700 mit 4 defekten (deaktivierten) Kernen?
Ist die Garantie so ein großes Ding in dem Sektor?
Ich hatte jetzt 6 Jahre einen 200GE in einem Mediaserver im Dauerbetrieb laufen, die hälfte des Tages unter Volllast (BOINC).
Gleicher Anwendungszweck mit einem Athlon 5350, der läuft jetzt seit 10 Jahren, die hälfte der Zeit ebenfalls den halben Tag unter Volllast mit BOINC.
Vielleicht hatte ich nur Glück, aber kann mir eigentlich nicht vorstellen, dass diese CPUs sonst schnell sterben würden.
@@Coolgamer400 Sie sterben sonst auch nicht schnell, sind ja die identischen CPUs. Aber wenn ich ein Unternehmen bin und darauf produktiv Services laufen habe in denen ich 99.9999% uptime erwarte, dann will ich dafür Produkte die 1) validiert sind und 2) bei denen ich versichert bin gegen Ausfälle. Wenn ich ne Geschäftsausfallversicherung habe, dann wollen die sehen, dass ich auch angemessene Bauteile verwende bevor die mir ihre Police auszahlen
@@insu_na Wenn du tatsächlich 99.9999% uptime erwartest (six nines - was 31 Sekunden downtime im Jahr entsprechen würde), dann hat dein Host, an den du diesen Anspruch stellst, redundante Hardware. Wenn du überhaupt solch einen Host findest.. Und billig wird das dann auch nicht.
zB etliche Gameserver laufen mit Desktop CPUs (bei Level1 gabs ein Video über intels Debakel, und Analysen dazu über Ausfälle bei Gameservern, und der Vergleich mit AMD CPUs - das waren alles Desktop CPUs)
@@bernds6587 Und was willst du mir damit jetzt sagen? Natürlich habe ich alle Server in meinem Lab geclustert, sodass bei einem Ausfall direkt die VMs auf einem anderen Server loslaufen, aber auch da erwarte ich vom Hersteller halt Zuverlässigkeitsgarantien
super interessant
Ist schon interessant wie sich das Weltbild geändert hat. Wenn man bedenkt das vor Ryzen diese CPU Standard waren und man vielleicht immer noch
damit zu tun hätte wenn AMD nicht gewesen wäre.
Vielleicht hätte Intel ohne AMD als Innovation auf 6 Kerne aufgerüstet und da wären wir dann bis heute hängengeblieben.
Ich weiß zwar das Forschung und Entwicklung der größte Teil des Kuchens bei den Ausgaben ist
aber ich glaube das Intel nur so Fett geworden ist wegen dem zurück halten des Fortschritts.
Lieber wurde jedes Quäntchen Leistung aus Vorhandenem heraus gepresst anstatt einen Schritt weiter zu gehen.
Man könnte auch sagen sich auf den Lorbeeren und dem Technischen Vorsprung ausgeruht.
erinnert irgendwie an VW.
AMD hatte schon "6 und 8 Kerner" mit den FX Prozessoren.
Echte Kerne waren die Module nicht, aber auch mehr als nur ein einzelne Kerne, weil jedes Modul 2 Integereinheiten mit eigenem L1 Cache hatte, aber halt auch nur 1 Gleitkommaeinheit
Also eher so 4x 1,5 Kerne mit 8 Threads oder 6x 1,5 Kerne mit 6 Threads.
Für Integeranwendungen waren das 6 bzw 8 Kerner, für Gleitkomma dann halt nur 3 oder 4.
die waren kein standart. vor ryzen hatte man kaum vorteil bei gaming mit nem i7, da hatten fast Alle normalen Zocker nen i5 4 kerner ohne hyperthreading
@@helloweener2007 amd hatte mit den phenoms echte 6 kerner und die haben auch extrem lange verdammt gut performt, aber die spiele wurden leider über die kommenden 12 Jahre nur auf 4 inteltypische kerne optimiert. dieser fx quatsch war schon hart peinlich, wenn man viele Jahre später als es längst gegessen war sich auch noch ein Gerichtsurteil einfängt, dass doppelte Komponenten nicht mehr Kerne zaubern.
@@schortkramer4405 Intel hatte auch CPU mit mehr als 4 Kernen nur waren diese nicht Mainstream und schon gar nicht bezahlbar. Viele kauften sich auch eher einen Intel Xeon da billiger mit gleicher Performance wie ein I7..usw... . Später hat Intel auch das Xeon Schlupfloch gestopft weil sie Geld verloren haben. Die Xeon Prozessoren waren auch besser als die I7..usw... . Denn alles was kein Xeon werden konnte haben sie zu I7 degradiert.
Wusstet ihr dass AMD CPUs früher in Deutschland / Dresden diffused wurden?
weniger cores die sich den cache teilen müssen könnte auch interessant sein
Man kann auch ryzen 7600/7700 Cores deaktivieren aber vollen non 3d Cache nutzen
Wann kommt ein Video zum Thermal Grizzly Wireview Pro?☺️
Ist das ein echter 4 Kerner, oder einer mit 6 oder 8 Kernen bei dem welch abgestellt worden sind? Der sieht ja fast wie der 7700X aus.
Höchstwahrscheinlich sind hier 4 von 8 Kernen deaktivert worden. Meines wissens Produziert AMD allgemein nur noch 8-Kern Chips und deaktiviert gegebenenfalls 2 der 8 Kerne (bei den 12-Kernern wie dem r9 7900x werden dann auf jedem der 2 verbauten Chips je 2 Kerne deaktiviert, darum hat der 7900x3d ja auch nur 6 Kerne mit 3d cache...). "echte 6-Kerner" gibt es von AMD also auch nicht mehr...
"Das ist die einzige 4-Kern CPU für AM5"
8300G weint in der Ecke..
der hat aber 3 Zen5c Kerne, und einen Zen5 Kern, dazu eine größere iGPU. also nicht ganz das gleiche
Vorallem beim Gaming könnt ich mir auch vorstellen das im CPU Limit der halbierte L3 auch ne Rolle spielt beim epyc
Wäre AMD nicht gewesen hätten wir alle heute noch mit 4 Kernen im Client High End leben müssen! Natürlich ohne HEDT und dessen Preisschild zu betrachten.
True. Und ohne ARM gäbs nur 4 Highperformance Cores.
Und ohne ARM würden wir im RyzenX kein Crossbar 2.5D sehen.
Aber ohne Intel hätten wir kein SMT-2.
Und AmD verdanken wir gute iGPUs
Bei der CPU wäre Effizienzoptimierung spannend gewesen. Also Leistung/Watt und wie sie sich als Mini-Homeserver für eine Nextcloud oder ähnliches schlägt.
wie man aus den Tests eigentlich schlussfolgern kann ist die Effizienz genau so oder eher noch schlechter als bei 6 oder 8 Kernern, und das würde eben auch genau so skalieren mit undervolting.
Mhhh LN2 oc oder dieshots wären auch interesant
Vielleicht bietet der 4 core Vorteile bei der Lizenzierung von Produkten.
Meist läuft so eine Software in einer virtuellen Maschine, der man Kerne bzw. Threads zuweisen kann.
Und wenn solch Software direkt läuft, dann könnte man Hyperthreading deaktivieren, oder einzelne Kerne deaktivieren
@@bernds6587 ..Es geht aber darum was Du an cores Lizenzierung musst, ich kenn’ Unternehmen die sind hin gewatschelt und haben dann eine CPU herausnehmen müssen..vor dem Audit.^^
@@Reflexiony Wenn die Software direkt auf der Hardware läuft.. klar. Ist aber eben nicht immer oder überall der Fall.
Es gibt zumindest die Option in Ryzen Master, einzelne Kerne der 7000er und 9000er CPUs zu deaktivieren. Ohne Gewähr - getestet hab ich das nicht
AMD hat den Bulldozer zurückgebracht, nice :D
Bulldozer war 4 Module mit 8 integer Kernen, gut solange kein Thread alle rechenwerke eines Moduls nutzt.
Suff nur mehr Strom als Intel gen 3&4 bei ähnlicher Multicore Leistung und 60-70% singlecore
Könnte es sein, dass das so eine China-Only-Low-Budget CPU ist, bei der die anderen vier Kerne defekt sind? Nvidia bringt auch teils GPUs mit weniger VRAm und/oder Shader-Einheiten nur für den chinesischen Markt, teils nur für Internet-Cafes, die dann aber trotzdem irgendwie bei Ali Express & Co landen.
Naja low budget aber teurer als 7500f macht wenig Sinn.
Es gab aber bereits Kommentare zu softwarelizenzen die pro Kern gerechnet werden.
könntest du einmal dein loadout bei remnant 2 sagen? hab wieder vor kurzem angefangen :D
Schönes Video , ist es eigentlich geplant das die MagFlow auch in 140mm kommen ? mfg
Roman mich wundert warum du nicht darauf kommst wofür man (potentiell Starke) CPUs mit wenigen Kernen produziert. Man kann bei den deaktivierten Kernen dennoch den Speicher nutzen
ein grund wäre stabilität, ausfallrisiko und kompatibilität.
schönes video der ist zustand ist wie immer heute anders als zur 4 kern zeit softwware wurde besser optimirt und etwas anderes genutzt. was heute dann sich für zu kleine kern systeme negative auswirkt weil sie die gestigene mehr leistung immer noch mit weniger verarbeiten müssen.
die frage bleibt ist die spiele optimirung der grund für ein schlechtes ergebnis oder setzt man einfach grundlegent einfach mehr als 4 kere voraus und bei kleineren systemen fehlt die optimirung dann.
mehr takt heist mehr zücklen mehr möglichkeiten aber wenn man die nicht nutzen kann bringt das OC dann nix wenn man dann lenger warten muss weil stau da ist. und es ja doch berechnet werden muss.
mehr ist mehr wenn man es gut nutzen kann. war bei 8 kern und mehr kern CPU füher auch ein problem man kaufte mehr und konnte mehr kaum nutzen nur wenn man die lasten selbst verteilt hat weil windows auch heute grund setzlich immer alles komisch verschibt. kern 0 und 1 sind oft so überbelastt wo auch immer die maus und tastatur usb und co verarbeitet wird.
das man sein spiel oder program auf die übrigen verteilen sollte. im besten fall hat man dann wirklich volle kern leistung über bei 4 kernen ist es faglich ob das windows irgend wir gut regelt.
tools wie laso und änliches sind ja schon sehr alt. weil die technik mehr kerne zu haben schon lange da ist und es hat sich auch kaum was verbessert.
ich frage mich ob man mit KI im windows wenn es mal nutzbar wird dann möglich ist solche optimierungen dann zu machen.
usb timings zu verbessern dynamisch zu machen. eine überwachung zu bekommen das das neue usb gerät andere geräte runter zieht bitte updaten oder entfernen oder auf einen anderen slot nutzen der nicht belastet wird.
aber so was macht windows nicht. eine temperatur anzeige für CPU kan windows auch nicht. man braucht immer fremde tools oder system verstekte programme um das aus zu lessen.
ein echtes peinlichkeits merkmal das man in windows so viel nicht hat und einfach kann. wo ist nur die qualität hin diel man kommen sollte mit windows 10. mit 11 macht man was so bescheuertets.
schade das man sich nicht mal mehr auf grund bausteine verlassen kann. ich verstehe auch nicht warum man über 4 jahre braucht um dem system KI zu gänlich zu machen.
dann auch noch die sache exklusive machen. keiner will in einem gekauften system werbung abos oder änliches nutzen oder sehen zu müssen. ein system ist meine spiel wisse ich nutze es nicht MS MS stellt nur die bausteine bereit und selbst da fehlt heite einfach viel. wie KI RTX. ich rede nicht von DLSS oder RT.
sondern das man mit net fremwork das einfacher in bestehende programme nutzbar mchen kann. so viel ki und nutzbar ist es nicht.
instalationen man wartet auf die beknakte CPU warum nicht mit KI. ist die echtzeit berechnung so langsam das echtzeit langsamer ist als CPU ich dachte etwas zu berechnen braucht zeit und energie. wie ÖKO ist windows dann wen man nur CPU ram nutzt.
MS und sein flug simulator update muss ja hammer geil sein das man um die pracht zusehen 64GB ram braucht.
warum macht man nicht das mit der modernsten technologie wie RTX. mit KI. die ram und shader reduziert oder sogar komplett nicht mehr braucht.
wurde so nicht die 4090 vorgeselt mit dem spielzimmer demo. die live native mit 300 FPS DLSSwar aus. er sagte würde man das auch noch aktivieren würde man mit der 4090 so 600 FPS schafefen, aber weil die demo unter 3000 rukelte und einbrüche hate hat man an der performenc gearbeitet. und die KI power um 2/3 erhöht genau der teil der heute fehlt weil kein speil KI macht.
ist schon lustig was man kauft und bekommt weil die basis nicht da ist. und jetzt kommt bald 5000 die neue generation man nutzt noch nicht mal RTX und kommt so nicht mal an die grenze von RTX. aber leute kaufen karten wie nix. leider profitiert nur chat gpt von KI. der ganze rest ist nicht da oder nicht nutzbar.
NVIDIA hat auch MC RTX eingestelt ich verstehe nicht warum ich hätte gerne was hardwae technisches das sich dynamisch verbessert als was software lastiges wie shader das immer gleich ist und nicht dynamisches ist.
gerade in schachten wo armenhen oder models immer gleich sind da kann KI mit dynamisches rendern echte einzigartige truppen erschafen wie es warhemmer sehr umstendlich macht.
die mess latte von games workshop ist so hoch das wir nicht mal wissen wie viele spiele es nicht zu uns schaffen.
schade das alle nur den weg von UT gehen aber RTX bittet zum ersten mal einen komplett neuen und eigenen weg an der nicht grose daten braucht und viel ram nutzt. und doch gibt man RTX shader rendert shader kompeliert sogar shader vor nur mum in spilen feaks zu bekommen statts simulation. wie es KI macht und kann.
ich will mal ein spiel sehen das verglichen wir in größe ram verbrauch und energie verbrauch. wenn man versucht so viel wie möglich von der CPU auf die GPU zu bekommen.
ich denke das intel denau aus dem grund versagt hat. weil man zu viel CPU macht stats GPU zu nutzen und mal RTX richtig nutzen um mehr werte zu schafen wie deep lerning und auch selbst handelnde gegner die selbst entscheidungen treffen wenn sie dich sehen verfolgen dich suchen und auch weiter gerendert werden wen du ganz wo anders bist.
level größe nicht mehr nur eineige km sondern ganze welten man frei dort rum laufen kann. alles besuchen und man selbst entscheiden kan was wie wo wann ich fort setze.
star citzien will das alles bitten in iner welt und noch besser sein als jedes MMO oder RPG. das sind schon im kern veränderungen nötig die seit 15 jahren an daueren und jetzt fängt das leben dort sich an zu regen . die ersten tire und einfachen regeln sind drin.
matrix ist nicht mehr fern sondern schon im grunde möglich. das tolle ist das 2 server so gut miteinader sprechen und in echtzeit spieler dinge und auch server übergreifende dinge in echtzeit austauschen können.
in welchen spiel ist das möglich und es ist egal wie viele server man am ende hat. schon jetzt hat star citizen x meilensteien übertroffen. das beste ist das es nicht ein börsen konzern ist der sagt jetzt muss das spiel raus
sondern das man versucht immer die aktuellste technik möglich zu machen zwar ist da CIG leicht abgewichen und hebt heute etwas zurück aber das was trotzdem schon möglich ist und das was möglich sein wird wenn der singel player da ist man will halt zeigen was man kann und nicht schon das beste vor relase raus hauen. also sind das was dort zu sehen ist nur platzhalter.
geil ist das was halt das beste versucht und kalr sagt was nicht geht und was doch geht und auch fehler wie jetzt können wir das doch. 15 jahre entwiklung und offene videos zum spiel zeigen klar die schwächen der andere auf. schade ist nur das sie mehr geld für müll verlangen.
weil es schon immer so gemacht wurde wie das man in starfild kein DLSS ermöglichen kan aber eine mod 14 tage später es enfach möglich macht. das sind so sachen die einfach nur dumm sind.
oder was bringt mit ein schoss von harry potter wenn ich das nicht mit meinen freunden erkunden kann.
singelplayer spiele sind schrott wen das settig es zuläst und man es machen könnte.
mods braucht um das zusammen zu spielen wie rimworld oder andere. das wertet das spiel auf und nicht nur zum schlechten sondern zum guten.
früher xbox halo war mehr ein sozialies spiel. ein party spiel wir haben das mit 16 leuten im lan gespielt.
wir brauchten auch nur das spiel.
das war die ware stärke der xbox und heute braucht jeder eine kosole um zusamen zuspielen und internet.
man kan sagen das kosolen alle bis auch nintendo es bis heute nicht versanden haben was kunden wollen.
playstaion und tekken ist ein singelplayer game. darum hat die PS so viele und vermerht sie immer mehr.
die spieler weiche mit bis zu 4 plaern also 8 spieler auf einer konsole. hat dort nicht funktioniert.
Der PC hate den durchbruch mit CS was lan und internet gespielt werden konnte und heute noch gespielt ist nur lan partys macht man nicht.
der supf der singel player spiele ist falsch. spiele waren und sind schon immer soziale spiele gewäsen selbst schach aleine ist dumm. aber spiele denken das ist das was wir als nutzer wollen.
ich wolte mit meinen sohn stardw velly spielen ich auf den steam deck er auf der switch glaubt ihr das geht nein.
schade no crssplay und dafür habe ich im nintendo store 15 € bezahlt.
man lebt auf den kosten der kunden will aber spiele anbitten und vernetzt sie nicht bescheuerter kann man ein spiel nicht verkaufen warum soll man so noch irgend ein spiel kaufen.
der PC versagt weil man kein RTX macht oder KI nutzt. aber CPU ram und VRAM ist wichtig. ja wenn man shader nutzt.
eine geile nicht player welt die alle publicher da aufgebaut haben und es einfach nicht verbessern wollen warum GTX konsolen exklusive ist zeigt nur das man versagen will. wir leben heute in einer KI welt nutzt KI. wir brauchen viele KI fals es mal eine KI gibt die nicht gut ist. dann brauchen wir KI die der einen ki die schranken weißen. das braucht zeit und erfarung. aber die zeit wird nicht genutzt. also kein vortschritt. seit RTX da ist stteht KI spiele und windows nur still rum. wie eingefrohren.
wusste gar nicht, dass man auf RUclips so lange Kommentare schreiben kann 🙃
@@bernds6587 klar geht das nur filter youtube viel was man schribt und kominationen von wörtern sind verboten.
oder man muss es auf teilen. mache ich auch manchmal.
ich finde eigene meinung wichtig nicht nur wie man empfindet oder einem zustimmt. sondern eine eigene begründung warum man es teilt oder nicht. oder sind alle herzlose roborter mit schlechten absichten.
wie soll man aufkären wenn dinge unklar sind oder nicht im kondex stehen. ich versuche immer alles so genau wie möglich darzustellen.
das braucht halt mehr text sagt aber auch mehr aus.
und ich bin auch dann klar zu erkennen das ich kein bot bin. mit meinen fehlern im text bin ich so einzigartig das man sogar sagen kann ich bin das einzig wahre wort. eigenlob stinkt aber denau darum geht es eine identiät zu haben. ich für mich kann es sagen das ich sie habe. auch ich mache fehler und fehler machen ist menschlich. man weis oft nicht das man was falsch gemacht hat erst wenn es ersichtlich ist oder man so ferst steckt wie gafik mit RTX. shader ist wie gift für die karten. aber jeder würde das anders sehen.
RTX wurde zur rund um verbeserung erfunden und macht es das. nein.
man gibt 2000€ für KI aus und nutzt diese in spielen nicht das ist die realität weil shader alles an resucen verbrauchen.
wie geil kann also heute noch ein sahder spiel sein. ich abe auch nie gehört das UT KI kann oder bereitstelle und RTX voll zu unter stützen.
11:52 Crescent Moon farm? :D
Wie heißt diese AIO? Die sieht extrem geil aus. (Bei 4:36)
Wirkt irgendwie ähnlich wie eine asus rog ryujin bloss ohne Display.
100EURO und wird ein RENNER!
es gibt doch auch Die AMD Ryzen 3 8300G die wirt z.b Asus Prime B650M-A Wifi II CPU-Unterstützung
angegeben
Vielleicht eher für OEMs gedacht, z.B. für NAS, kleine Server etc?
Warum so wenig Kerne .. könnts die Beschränkungen der USA sein?
Verkauf in China hat doch mittlerweile arge Sanktionen.
Liebe das ASMR beim Köpfen ❤
In alten MMOs ists halt so das die halt nie wirklich mehrere Kerne effizient Usen was absoluter shit ist sobald mehrere Charaktere geladen werden kackt halt jede CPU ab weil der einzelne kern nichts kann. Daher hab ich mich schon immer gefragt ob sowas genau da Carrien würde. Würd mich voll interessieren ob das "die Erlösung" wäre.
Ich denke nicht, dass es da zwischen einem "normalen" 6 Kerner und diesem 4 Kerner große Unterschiede gibt.
Ob es die eventuell 5 - 10% wirklich wert sind, dass man die CPU sonst kaum für andere Spiele nutzen kann? Glaube nicht.
@@bernds6587 Hm jo klar lohnt sich es nicht.
Trotzdem juckt es mich iwie für diesen fall die perfekte cpu zu suchen kp warum xD
@@taifoon999 du kannst auch einfach eine normale 6er oder 8er CPU mit Ryzen Master zu einer 1-Kern CPU machen. die lässt sich sicherlich dann noch höher übertakten :D
@@bernds6587 Awo ich hab noch mein trusty 9900k der macht schon noch gut was her wobei das schon interessant wäre mal zu versuchen. XD
Wo der dax ?
Den meisten Games wird es egal sein wie viel Kerne der Prozessor hat, es wird eh nur ein Kern benutzt, jedenfalls bei den meisten nicht allen Games.
Einen 8 Kerner in Form eines 5800X bekommt man ja bei kleinanzeigen schon für 100€.
Es ist ein Epic kein Ryzen, auch wenn der IO die der gleiche ist und somit beide ECC unterstützen so wie ein paar andere dinge ist der Prozessor selbst ein anderer und hat ganz andere Befehlssatz Anforderungen als eine Desktop-CPU. Ich meine ja AMD macht das schon seit mehr als 2 Jahrzehnte, das ihre Desktop-CPUs viele Serverfunktionalitäten bieten, die am meisten gebraucht werden im privaten bzw. Kleinunternehmer Umfeld. Und das sie Linux Systeme Fördern bzw. nicht behindern, macht AMD CPUs auch in diesen Bereichen einen großen Anteil aus.
Was ich damit sagen will, ist AMD hat den Fokus auf Langlebigkeit und einem weiteren Einsatzspektrum, natürlich hat das seien preis in Form von älteren Techniken bei der Fertigung geringere Leitung. Intel hingegen setzt auf Innovation und Performance in spezifischen Einsatzgebieten. Daher sind Desktop-CPUs deutlich abgespeckt im Vergleich zu Server-CPUs. Aber Treiber und Zugänglichkeit sind so ein Thema in Linux Umfeld, falls man vorhat seine Desktop-CPU in einem Homeserver zu betreiben. Das ist halt der Preis den man bei Intel zahlen muss.
Grob kann man sagen, wer immer das neuste und schnellste braucht, geht zu Intel. Aber wer einen PC braucht, der arbeiten soll und das lange, der geht zu AMD. Wie AMD gezeigt hat ist der AM4 noch nicht tot und das wird er die nächsten 5 Jahre auch nicht sein. Intel hingegen braucht ständig einen neuen Sockel, sonst können die sich nicht weiter entwickeln. AMD hingehen der Sockel hat mehr drauf als nötig, er ist einfach da, auch wenn man Kompromisse eingehen muss in zukünftigen CPUs für diesen Sockel spielt es am Ende keine Rolle, denn bei AMD geht es um Langlebigkeit, der Möglichkeit des Upgrades der CPU Funktionalitäten und nicht der Leistung selbst.
Aber dennoch gibt es unterscheide zwischen den Ryzen, Ryzen PRO und den Epic. Ryzen sind die High End und Multi Purpose Desktop CPU für Privatanwender und Kleinunternehmen, Die Ryzen PRO sind fürs Unternehmensumfeld gedacht und sind auf Makellosigkeit geprüft und angepasst auf harsche Umgebungen, z.b. große hitze, källte und luftfeuchte. Die Epic sind reine Server-CPUs sie sind speziell auf den Serverbereich ausgelegt, mit ihren Befehlssätzen und sind ebenfalls auf Makellosigkeit geprüft und angepasst auf harsche Umgebungen, z.b. große hitze, källte und luftfeuchte. Darum sind die auch Teurer. Den Epic mit den 4 Kernen ist vermutlich für Datei Server gedacht, also quasi eine NAS. Man braucht keine besonders starke CPU in einem Datei-Server besonders nicht, wenn man smarte Raidcontroller verwendet, die auch Caching beherrschen. Um eine 40Gbit Multiport Verbindung zu handeln würde vermutlich 2 Threads von dieser CPU schon ausreichen.
Gut auf den Punkt gebracht, es gibt ja nen Test zum Epyc 4564P der wurde mit dem 9950x und 7950x verglichen Ergebnis Performen alle 3 auf Gleichen Level
Alle 3 sind ja 16 Kern CPUs
und ja die 4004 Epyc Serie wurde mehr oder weniger als Shadow Drop für Unternehmen im Mai gelaunched
Letzte Woche hat ja AMD die neuen Epyc Prozessoren Präsentiert sowas ist auch immer Spannend zu sehen
@@shadowwhite9324 richtig und man darf auch nicht vergessen es gibt soviele embedded CPUs oder nur für OEM von der die Öffentlichkeit gar nichts mitbekommt, da sie nur für das Unternehmensfeld gedacht sind.
Als Beispiel den Intel j4050 den nur asrock fest verlötet auf einem Mainboard anbietet. Laut intel der database ist das als ein high end x86_64 tablet Prozessor oder , für NAS Anwendungen und HT-PCs gedacht. Ist quasi ein alter intel pentium mit einer besseren Grafikeinheit die 2 4k streams gleichzeitig verarbeiten kann.
Mit einem Linux lauft der flüssig aber windows kannst du vergessen. win7 vielleicht aber 10 ist zu anspruchsvoll und 11 geht schon mal gar nicht.
Hast du dafür auch Quellen, weil du schreibst "ist der Prozessor selbst ein anderer"
Gleicher Sockel, gleiche Performance (bei gleicher Kern-Anzahl), gleiche Features, etc etc.
Nur weil EPYC draufsteht (und dein gesagtes für die anderen EPYCs zutrifft) heisst das lange noch nicht, dass auch EPYC in diesem AM5ern "drinsteckt".
Anderes Binning ist der Unterschied, mehr aber auch nicht.
Wenn du dazu mehr Infos hast, alsse ich mich gerne eines Besseren belehren, dass diese AM5 EPYCs so verschieden sind.
Interessanterweise haben alle den Zusatz "P", was bei den "großen" für "single socket" steht.
Nun... wo bleiben Boards mit zwei AM5 sockeln, und AM5 EPYCs ohne den "P" Zusatz?
@@bernds6587 hast du einen Plan wie eine CPU funktioniert und was nötig ist um multi socket zu betreiben? Ich glaube nicht, sonst würdest du es verstehen. Der Core beinhaltet den Decoder für die Befehlssätze der IO, die ist nur für die Kommunikation zwischen den Core Chipsets, falls mehr als einer vorhanden ist und die Kommunikation zu dem Mainboard und zu anderen Sockets.
Die CPU selbst ist ein Epyc der IO die ist aber von einem Ryzen oder andere CPU die Den AM5 Sockel nutzt, da der AM5 kein Multi socket Support hat kann der IO die das auch nicht Infinity Fabric Interchip Interconnect.
Mal abgesehen davon sind dazu 260 zusätzlich Pins vonnöten die der AM5 Sockel nicht hat.
Ich mein, du kaufst auch einen Skoda mit viel PS und hast einen Audi Motor dadurch drin. Kann der dann auch alles, was ein Audi kann? Nee, weil du das billig Auto gekauft hast. Weil es Fährt aber möchtest dennoch ab und wann spass damit haben.
DAS Gleiche ist mit dem EPYC der Befehlssatz ist der gleiche aber alles drumherum ist eine Standard AM5 CPU.
Warum macht man das? ist doch ganz Klar, als Kleinunternehmen braucht man keinen 30.000€ Server und alles, was er am Ende tut ist eine Webseite hosten und ein bisschen daten lager und vielleicht noch einen EMail dienst bereit stellen.
Das tut dein Dell Optiplex von 2007 auch ganz gut ohne das es wer mit bekommt aber der kostet nur 800€ und braucht deutlich weniger Strom. Bietet er sichere und effiziente Decoder und Encoder? MIt großer Wahrscheinlichkeit nein, darum ein 4 Kern epyc. Er kann alles, was ein epyc auch kann aber für billige Consumer Hardware, für die man nicht noch seine Seele verkaufen muss, um sie überhabt nutzen zu dürfen. Ich sag da nur DELL EMC und ihre Knebelverträge und dann kommt da noch windows server wo du für jeden core den deine CPU hat eine volle Lizenz kaufen musst die nur ein jahr gültig ist. Und falls du VMs laufen hast, zählt jede VM als eigenständiges System. Kurz um du kannst z.b. auf diesem Vierkerner 8 VM laufen haben und alle haben Zugriff auf alle Kernen bedeutet du darfst für Nutzung von 36 Kerne bezahlen.
Plötzlich wird die CPU sinnvoll nicht war?
ich arbeite in diesem bereich ich bekomm immer wider die frage gestellt warum der scheiß so teuer ist.
Es gibt auch intel cpus die eigentlich Server cpus sind, aber auf einem consumer Sockel sitzen. Da ist es das gleihe nur intel gibt denen dann kryptische namen mit denen keiner was anfangen kann oder weist du aus dem kopf was ein j5040 ist? Es ist ein intel Pentium Silver Gemini mit uhd606 für server/NAS Anwendungen, HTPCs, Highend Media Tablets auf x86_64 basis, und Netbooks.
Wo findet man die CPU? auf dem welt markt nur im auf dem ASRock j5040-itx. sonnst nirgends aber im asiatischen Mark fasst überall was mit NAS oder Medien zu tun hat, also anzeige Tafeln z.b. und in günstigen Laptops für die Schule. Weil Cromebooks sind da nicht so der Renner bzw kennt quasi keiner.
@@reinekewf7987 du hast wohl deinen eigenen ersten Kommentar nicht mehr im Kopf gehabt. Du hast dort explizit geschrieben:
"
Es ist ein Epic kein Ryzen, auch wenn der IO die der gleiche ist und somit beide ECC unterstützen so wie ein paar andere dinge ist der Prozessor selbst ein anderer und hat ganz andere Befehlssatz Anforderungen als eine Desktop-CPU.
"
Und in diesem Video geht es um einen EPYC der 4004er Reihe, der in einen AM5 Sockel geht.
Niemand hat hier von den "großen" EPYCs geschrieben.
Nur weil du diese wohl gemeint hast (wird mit deinem halben Buch nun klar) wäre es wohl sinnvoll gewesen, das dazu zu schreiben. Sonst kann man es nicht wissen, was du nun genau meinst.
Etwas wie "Die anderen 'großen' EPYCs sind ganz anders aufgebaut und haben andere Anforderungen als die AM5 Ryzen und EPYCs" ... usw
Du hast aber nur von Epyc geschrieben, was ALLE einschließt, eben auch diese "kleinen", und insbesondere geht es in dem Video ja wie gesagt um eine CPU im AM5 Sockel.
Und ja: mir ist bekannt, dass multi-Socket-CPUs andere Anforderungen haben, und weitaus mehr Lanes benötigen etc etc usw usf.... aber:
War aber gar nicht Thema
Kaum das Video hochgeladen und schon ein halbes Dutzend Bot Kommentare 😅. Man sollte meinen ein so riesiger Laden wie Google wäre besser darin diese Accounts zu sperren.
es besteht kein interesse
😮
Sehr interessant
hatte ja lieber so die 4er Resterampe chips auf ein 7840X3D mit drauf
Gab es nicht ein Embargo für AMD und den chinesischen Markt, sodass AMD dort eigentlich gar keine AMDs verkaufen darf?
Ist halt mehr oder weniger ein "1203" für alte und Single Core Spiele und Programme.
6:50 wie kann denn bitte ein 7600x 915 fps im durchschnitt haben? nicht mal mein 7800x3d geht weit über 700 fps....
Settings/Resolution und ne übertaktet 4090
versuch mal die auflösung zu reduzieren (720p oder weniger) und auf niedrigste Grafikeinstellung zu stellen. So verhinderst du ein FPS limit durch die meisten Grafikkarten
@@after_glow3912 Ich spiel auf 1440p niedrige Einstellung mit noch einer 6700xt. Ich denke mal es wird daran liegen
die single core leistung ist doch sehr wichtig bei spielen nicht die kern anzahl da die meisten spiele 1 cpu kern nutzen wäre dieser sogar besser als ein 6 core cpu
Sry aber 2024 ist one Thread Gaming lange erledigt. Ps4 hatte 7 Threads, ps5 16, daher ist heute das letzte Game ab 4 Threads aufwärts ge-scedulart
was @@PhilippJanusch sagt.
Und selbst wenn man uralte Spiele spielt, bei denen das der Fall ist, dann ist jede 8 / 12 / 16 Kern CPU auch im Singlecore-Bereich lockerst schnell genug.
@@bernds6587 Starcraft II war und ist zB ein populäres Beispiel das in den ersten Jahren nur 2 Kerne ausgelastet hat, Ka ob das mit Patches geändert wurde aber das war da schon ~2010 ungewöhnlich. Anno1404 von 2009 lastete schon 3 Kerne voll und nen 4ten etwas aus, passend also für 8 Jahre&Gens Intel i3 Dualcore+HT
@@PhilippJanusch nur wie gesagt.. eine heute CPU wird auch im Singlecore Bereich schneller sein als eine 8 Jahre alte CPU. Frequenz ist nicht alles.
@@bernds6587 die Intel gen 13/14 e Cores haben die Single Thread Leistung eines i7 6700k.
Das ist so crazy.
Aber bis haswell Skalliert alles echt gut mit heavy oc Takt, deshalb reicht n 4790k oft noch für uhd 45 fps gaming
Zurück zum OC ist ja Cool. Quasi zurück zu den Wurzeln. Ich habe aber keinen Flüssigstickstoff in deinem Video gesehen. Trotzden gibt es einen Like
den holt er sich bloß, wenn Rekorde in Aussicht stehen aber hier hat die befreundete Konkurrenz das Feld schon abgegrast und vielleicht hat er die cpu sogar von sonem konkurrenten?
OC mit LN2 macht mir aktuell einfach nicht mehr so viel Spaß wie früher deshalb ist es nur noch selten in Videos :)
Juhu, Sonntag ist, neues Video von Roman 😊🎉...meine 4090 ist am Freitag zurück gekommen von Thermal Grizzly und funktioniert wieder einwandfrei... ALLES BESTENS!!!
Sind das nicht so CPU's für NAS systeme?!?!? Zum datenschieben und Netzwerkanbindulg reicht das doch....oder?!?!?!
Naja Intel hat mit der N Reihe auch 4 Kerner und mit dem 100 sogar reine ohne hypertreading und nur single RAM . Also warum nicht auch von AMD 😜.
Furn kleinen server/nas/ha server . Gut zu gebrauchen da sparsam idle 5-6watt😼
Die Ryzen CPUs mit Chiplets sind definitiv nicht bei 5-6W im idle. Leider ist durch eben dieses Chiplet Design der Idle-Verbrauch vergleichsweise hoch, auch wenn man das recht gut mittels Undervolting reduzieren kann.
Wenn geringer idle-Verbrauch müsste man zu einer monolithischen CPU greifen, sei es derzeit intels berühmt-berüchtigten 13te und 14te Generations-CPUs, oder Ryzen 8000er Generation.
Wo ist die Katze?
Es wird nicht mehr von daheime aus gedreht. Irgendwo habe ich gelesen, dass seine Freundin gestalkt wurde und sogar aufgesucht wurde. Mittlerweile ist sie auch schon seit längerem inkognito.
@@Bourne-K danke für die Info aber hier geht es um die Katze.
@@AlterEGO836Na ja, es beantwortet doch deine Frage! Die Katze oder Katzen sind daheime und kommen nicht mit zu Case King. Den Stress tut Roman seiner Katze nicht an, da dieses Büro bei Case King in seiner Halle mit CNC Maschine etc steht. Es wird da auf professionelles Umfeld gelegt wo auch Messmaschinen etc sind, wo Katzenhaare allgemein mal Probleme machen können.
Ich denke, es wird nicht mehr dazu kommen.
Im Käfig, wo sie hingehört ! 😂
Teste die mit wow. Das geme kann nur 4 Kerne 😅
Schön vom German Bowl zurück sich das Video geben.
Ja die EPYCs auf AM5 sind schon idk, strange. xD
Was auch noch interessant wäre, wäre der 8400F
das schiefe Cinebench Fenster macht mich total fertig :o
Erst like dann schauen 💪
Klingt wie ne Crysis 1 CPU wenig Kerne Ultra hohe Taktrate :)
Ich erinner mich dunkle dran das Crysis 1 so schlecht lief selbst auf neuerer Hardware weil die Game Dev's spekuliert haben das die PC Hardware in richtung wenig Kerne Ultra hoher Takt gehen wird was am ende nie passiert ist was dazu führte das Crysis 1 selbst auf moderner Hardware nicht wirklich toll läuft.
11:50 wat für ein Spiel ?
Remnant 2
Remnant 2
ne gute 70€ CPU
Für 160€ + versand
Ich würde es schön finden, wenn es wieder günstige, moderne, einsteiger CPUs geben würde, für so um die 100€. Wäre mega geil für budget builds
Aktuell höchstens 5600x, is aber Am4... Gibt aktuell für 99€
naja einsteiger cpu wäre eher noch unter 100€...so 75€ maximal
@@Knebebelmeyer heutzutage leider echt schwierig, zumindest in Deutschland
Habe mir 2017 oder war es 2016 mal einen FX 6300 gekauft für 68€. OK der war schon paar Jahre alt. Aber günstig. Aktuell nutze ich eine 11400f der hat mal glaube ich 120€ gekostet dieses Jahr. Der gibt es noch für 97€ bei Mindfactory und ist von 2021.
Oder sind Prozessoren gemeint die dieses Jahr auf den Markt kommen und dann 100€ kosten?
Muss sagen das diese Low Budget Lösungen für mich funktionieren. Habe 2016 unter 300€ bezahlt für das aufrüsten und jetzt knapp über 300€.
Was will man bitte mit 100€ CPUs? Damit kann man nichts im Gaming reizen. Damit kann man nur schlecht Zocken. Für Büro vollkommen ok, aber fürs Zocken MUSS man Geld in die Hand nehmen.
Das Problem in Valorant (und vermutlich auch in anderen Games) sind nicht die fehlenden Kerne sondern der halbierte L3 Cache. 32mb vs 16mb sind schon ordentlich. Hätte man der Cpu den 32mb l3 cache gegeben wäre die cpu nach dem oc vermutlich sogar schneller als der 7600x.
Ein* mein lieber Roman :P
Mein Ryzen 7800X3D von 2024 ist auch "Made in China". Das ist nichts besonderes.
Also "made in Taiwan" wird einfach zu "made in China" umformuliert, wenn's nach China verkauft werden soll? 😂
es steht bei beiden Ryzen aber "made in Malaysia" drauf, nicht Taiwan. nur beim 7000er "diffused in Taiwan" 😉
Taiwan ist China, macht also keinen Unterschied.
Aus meiner sicht ist das eher ein ryzen 3