Dieses Format gehört zu meinen Favoriten auf deinem Kanal, Grafikkartenmodding find immer sehr interessant und es ist cool, zu sehen, was man aus der Hardware alles rausholen kann, wenn man die Limits verschiebt oder entfernt!
Moin wollte nur mal sagen, dass so wie du dein Kanal betreibst, mit videoschnitt, Kameraeinstellungen und Erklärungen einfach extreme unterhaltsam ist. Ich selbst hab meinen ersten Pc 1997 gebaut und den letzten 2004 . aber dank Dir und auch anderen mit Kaktus im Hintergrund bleibt man immer auf den laufenden. ps Nemo mein Kater ist immer dabei und wir freue uns aufs nächste Video
OC ist immer wieder richtig nice, aber ich hab eines gelernt, seitdem ich dann schon den Strom selbst zahlen muss: Da tunt man lieber seine Hardware auf Effizienz. Aber trotzdem immer wieder geil, wenn man doch einen guten Chip erwischt hat und mit Tweaken ein gutes Performanceplus erzielen kann. Und natürlich darf der Katzencontent nicht fehlen! 😂
Hi, sehr cooles Video war nur ein wenig traurig es nicht ins Bild geschafft zu haben als du die Rangliste angezeigt hast (ich war nur ein paar Plätze weiter oben) 😂 Wollte nur sagen, dass man im 3DMark oben links den „search mode“ auf „Leaderboard“ stellen kann, dann wird von jedem User nur noch der beste Run angezeigt. Mein aktuell bester Run war im übrigen mit meiner Taichi auf min500-max3400 und vram auf 2770 FT und brachte 18571 Grafikpunkte ein. Der Gain im EVC war dabei auf 300 und laut hwinfo ist die Karte damit nie ins Limit gelaufen. Hab leider noch keinen coolen Wattmesser um den Verbrauch genau zu sehen aber total system draw war über 900w 😅
Hey Roman, du kannst mit einen Registry Eintrag ein eigenes Powerlimit festlegen (Ist zwar etwas arbeit Hex zu lesen, aber einfach 01 FF oder sogar 0F FF als Target zu setzten ist schon Geil). Jedenfalls hatte es bei meiner 6900XT geklappt und sollte auch bei der 7000er Reihe funktionieren
cool zu sehen, dass hexedit immer noch ein so mächtiges tool ist, wie früher. was ich damit in den letzten 30 jahren schon für schindluder getrieben hab.
Passt ja zu den Gerüchten dass die RTX 4090 600W ziehen sollte und Amd ebenfalls in die Richtung gehen hätte können, es aber nicht wirklich konnte weil die Chips die anvisierten Taktraten nicht erreichten. Dazu dann noch der scheinbar abgesagte Cache oben drauf und ne 7950XTX draus gemacht und sie wäre parrie gewesen mit Nvidia.
Die GCDs erreichen den Takt ja offensichtlich schon, nur die Effizienz geht zum Fenster raus. Wäre also schon denkbar, die Karte mit einem 600W Bios unter's Volk zu jubeln, aber wie AMD schon sagte, dann eben nicht für 999 $ MSRP, dafür würde die BoM einfach zu hoch. Da kann man es schon verstehen, dass AMD lieber den Weg geht, die 4090 ihr Ding machen zu lassen und lieber die 4080 saudumm aussehen zu lassen. Und was die V-Cache microbumps auf den MCDs angeht: Futureproofing, nachgeschobene 7x50er - wer weiß das schon. Ich würde sogar noch auf etwas anderes tippen.
Schon stark der Katzencontent, die 7900XTX war nette Deko Wenn ich daran denke, dass man vor paar Jahren sich noch über 2GHz GPU Clock gefreut hat und mittlerweile mit OC 3,3GHz möglich sind...
Schön das beim Vorzeigeserver von Hetzner der Luftstrom völlig vom gesleevten ATX24 Pin Kabel unterbrochen ist :D Wer macht denn sowas?? (min 0:52) Edit: Krasse Leistungsaufnahme :D Das sind bei 12V über 50A! Wird da deine Messplatine nicht heiss?
Mich würde mal ein Vergleichsvideo von AMD und Nvidia Platinen also Aufbau und Funktion von Grafikkarten interessieren. Würde gerne mal wissen warum die von Nvidia deutlich kleiner sind
Hey Roman vielleicht klappt's ja dieses Mal. Woher bezieht ihr die Male PCB Mini fit Jr. Molex connector für das WireView Modul? Bin schon seit einiger Zeit danach auf der Suche finde aber nichts zu kaufen... Grüße
Bei RS-Components oder Mouser wirst du mit Sicherheit fündig. Sie werden sicher per Distributoren alle elektrischen Komponenten beziehen. Bei Mouser kann man zumindest als Privatperson noch bestellen wobei bei RS-Components must du eine Firma besitzen oder halt jemanden kennen der es für dich Bestellen kann.
@@marcelwinkelhofer Servus! Also ich hab schon einige Zeit erfolglos auf Mouser, RS, Digikey und Co gesucht, natürlich wäre ich über einen link sehr dankbar. Aber auch im Molex Produkt portfolio für Mini fit Jr. bin ich nicht fündig geworden.
@@der8auer Danke für die Antwort Roman, Bei dieser Stückzahl komme ich nicht mal über meine Arbeit an solche Connector, auch nicht über Sample :/. Ich nehme an Astron selbst macht das über eine Anfrage an Molex oder? Für dich macht das natürlich Sinn schätze ich, wenn du immer 3 auf jedem WireViewer hast bekommt man schnell eine Stückzahl zusammen mit der man an die MOQ kommt. Musst aber trotzdem einige fertigen :). Dann müssen wohl stecker aus Adaptern ausgelötet werden. Schade eigentlich hatte gehofft das es das sicher gut zu kaufen gibt. Grüße
Einfach , ich glaube links oben, auf Leaderboard klicken, dann werden nur die jeweils besten Ergebnisse der einzelnen User angezeigt . Ansonsten , sind das gute Nachrichten😀
7:51 ach der shutdoen kam durchs netzteil? Ich habe bei manchen VR spielen ab und an mal die selben symptome. Rechner aus, wieder an.....alsp man denkt er ist an aber ist es gar nicht. Rgb Beleuchtung ist an und die Lüfter drehen alle auf volllast. War das dnan eine Überbelastung des netzteils oder kam es vielleicht mit einer steomspitze nicht klar?
ja ist schon komisch bei einem 1600W Netzteil. Hatge ich komischerweise auch schonmal mit einem 1300W Netzteil. Also ob es wirklich das Netzteil oder irgendeine Schutzschaltung der Karte ist, ist immer noch ungeklärt. Danke AMDip für so einen grottenschlechten Suplort und fehlende Dokumentation.
Crossfire funktioniert nicht mehr. Ist im Treiber nicht mehr verfügbar. Bräuchtest dann eine Software die beide GPU's nutzt. Da gibt es aber kaum welche von.
Besten Dank für das Video. Weil ich hier gesehen habe, dass meine wassergekülte 7900 xtx zwischen GPU Temp und Junction Temp einen grösseren Unterschied hatte als die Karte im Video, habe ich meine Karte mit Liquid Metal versehen. Gemäss vielen Meinungen im Internet sollte es kaum etwas verbessern. Bei mir ist die Karte anstelle von 71°C nur noch
Cooles Video! Aber gerade weil AMD ja im Raytracing hinterherhängt, wäre ein wie gut ist Raytracing mit max OC auch ein guter Bonus fürs Video! z.B. Port Royal Ergebnis.
Hi Roman, ist zwar jetzt komplett Off Topic, aber vielleicht hast du (oder die Community) ja ne Idee: Denkst du kommt von AMD eine APU Variante für den Ryzen 9 7845HX, (ähnlich dem 5700G) die man auch normal in AM5 Boards verbauen kann? Hab auch schon bei AMD gefragt, bislang ohne Antwort, vlt weiß ja jemand mehr. Thx :)
Ich will Hetzner nicht mangelndes Know-How unterstellen, aber das Videomaterial ist - sagen wir - unglücklich gewählt. Der passive Heatsink ist zu 2/3 vom 24-poligen Kabel abgeschattet und bekommt kaum Luft. 😬
wenn ich das richtig verstanden habe bei igor, der hat jetzt mehrere videos mit wärmebildkamera gemacht dass die stecker geschmolzen sind liegt nicht am stecker dirket oder an die unfähigkeit der menschen sondern an der bescheidenen kühlung der widerstände spulen usw die direkt hinter dem stecker hocken. wenn da 600w durch geprügelt werden, wird die platine exorbitant heiß einige der bauteile da werden über 100grad heiß und wenn diese wärme in den stecker kriecht is es logisch dass da was schmilzt und abfackelt. weder die wasserblocks noch die hersteller der kühler haben den bereich mit einer kühloption versehen. in seinem test das zumindest über die backplate abführen zu können durch wärmeleitpads bringt ein temperaturunterschied von um die 15kelvin und wenn das stimmt was er da in den charts usw gezeigt hat, dass er das nvidia schon vor release gesagt hat bzw die das selbst gesehen haben, dass da so ein verlust an abwärme entstehen kann und nichts getan haben um schäden usw zu verhindern.
Krass das ne Grafigkarte so viel Strom brauchen kann. Weist du von Temperaturproblemen bei einer rx 7900 xt oder betrifft des wirklich nur rx 7900 xtx :)?
Das Elmor EVC steht als "discontinued" und ausverkauft auf der Seite :(. Kommt das nochmal wieder? Möchte das gern mit meiner 3090 nutzen zum experimentieren. :)
Hey Roman wieder mal ein sehr cooles und vorallem informatives Video von dir! 👌 Aber mal was anderes wie sieht es denn mit dem Delid Die Tool für die 13. Generation von Intel aus ? 😅 Bei Thermal Grizzly ist das teil ja quasi schon "gelistet" aber kannst du sagen wie lange es noch ca. dauern wird bis man das teil akufen kann ? AUf jedenfall noch ein schönes Restbergfest bzw dann morgen einen guten Vizefreitag 😂
@@der8auer ahh alles klar, vielen Dank für die Info 👍 Ich schaue schon so gut wie jeden Tag im Caseking Shop vorbei ob es denn dort endlich zum Kauf gelistet ist 😂 Hatte mich schon gewundert gehabt da du das in einem deiner Videos schon vor etwas länger Zeit Mal angekündigt hattest das die Teile quasi in der Produktion stecken und das der Delidder für die Ryzen 7000 CPU's schon zum Kauf verfügbar ist.😅
menst du das würde mit ner ,merc 310 mit wasserkühlung funktionieren denn trotz power bios das die karte eben über 350 watt zulässt ist mein chip bei 60 grad für ne xtx guter wert
Da der Header zum default Layout von Navi 3 gehört solltest du ihn auch auf deiner Merc310 finden und solage du fleißig kühlst gibt es auch kein Problem mal ein paar Watt mehr zu ziehen
so eine software mit meine gpu mit wakü würde mich auch mal reizen im itx case wenn überlege das sie auf 1900 läuft wegen der thermischenbelastung und in einem guten großen case locker 2800-3000 gingen was bei meiner rx6700xt oc von asrock immerhin noch 11% mehr leistung wären aber davon kann ich träumen mit meinem 400mts underclocking und -100mv uv 🤣 vorher hatte sie 95c 111junk und selbst da hatte die nie runtergetaktet :D
Vieleicht kann mir Jemand helfen.. ich würde gerne Temperatur Sensoren in den PC bauen und mit dem free Fan Control Tool steuern. Könnt ihr mir was empfehlen? Kann auch teurer sein... eifach zu installieren wäre geil. Danke 🫶
Hallo Roman. Würden sie bitte mal bei Hetzner anrufen und den von ihnen vorgestelten Server überarbeiten lassen. Im Werbeviedeo ist das 20 Pin Motherboardstromkabel quer vor den Lüfter gelegt der den CPU Kühler anblasen soll. Das wird so nicht funktionieren!
Ist nicht unbedingt vergleichbar, aber mit einer 4090 bei 2535 MHz @ 0.875V erreiche ich im Time Spy Extreme 18334 Punkte beim Grafik Score und das bei nur 280W Verbrauch lt. GPU-Z. Würde man die 7900XTX tatsächlich daily so einsetzen, würde es bei den aktuellen Strompreisen nicht lange dauern bis man auf den Preis einer 4090 kommt
Nur gerüchteweise. Habe ich so gehört. AMD strebt bei der 8000 3,5ghz mit 300 watt beim Topmodell an. Anstreben heißt nicht erreichen, aber das könnte dann durchaus interessant werden.
Moin! Ich plane mir den Ryzen 9 7950X3d oder den i9 13 900K zu holen, ich will auch wärend dem Zocken streamen. Was ist in dem Fall besser? Schönen Tag dir noch.
Der r9 x3d hat im Moment noch ein Problem mit aktuellem Windows, wobei bei Games die Kerne auf dem Chiplet ohne extra Cache geparkt, also nicht nutzbar gemacht werden. (Der 7950X3d hat zwei solcher Chiplets, einen mit Cache und einen ohne, jeweils Acht Kerne.) Das heißt in Games wird der 16 Kerner effektiv zum 8 Kerner. Nicht gut wenn du zocken und gleichzeitig streamen willst. Würde also eher zum i9 greifen, da der diese Problematik nicht hat. Das gilt aber nur, wenn du unbedingt das Rendering auf der CPU über x264 machen willst. Würde ich mit aktueller Nvidia GPU (also alles ADA und höher) nicht machen, da die Hardware Encoder echt gut geworden sind.
@@Tim_2060 ? Wenn gestreamt wird und gezockt, dann wird das System doppelt belastet außerdem ist gerade wegen dem großen 3DV Cache die AMD besser im Gaming.
@@chessprince1164 Aber genau wenn gezockt wird sind bei den neuen 3dvcache cpus die hälfte der kerne deaktiviert - da hilft es nichts das das game 10% schneller läuft. Nur beim Zocken ist das natürlich kein Problem. Und wie oben erwähnt benutzt heutzutage sowieso fast jeder NVENC und gut ist, dafür brauch man keinen i9 oder r9 da reicht locker ein i5 oder vgl.
Hersteller: *limitieren die Leistungsaufnahme, damit die Grafikkarte nicht so viel Strom wie eine Kleinstadt zieht Roman: Das ist jetzt was persönliches.
@der8auer Könntest Du uns vieleicht erleuchten in bezug auf Diablo4 & 3080Ti death? Ich selber habe auch eine 3080Ti und würde ungern meine Grafikkarte auf spiel setzen.
@@itsTyrion in manchen spielen hat die gpu 3050 mhz erreicht aber eher 2850 mhz nach ca 30min furmark (meistens stelle ich das power target auf 350w 450w wenn ich VR Anwendungen nutze )
Könnte es sein, dass Navi 31 gar kein Architektur/Treiber Problem hat, sondern durch das Chiplet-Design einfach nur massiv ineffizient ist und sich AMD daher für geringeren Takt und geringere Verlustleistung entschieden hat?
Hallo, ich weiß es passt nicht zu diesem Thema. Leider bin ich so ratlos das ich es trotzdem hier versuche. Seit einiger Zeit benötigt mein PC EXTREM lang (teilweise 3-4min.)zum herunterfahren. Ganz im Gegenteil zum Hochfahren, denn da ist er soll schnell wie gewohnt. Alle Komponenten funktionieren tadellos. Über Hilfe würde ich mich sehr freuen. Meine Setup: - Win 11 - MSI B450 Pro VDH Max - Ryzen 5 3600 (Box) - 4x GSkill Aegis DDR4 3600 Cl16 - Intel 660P M.2 NVME 512Gb - Gigabyte RTX 2070Super - be quiet! Pure Power 11 600W 80Plus Gold
mach mal ein portel test mit der karte und mit der 4090 ich will wissen ob sie der ram verbrauch bei RTX reduziert oder verbessert und was die AMd karte unter einem echten RTX und RT test kann als in GTX TEST bitte mach das ist ja schill wie man AMd nur auf GTX beschränklt und und so aussagen macht wie geil die karte doch ist. wird die AMd karte die 26+ halten können oder wird sie komplett unter gehen. das ist soch die frage der fragen ich glaube das time spy auch nur ein GTX tester ist als nix für RTX. auch wen es die RTX patsches gab reduzieren sie so weit ich weiß nicht den RAm verbrauch mit hilfe der KI. ich hoffe das dis wenigsten das AMD gepatschte spiel nämlich macht Portl RTX. oder ob NVIDIA so wie alle anderen spile entwikler sind den weg einfach gemacht hat. techik muss genutzt werrden und nur lere versprechne gemacht werden. hinter frage ist besser als einfach nur annehmen weil man was gestartet hat und man werte bekommt. seit es AMd und NVIDIA gibt wird das einfac gemacht auch wen die technik komplett unterschidlich ist und man nicht weiß ob NVIDIA cuda nutzt oder doch RTX oder sogar beide techniken heute einfach mischt. man braucht für test spile die die technik nutzen die die karten auch besitzen und voll aus kosten. leider testet keiner in den NVIDIA gepatschten spielen oder die AMD RT optimiten spielen. man nimt einfach spiel xyz und vergleich hint die technik was das spiel nutzt zu kontrollieren. glaubst du das RTX nicht sogar windows verbessern kann in vielen punkten wen RTX genutz wird wie die CPU fähigkeit der GPU oder das nutzen der KI für aufgabeben wie daten rettung vergleuichen oder sicherung. windows nutz heute nix.
Portal RTX ist von Nvidia entwickelt. Denkste echt, dass AMD Karten da sonderlich gut abschneiden werden? Und benutzte RTX als synonym für Raytracing? Was zur Hölle...
Wir hatten bis vor 2 Wochen noch ne Kombination aus I7 7700K und ner RTX3070 Bottleneck sein Vater GPU im timespy bei 14k CPU war bei 4,5K Jetzt auf I7 13700K gewechselt und Performance abartig krass Aber was erwartet man wenn man von 4 auf 16 Kerne wechselt😂
Hey du kennst dich ja so gut mit Grafikkarten aus wieso bekommen Asus Grafikkarten nach und nach immer spulenfippen was random laut und leise ist??? bei meiner 970 so wie 2070 hatte ich vorher kein spulenfippen milterweile fast immer, manchmal zock ich WOW da hört man sie gar nicht manchmal ist es so laut das man es sogar im bad hört. was kann man da machen? das find ich kurios., weil die grafiklast gleich ist. beides mal volles Hauptstadt in WOW wo sie man leise & laut ist, GPU asulastung wsar auch gleich, hab ich überprüft. mir will das nicht in kopf wieso das so ist x.x
@@Unbreakable.44 Achso, deine 2070 hat erst nach zwei Jahren Spulenfiepen entwickelt? Dann könnts eventuell an den thermalpads auf den Spulen oder an deinem Netzteil liegen
der8auer warum schraubst du Male Male auf die Karte? Wenn du die Flussrichtung weißt, dann könntest du vom Kühler Ausgang (also in die Hardware) Male machen und in den Kühler Eingang den Female Anschluss. So mach ich es jedenfalls. Aber stimmt schon, wenn die Flussrichtung falsch ist geht das so schneller.
Ich versuche seit 2 Wochen die Karte NICHT zu kaufen weil noch keine vollständige wakü vorhanden ist. Und dann kommt du mit diesem Video daher und machst einem die Karte noch schmackhafter. Schon echt geil, was diese Karte kann. Sind 3x 8pin nicht sogar besser? Da hat man 3x3 12V Leitungen, beim 12pin aber nur 6.
@HumanBeing heißt das nicht grade, dass der 8pin effizient ist wenn er sich mit nur 1 Kabel noch nicht zu sehr erwärmt? Mehr Verlust heißt doch mehr Wärme, und effiziente Verbindungen bleiben Kühler.
Scheißegal, der 12 Pin Stecker macht auch die 1000 W mit wenn sein muss ^-^ Bei der Leistungsaufnahme gehen dir aber eh eher die mosfets hoch als der Stecker. Kupfer ist ziemlich leitfähig und dementsprechend zieht sich auch die Kälte durchs ganze Brett bis zu einem gewissen Grad natürlich
Habe ich das richtig verstanden, wenn wir ein Messgerät anschließen zieht es quasi direkt die Leistung aus der grafikkarte die es zum Anzeigen braucht? Das Gerät selbst zeigt den tatsächlichen werd aber die grafikkarte hat weniger Leistung in dem Moment wo sie gemessen wird? Einfach nicht hingucken😂
Geiles Katzenvideo, der kleine Rest ist natürlich auch beeindruckend.
das beste Katzenvideo seit langen, ich bin begeistert!
Irgendwann schau ich mir mit meinen Enkeln die vielen Katzenvideos an 😅.. das wird cool 😹😹😹
Ich liebe diese Katzenvideos
Seit wann geht es hier eigentlich um Elektronische Geräte ? 😂😂😂 ❤
Katzenvideos sind für mich unnötig. Warum muß dieser Kommentar so viel likes haben?
Dieses Format gehört zu meinen Favoriten auf deinem Kanal, Grafikkartenmodding find immer sehr interessant und es ist cool, zu sehen, was man aus der Hardware alles rausholen kann, wenn man die Limits verschiebt oder entfernt!
Moin wollte nur mal sagen, dass so wie du dein Kanal betreibst, mit videoschnitt, Kameraeinstellungen und Erklärungen einfach extreme unterhaltsam ist. Ich selbst hab meinen ersten Pc 1997 gebaut und den letzten 2004 . aber dank Dir und auch anderen mit Kaktus im Hintergrund bleibt man immer auf den laufenden. ps Nemo mein Kater ist immer dabei und wir freue uns aufs nächste Video
Ich muss schon sagen dass das echt schöne Socken sind. Mal abgesehen von dem interessanten Video, worum es eigentlich geht geht. 😂🎉
OC ist immer wieder richtig nice, aber ich hab eines gelernt, seitdem ich dann schon den Strom selbst zahlen muss: Da tunt man lieber seine Hardware auf Effizienz. Aber trotzdem immer wieder geil, wenn man doch einen guten Chip erwischt hat und mit Tweaken ein gutes Performanceplus erzielen kann.
Und natürlich darf der Katzencontent nicht fehlen! 😂
Hi, sehr cooles Video war nur ein wenig traurig es nicht ins Bild geschafft zu haben als du die Rangliste angezeigt hast (ich war nur ein paar Plätze weiter oben) 😂
Wollte nur sagen, dass man im 3DMark oben links den „search mode“ auf „Leaderboard“ stellen kann, dann wird von jedem User nur noch der beste Run angezeigt.
Mein aktuell bester Run war im übrigen mit meiner Taichi auf min500-max3400 und vram auf 2770 FT und brachte 18571 Grafikpunkte ein.
Der Gain im EVC war dabei auf 300 und laut hwinfo ist die Karte damit nie ins Limit gelaufen.
Hab leider noch keinen coolen Wattmesser um den Verbrauch genau zu sehen aber total system draw war über 900w 😅
Die Katze ist einfach ein einziger Vibe. Es ist dadurch so entspannend deine Videos zu schauen. 😁
Hey Roman, du kannst mit einen Registry Eintrag ein eigenes Powerlimit festlegen (Ist zwar etwas arbeit Hex zu lesen, aber einfach 01 FF oder sogar 0F FF als Target zu setzten ist schon Geil). Jedenfalls hatte es bei meiner 6900XT geklappt und sollte auch bei der 7000er Reihe funktionieren
Genau das wollte ich bei der 1080 machen, konnte es aber nie umsetzen.
Aber geil dass das wirklich funktioniert.
@WT95 wäre ja auch zu schön gewesen
@WT95 Sowas finde ich sehr schade. Aber vielleicht findet schlaue Leute eine weitere Lösung
cool zu sehen, dass hexedit immer noch ein so mächtiges tool ist, wie früher. was ich damit in den letzten 30 jahren schon für schindluder getrieben hab.
hat da jemand noch paar infos zu? meine GPU ist auf 350w begrenzt, da steckt aber auf jeden fall noch mehr leistung drin.
Danke fürs pushen der 7900XTX 🙌 du musst im Scoresheet Leaderboard einstellen, dann kommt nur der beste Run jeder Person...
Passt ja zu den Gerüchten dass die RTX 4090 600W ziehen sollte und Amd ebenfalls in die Richtung gehen hätte können, es aber nicht wirklich konnte weil die Chips die anvisierten Taktraten nicht erreichten.
Dazu dann noch der scheinbar abgesagte Cache oben drauf und ne 7950XTX draus gemacht und sie wäre parrie gewesen mit Nvidia.
Die GCDs erreichen den Takt ja offensichtlich schon, nur die Effizienz geht zum Fenster raus. Wäre also schon denkbar, die Karte mit einem 600W Bios unter's Volk zu jubeln, aber wie AMD schon sagte, dann eben nicht für 999 $ MSRP, dafür würde die BoM einfach zu hoch. Da kann man es schon verstehen, dass AMD lieber den Weg geht, die 4090 ihr Ding machen zu lassen und lieber die 4080 saudumm aussehen zu lassen.
Und was die V-Cache microbumps auf den MCDs angeht: Futureproofing, nachgeschobene 7x50er - wer weiß das schon. Ich würde sogar noch auf etwas anderes tippen.
Kann der 4090 doch in vielen das Wasser reichen. Nehme sich beide nichts. Sind oft gleich schnell und saugen dafür beide viel Strom. 🤷🏻♂️👍
Schon stark der Katzencontent, die 7900XTX war nette Deko
Wenn ich daran denke, dass man vor paar Jahren sich noch über 2GHz GPU Clock gefreut hat und mittlerweile mit OC 3,3GHz möglich sind...
Schön das beim Vorzeigeserver von Hetzner der Luftstrom völlig vom gesleevten ATX24 Pin Kabel unterbrochen ist :D Wer macht denn sowas?? (min 0:52)
Edit: Krasse Leistungsaufnahme :D Das sind bei 12V über 50A! Wird da deine Messplatine nicht heiss?
Mich würde mal ein Vergleichsvideo von AMD und Nvidia Platinen also Aufbau und Funktion von Grafikkarten interessieren. Würde gerne mal wissen warum die von Nvidia deutlich kleiner sind
Der8bauer's Stromrechnung 📈📈📈
Absolut geil! AMD macht einfach geile Chips 👍 Und deine Katzen sind süss wie immer
*süß
Hey Roman vielleicht klappt's ja dieses Mal. Woher bezieht ihr die Male PCB Mini fit Jr. Molex connector für das WireView Modul? Bin schon seit einiger Zeit danach auf der Suche finde aber nichts zu kaufen...
Grüße
Bei RS-Components oder Mouser wirst du mit Sicherheit fündig. Sie werden sicher per Distributoren alle elektrischen Komponenten beziehen. Bei Mouser kann man zumindest als Privatperson noch bestellen wobei bei RS-Components must du eine Firma besitzen oder halt jemanden kennen der es für dich Bestellen kann.
Über Astron. Aber MOQ fängt 5-stellig an. Also weiß nicht ob dir das hilft.
@@marcelwinkelhofer Servus!
Also ich hab schon einige Zeit erfolglos auf Mouser, RS, Digikey und Co gesucht, natürlich wäre ich über einen link sehr dankbar. Aber auch im Molex Produkt portfolio für Mini fit Jr. bin ich nicht fündig geworden.
@@der8auer Danke für die Antwort Roman,
Bei dieser Stückzahl komme ich nicht mal über meine Arbeit an solche Connector, auch nicht über Sample :/.
Ich nehme an Astron selbst macht das über eine Anfrage an Molex oder? Für dich macht das natürlich Sinn schätze ich, wenn du immer 3 auf jedem WireViewer hast bekommt man schnell eine Stückzahl zusammen mit der man an die MOQ kommt. Musst aber trotzdem einige fertigen :).
Dann müssen wohl stecker aus Adaptern ausgelötet werden. Schade eigentlich hatte gehofft das es das sicher gut zu kaufen gibt.
Grüße
@@PressPlayism Die Frage ist was für welche genau suchst du denn es gibt ja zwei pollige oder mehr.
Hey Roman Geiles Video. Kriegt man den netten Display zum auslesen der Leistungsaufnahme vom GPU zum Kaufen ?
wenn man dumm ist nicht
Was hat das mit dumm zu tun...Finde es als ein guter Gimmick
Mit meiner Nitro+ XTX kann ich auch knapp 660W durchbrezeln, der Kühler macht das easy mit :D
Einfach , ich glaube links oben, auf Leaderboard klicken, dann werden nur die jeweils besten Ergebnisse der einzelnen User angezeigt .
Ansonsten , sind das gute Nachrichten😀
Wiedermal spitzen Video, ich wollte mal Fragen wann es den WireView mit den 3x8pin zu kaufen gibt. Grüße
Off-Topic: Wann ist deruler wieder verfügbar? Wird der nochmal wiederbelebt?
7:51 ach der shutdoen kam durchs netzteil?
Ich habe bei manchen VR spielen ab und an mal die selben symptome.
Rechner aus, wieder an.....alsp man denkt er ist an aber ist es gar nicht.
Rgb Beleuchtung ist an und die Lüfter drehen alle auf volllast.
War das dnan eine Überbelastung des netzteils oder kam es vielleicht mit einer steomspitze nicht klar?
ja ist schon komisch bei einem 1600W Netzteil. Hatge ich komischerweise auch schonmal mit einem 1300W Netzteil. Also ob es wirklich das Netzteil oder irgendeine Schutzschaltung der Karte ist, ist immer noch ungeklärt.
Danke AMDip für so einen grottenschlechten Suplort und fehlende Dokumentation.
Frage: theoretisch kann man mit rx 7000 er karten auch noch crossfire betreiben oder?
Könnte man da nicht krasse 3dmark rekorde aufstellen?
Crossfire funktioniert nicht mehr. Ist im Treiber nicht mehr verfügbar. Bräuchtest dann eine Software die beide GPU's nutzt. Da gibt es aber kaum welche von.
Ok krass, mit den 6000er karten ging das aber noch, deswegen wundert mich das etwas.
Besten Dank für das Video. Weil ich hier gesehen habe, dass meine wassergekülte 7900 xtx zwischen GPU Temp und Junction Temp einen grösseren Unterschied hatte als die Karte im Video, habe ich meine Karte mit Liquid Metal versehen. Gemäss vielen Meinungen im Internet sollte es kaum etwas verbessern. Bei mir ist die Karte anstelle von 71°C nur noch
Wir sind für die Katzen hier Roman, dein Fachwissen ist die Kirsche auf dem Eisbecher.
AMD: Wir bauen keine Karte die an die 4090 ran kommen soll.
Roman: *MOMENT!!*
Kann man mit der karte dann nebenbei noch Gras anbauen? Frage fürs BKA.
Respekt, während dem Löten mit der Katze gespielt. 👍
28% extra Performance ist Wahnsinn
Cooles Video! Aber gerade weil AMD ja im Raytracing hinterherhängt, wäre ein wie gut ist Raytracing mit max OC auch ein guter Bonus fürs Video! z.B. Port Royal Ergebnis.
Mal wieder ein super Video
2:54 süße socken :D
wie groß ist eigentlich das Temperatur Delta bei der Kühlflüssigkeit?
0:50 also wie soll der CPU kühler Frischluft bekommen wenn da das MB Kabel alles verdeckt ?
Die LOOP 2 Temperatur mit 2008°C find ich schon etwas hoch ;)
Hi Roman, ist zwar jetzt komplett Off Topic, aber vielleicht hast du (oder die Community) ja ne Idee: Denkst du kommt von AMD eine APU Variante für den Ryzen 9 7845HX, (ähnlich dem 5700G) die man auch normal in AM5 Boards verbauen kann? Hab auch schon bei AMD gefragt, bislang ohne Antwort, vlt weiß ja jemand mehr. Thx :)
Hallo
Wollte die mal fragen kennst du die amd radeon 4870 iq4 noch ?
Und ein MSi p 45 platinum Bord :)
wann kommt eigentlich das wireview mit 3x8pin hübsch verpackt in bissl plastik? Bin ultra scharf drauf 🤩
Ich will Hetzner nicht mangelndes Know-How unterstellen, aber das Videomaterial ist - sagen wir - unglücklich gewählt. Der passive Heatsink ist zu 2/3 vom 24-poligen Kabel abgeschattet und bekommt kaum Luft. 😬
Es ist offensichtlich ein Ausstellungsstück.
Ja richtiger Trigger 😅
wenn ich das richtig verstanden habe bei igor, der hat jetzt mehrere videos mit wärmebildkamera gemacht
dass die stecker geschmolzen sind liegt nicht am stecker dirket oder an die unfähigkeit der menschen sondern an der bescheidenen kühlung der widerstände spulen usw die direkt hinter dem stecker hocken.
wenn da 600w durch geprügelt werden, wird die platine exorbitant heiß
einige der bauteile da werden über 100grad heiß und wenn diese wärme in den stecker kriecht is es logisch dass da was schmilzt und abfackelt.
weder die wasserblocks noch die hersteller der kühler haben den bereich mit einer kühloption versehen.
in seinem test das zumindest über die backplate abführen zu können durch wärmeleitpads bringt ein temperaturunterschied von um die 15kelvin
und wenn das stimmt was er da in den charts usw gezeigt hat, dass er das nvidia schon vor release gesagt hat bzw die das selbst gesehen haben, dass da so ein verlust an abwärme entstehen kann und nichts getan haben um schäden usw zu verhindern.
Hab mal ne frage wenn ich nen 3000 ram drin hab kann die FCLK Frequency nicht höher sein als 1500 oder doch ?
GZ, du hast es geschafft ein 1,6KW-Netzteil zu überlasten. Eigentlich ist das völliger Irrsinn, aber doch interessant zu sehen was so möglich ist.
Krass das ne Grafigkarte so viel Strom brauchen kann.
Weist du von Temperaturproblemen bei einer rx 7900 xt oder betrifft des wirklich nur rx 7900 xtx :)?
konnen sie mal ein erklär video zum Elmor EVC machen wie man es an lötet und wie es funkt uniert
Das Elmor EVC steht als "discontinued" und ausverkauft auf der Seite :(. Kommt das nochmal wieder? Möchte das gern mit meiner 3090 nutzen zum experimentieren. :)
elmorlabs.com/product/elmorlabs-evc2se/
Hey.. Weiß jmd welche Quickconnects hier benutzt werden? Hab derzeit Eisnapfen aber hab das Gefühl das echt mega schlecht sind für durchfluss.
Hey Roman wieder mal ein sehr cooles und vorallem informatives Video von dir! 👌 Aber mal was anderes wie sieht es denn mit dem Delid Die Tool für die 13. Generation von Intel aus ? 😅
Bei Thermal Grizzly ist das teil ja quasi schon "gelistet" aber kannst du sagen wie lange es noch ca. dauern wird bis man das teil akufen kann ? AUf jedenfall noch ein schönes Restbergfest bzw dann morgen einen guten Vizefreitag 😂
Ist seit ca 2 Wochen bei Caseking. Warte nur dass die es im Shop haben 😁
@@der8auer ahh alles klar, vielen Dank für die Info 👍
Ich schaue schon so gut wie jeden Tag im Caseking Shop vorbei ob es denn dort endlich zum Kauf gelistet ist 😂
Hatte mich schon gewundert gehabt da du das in einem deiner Videos schon vor etwas länger Zeit Mal angekündigt hattest das die Teile quasi in der Produktion stecken und das der Delidder für die Ryzen 7000 CPU's schon zum Kauf verfügbar ist.😅
Ich möchte diesen watt kontroller der an den pin anschlüsse angeschlossen ist, mega geil.
menst du das würde mit ner ,merc 310 mit wasserkühlung funktionieren denn trotz power bios das die karte eben über 350 watt zulässt ist mein chip bei 60 grad für ne xtx guter wert
Da der Header zum default Layout von Navi 3 gehört solltest du ihn auch auf deiner Merc310 finden und solage du fleißig kühlst gibt es auch kein Problem mal ein paar Watt mehr zu ziehen
Hey Roman. Hast du schonmal das Video gesehen in dem Henry Cavill sich einen Gaming PC zusammenbaut? Grüße aus Heidelberg
Kann man das Video als Vorlage nehmen ?
Ist es nicht eigentlich so, dass über PCI und den 3 8Pin-Anschlüssen maximal 525W gezogen werden dürfen?
Ja klar aber das hält mehr aus
@@itsTyrion Natürlich sind da noch Toleranzen drin :)
Laut Spezifikation. Aber was sind schon Spezifikationen? 2x8 pin kann auch gerne 800W ab wenn's sein muss xD
Die Dauer ist auch immer eine Frage. Und letztendlich werden die Leitungen einfach nur wärmer. Bei so kurzen Benchmark Runs passiert da nicht viel.
Beste Nerdstuff wo gibt
kannst du es nochmal probieren (kein muss) mit einem chiller ich denke das die 7000 runtertaktet bei den 100c
Dafür ist nichtmal ein Chiller nötig, meine Karte bleibt dank Flüssigmetall und Wasserkühlung auch so bei 1000w unter 100 Grad
0:48 Ich Zahl 20€ mehr wenn das ATX Kabel den Luftstrom nicht mehr blockiert . Habt ihr extra gemacht als Trigger oder ?
Was war noch mal I Quadrat C?
so eine software mit meine gpu mit wakü würde mich auch mal reizen im itx case wenn überlege das sie auf 1900 läuft wegen der thermischenbelastung und in einem guten großen case locker 2800-3000 gingen was bei meiner rx6700xt oc von asrock immerhin noch 11% mehr leistung wären aber davon kann ich träumen mit meinem 400mts underclocking und -100mv uv 🤣 vorher hatte sie 95c 111junk und selbst da hatte die nie runtergetaktet :D
Vieleicht kann mir Jemand helfen.. ich würde gerne Temperatur Sensoren in den PC bauen und mit dem free Fan Control Tool steuern. Könnt ihr mir was empfehlen? Kann auch teurer sein... eifach zu installieren wäre geil. Danke 🫶
es sollte ja bald eine 6600xt kommen, oder ?
Was hat Roman und Data von Star Trek das näste jahrhundert gemeinsam, Sie wurden von Ihrer Katze Dressiert :D
Hallo Roman. Würden sie bitte mal bei Hetzner anrufen und den von ihnen vorgestelten Server überarbeiten lassen. Im Werbeviedeo ist das 20 Pin Motherboardstromkabel quer vor den Lüfter gelegt der den CPU Kühler anblasen soll. Das wird so nicht funktionieren!
Ist nicht unbedingt vergleichbar, aber mit einer 4090 bei 2535 MHz @ 0.875V erreiche ich im Time Spy Extreme 18334 Punkte beim Grafik Score
und das bei nur 280W Verbrauch lt. GPU-Z.
Würde man die 7900XTX tatsächlich daily so einsetzen, würde es bei den aktuellen Strompreisen nicht lange dauern bis man auf den Preis einer 4090 kommt
Was hast denn im normalen Time spy? 🤔
25000 Punkte oder mehr
Man merkt halt vorher war es 8nm vs 7nm jetzt 4nm vs 5/6nm.
@@antimio386 im Time Spy NON Extreme sind es mit dem selben Setup 31418 Grafik-Punkte
Roman, hast du nicht manchmal angst, dass dir sowas in Flammen aufgeht wenn du da soviel Strom durchjagst?
Bei sowas denke ich mir immer die Strom rechnung wirs sich freuen
ist halt ne geile karte, aber 40 grad hotspot mehr als die gpu Temperatur ist schon brutal
Nur gerüchteweise. Habe ich so gehört. AMD strebt bei der 8000 3,5ghz mit 300 watt beim Topmodell an. Anstreben heißt nicht erreichen, aber das könnte dann durchaus interessant werden.
Selbst wenn es am Ende 400 Watt sein sollten, wären 3.5Ghz schon ein sehr ordentliches Ergebnis. Ich bin auf alle Fälle gespannt.
Verstehen sich shiek und die weiße Katze eigentlich?
Moin! Ich plane mir den Ryzen 9 7950X3d oder den i9 13 900K zu holen, ich will auch wärend dem Zocken streamen. Was ist in dem Fall besser? Schönen Tag dir noch.
X3D ist für Zocken+Streamen die deutlich bessere Wahl. Einfach aufgrund des enorm großen L3 Cache von 128Mb. (Mehr als das dreifache als beim i9)
Der r9 x3d hat im Moment noch ein Problem mit aktuellem Windows, wobei bei Games die Kerne auf dem Chiplet ohne extra Cache geparkt, also nicht nutzbar gemacht werden. (Der 7950X3d hat zwei solcher Chiplets, einen mit Cache und einen ohne, jeweils Acht Kerne.) Das heißt in Games wird der 16 Kerner effektiv zum 8 Kerner. Nicht gut wenn du zocken und gleichzeitig streamen willst. Würde also eher zum i9 greifen, da der diese Problematik nicht hat. Das gilt aber nur, wenn du unbedingt das Rendering auf der CPU über x264 machen willst. Würde ich mit aktueller Nvidia GPU (also alles ADA und höher) nicht machen, da die Hardware Encoder echt gut geworden sind.
@@walther2492 der cache bringt beim video encoden halt einfach mal überhaupt nichts lol
@@Tim_2060 ? Wenn gestreamt wird und gezockt, dann wird das System doppelt belastet außerdem ist gerade wegen dem großen 3DV Cache die AMD besser im Gaming.
@@chessprince1164 Aber genau wenn gezockt wird sind bei den neuen 3dvcache cpus die hälfte der kerne deaktiviert - da hilft es nichts das das game 10% schneller läuft. Nur beim Zocken ist das natürlich kein Problem. Und wie oben erwähnt benutzt heutzutage sowieso fast jeder NVENC und gut ist, dafür brauch man keinen i9 oder r9 da reicht locker ein i5 oder vgl.
Schon krass vor paar Jahren 2 Ghz auf der GPU und jetzt schon fast die 3,5 Ghz
Ist bei solchen Strom Hunger von heutigen Karten müssten deutlich mehr Leistungen rauskommen als vor paar Jahren
Hersteller: *limitieren die Leistungsaufnahme, damit die Grafikkarte nicht so viel Strom wie eine Kleinstadt zieht
Roman: Das ist jetzt was persönliches.
Das schreit nach Stickstoff
can you please activate the automatic english subtitles?
He has a totally separate channel for that nowadays :)
@der8auer Könntest Du uns vieleicht erleuchten in bezug auf Diablo4 & 3080Ti death? Ich selber habe auch eine 3080Ti und würde ungern meine Grafikkarte auf spiel setzen.
Soviel Hardware im Katzenvideo 😂 650watt ich schon heftig, bin eher ein Fan vom undervolting mittlerweile. Aber ne hübsche Karte isses schon 🙂
Rip Gordon Moore, jetzt bekommt der Himmel ein CPU Upgrade.
Also meine 7900xtx kann ohne Probleme 446w Ziehen ohne irgendwelche Modifikationen an der gpu
Meine red Devil auch schon auf 470 Watt gehabt 😂😅
Und, wie viele Prozent mehr Leistung und Verbrauch hattest du?
@@itsTyrion in manchen spielen hat die gpu 3050 mhz erreicht aber eher 2850 mhz nach ca 30min furmark (meistens stelle ich das power target auf 350w 450w wenn ich VR Anwendungen nutze )
Die Karte ist Wort wörtlich Devil xD
Katze miaut im Hintergrund, da müsst ihr jetzt durch? Wir sind wegen nichts anderem hier ;-)
Könnte es sein, dass Navi 31 gar kein Architektur/Treiber Problem hat, sondern durch das Chiplet-Design einfach nur massiv ineffizient ist und sich AMD daher für geringeren Takt und geringere Verlustleistung entschieden hat?
Allein schon wegen deiner Katze einen 👍 hoch
Hallo,
ich weiß es passt nicht zu diesem Thema. Leider bin ich so ratlos das ich es trotzdem hier versuche.
Seit einiger Zeit benötigt mein PC EXTREM lang (teilweise 3-4min.)zum herunterfahren. Ganz im Gegenteil zum Hochfahren, denn da ist er soll schnell wie gewohnt. Alle Komponenten funktionieren tadellos.
Über Hilfe würde ich mich sehr freuen.
Meine Setup:
- Win 11
- MSI B450 Pro VDH Max
- Ryzen 5 3600 (Box)
- 4x GSkill Aegis DDR4 3600 Cl16
- Intel 660P M.2 NVME 512Gb
- Gigabyte RTX 2070Super
- be quiet! Pure Power 11 600W 80Plus Gold
schonmal windows neu aufsetzen probiert? undfinger weg von w11 solange du keine E-cores von Intel 12-14gen benutzt!
Gottseidank hab ich damals direkt n 850 Watt Netzteil gekauft 😂
Du meinst extra für die GPU? xD
@@itsTyrion ja :D:D
Ele disse "Tchau"? (he say tchau?) 😱😱😱
mach mal ein portel test mit der karte und mit der 4090 ich will wissen ob sie der ram verbrauch bei RTX reduziert oder verbessert und was die AMd karte unter einem echten RTX und RT test kann als in GTX TEST
bitte mach das ist ja schill wie man AMd nur auf GTX beschränklt und und so aussagen macht wie geil die karte doch ist. wird die AMd karte die 26+ halten können oder wird sie komplett unter gehen.
das ist soch die frage der fragen ich glaube das time spy auch nur ein GTX tester ist als nix für RTX. auch wen es die RTX patsches gab reduzieren sie so weit ich weiß nicht den RAm verbrauch mit hilfe der KI. ich hoffe das dis wenigsten das AMD gepatschte spiel nämlich macht Portl RTX.
oder ob NVIDIA so wie alle anderen spile entwikler sind den weg einfach gemacht hat.
techik muss genutzt werrden und nur lere versprechne gemacht werden. hinter frage ist besser als einfach nur annehmen weil man was gestartet hat und man werte bekommt.
seit es AMd und NVIDIA gibt wird das einfac gemacht auch wen die technik komplett unterschidlich ist und man nicht weiß ob NVIDIA cuda nutzt oder doch RTX oder sogar beide techniken heute einfach mischt. man braucht für test spile die die technik nutzen die die karten auch besitzen und voll aus kosten. leider testet keiner in den NVIDIA gepatschten spielen oder die AMD RT optimiten spielen.
man nimt einfach spiel xyz und vergleich hint die technik was das spiel nutzt zu kontrollieren.
glaubst du das RTX nicht sogar windows verbessern kann in vielen punkten wen RTX genutz wird wie die CPU fähigkeit der GPU oder das nutzen der KI für aufgabeben wie daten rettung vergleuichen oder sicherung. windows nutz heute nix.
Portal RTX ist von Nvidia entwickelt. Denkste echt, dass AMD Karten da sonderlich gut abschneiden werden?
Und benutzte RTX als synonym für Raytracing? Was zur Hölle...
Wer will auch eine Fortsetzung auf flüssig Stickstoff sehen? :)
Coole Socken
Neue Socken in Taiwan gekauft? ;-)
Woher kriege ich diese geile Watt anzeigen am GPU Power Eingang, die 3x 8 Pin Platine ?
Den Wireview von Roman gibts noch nicht. Sollte aber hoffentlich demnächst auf den Markt kommen.
Gibts noch nicht.
Die Einträge sind nicht doppelt. Sind untersch. Knappe runs
Ich hatte bis 2019 noch ne CPU! mit weniger Takt xD (i5-3330)
Wir hatten bis vor 2 Wochen noch ne Kombination aus I7 7700K und ner RTX3070
Bottleneck sein Vater
GPU im timespy bei 14k
CPU war bei 4,5K
Jetzt auf I7 13700K gewechselt und Performance abartig krass
Aber was erwartet man wenn man von 4 auf 16 Kerne wechselt😂
Miedsegadse
Hey du kennst dich ja so gut mit Grafikkarten aus wieso bekommen Asus Grafikkarten nach und nach immer spulenfippen was random laut und leise ist??? bei meiner 970 so wie 2070 hatte ich vorher kein spulenfippen milterweile fast immer, manchmal zock ich WOW da hört man sie gar nicht manchmal ist es so laut das man es sogar im bad hört. was kann man da machen? das find ich kurios., weil die grafiklast gleich ist. beides mal volles Hauptstadt in WOW wo sie man leise & laut ist, GPU asulastung wsar auch gleich, hab ich überprüft. mir will das nicht in kopf wieso das so ist x.x
Spulenfiepen hängt für gewöhnlich an den fps die deine Karte auf den Tisch bringt
@@omegaPhix sprich die wechseln dann ist das weg wieder? :D
@@Unbreakable.44 Ist Glücksspiel ob ne andere Karte Spulenfiepen hat oder nicht
@@omegaPhix Nah sie hatte es ja nicht., das kam erst nach 2 jahren! deswegen frag ich :x
@@Unbreakable.44 Achso, deine 2070 hat erst nach zwei Jahren Spulenfiepen entwickelt? Dann könnts eventuell an den thermalpads auf den Spulen oder an deinem Netzteil liegen
Und dann noch den Xeon den du mal gezeigt hast der 1100watt zieht 😂
der8auer warum schraubst du Male Male auf die Karte?
Wenn du die Flussrichtung weißt, dann könntest du vom Kühler Ausgang (also in die Hardware) Male machen und in den Kühler Eingang den Female Anschluss.
So mach ich es jedenfalls. Aber stimmt schon, wenn die Flussrichtung falsch ist geht das so schneller.
Ist das Google übersetzt ?
Das ist ja unleserlich?!
Top💯
Eigenes Netzteil nur für die Grafikkarte
Ich versuche seit 2 Wochen die Karte NICHT zu kaufen weil noch keine vollständige wakü vorhanden ist.
Und dann kommt du mit diesem Video daher und machst einem die Karte noch schmackhafter.
Schon echt geil, was diese Karte kann.
Sind 3x 8pin nicht sogar besser?
Da hat man 3x3 12V Leitungen, beim 12pin aber nur 6.
Ne. Der Querschnitt ist bei 12 Pin größer. Dementsprechend ist auch mehr Strom möglich.
@HumanBeing heißt das nicht grade, dass der 8pin effizient ist wenn er sich mit nur 1 Kabel noch nicht zu sehr erwärmt?
Mehr Verlust heißt doch mehr Wärme, und effiziente Verbindungen bleiben Kühler.
Scheißegal, der 12 Pin Stecker macht auch die 1000 W mit wenn sein muss ^-^
Bei der Leistungsaufnahme gehen dir aber eh eher die mosfets hoch als der Stecker. Kupfer ist ziemlich leitfähig und dementsprechend zieht sich auch die Kälte durchs ganze Brett bis zu einem gewissen Grad natürlich
Zu viel Technikkram in dem Katzenvideo. Ansonsten gut.
Habe ich das richtig verstanden, wenn wir ein Messgerät anschließen zieht es quasi direkt die Leistung aus der grafikkarte die es zum Anzeigen braucht? Das Gerät selbst zeigt den tatsächlichen werd aber die grafikkarte hat weniger Leistung in dem Moment wo sie gemessen wird? Einfach nicht hingucken😂
Waaaas?! Du ziehst über 600 Watt über 3 Stecker die nur für 150 Watt pro Stecker ausgelegt sind und es funktioniert?! 🙄😂