DANKE für das THEMA und ein Video dazu. Alles wichtige abgedeckt, Win10/11, AMD/Nv Generationen, Treiber, Bios, YT sehen und mein persönliches Trauerspiel, die RX 7900XT. Meine hat im Idle 30-50Watt (4k@144Hz Monitor). Am Anfang des Videos dachte ich: "Endlich, ich schau mich direkt nach AM5 um." Am Ende mein Gedanke: "Danke AMD, die einziege Karte XT(x) bei der es mal echt nötig wäre, geht mal wieder nicht." Ich bin immer early adopter aber sowas ist mal wieder echt traurig. Behalte das Thema bitte auf dem Schirm, Danke!
Danke für das ausfürliche Feedback! Das mit der 7900XTX ist echt zu schade - gerade die Karte könnte es gut gebrauchen. Auch mit dem Adrenalin 23.1.2 läuft Hybrid Graphics leider noch nicht. :( Ich gebe die Hoffnung nicht auf. Aber AMD hat sich mal wieder ohne Not ein Problemfeld aufgemacht, was es nicht braucht. Ich hätte mir auch fast eine 7900XTX bestellt (ich konnte beim Launch im AMD-Shop eine Karte in den Warenkorb legen, habe die Bestellung aber nicht abgeschickt). Derzeit bin ich jedoch froh, dass ich noch mit der 6900XT unterwegs bin. Die ist zwar punktuell deutlich langsamer als die 7900XTX, läuft dafür aber auch rund. So, wie ich das eigentlich auch von RDNA3 erwarten würde... :(
@@hardwarestories Danke für die Antwort! Mitlerweile ab. Adrenalin 23.2.1 geht ~15 Watt im Idle bei 144Hz@4K. Mit YT (720p im Fenster) dabei werden es ~20 Watt. Ich hoffe das hilft jemandem weiter. Die 7900XT ist mitlerweile zu 90% in Ordnung mit den Treibern würde ich sagen. Evtl. wird es doch noch was mit dem Upgrade.
Schönes informatives Video. Unter Win11 Einstellungen aufrufen-dann auf Blidschirm klicken-Grafik auswählen- dann kann man den jeweiligen Apps die Grafikkarte zuweisen. Habe selber eine rx7900xt, ja es funktioniert
Danke für die Info. Läuft es mit dem aktuellen Treiber auch ohne manuelle Zuweisung der Anwendung? Also out of the box? Oder ist selbst mit dem aktuellen Treiber noch notwendig, die Anwendungen zuzuordnen? Auf alle Fälle Danke für die Rückmeldung. :)
@@hardwarestories Sohabe das mal getestet. Bei manchen Spielen war es egal was ich für eine Grafikkarte zugewiesen habe. Bei F122 hatte ich auf Windows entscheiden lassen und auf IGpu gestellt. Es kamen jeweils die gleichen hohen FPS dabei heraus. Im Spiel dann auf IGpu umgestellt, na ja war mit 16 FPS spielbar :) Im Spiel war die rx7900xt voreingestellt gewesen, deshalb gab es auch keine Veränderung beim ersten Test. Quake II RTX lief obwohl ich die Vorauswahl auf Windows entscheiden lassen nur mit IGpu. Erst nach umstellen auf die rx7900xt konnte man das Spiel mit hohen FPS spielen. Adrenalin Edition 23.1.1 ist der Grafiktreiber. Win 11 ist mit den aktuellen Updates installiert worden.
Danke für die Rückmeldung - und auch explizit danke für die Mühe! Dieser Kommentar hat mich auf eine Idee gebracht - weshalb es demnächst ein Update-Video zu dem Thema geben wird. Denn mit dem, was ich bei einer neuen Suche gefunden habe, erklären sich einige der Dinge, die ich in diesem Video angesprochen habe. Danke nochmals für den wertvollen Input! :)
Cooles Feature, hab davon bisher auch noch nichts gehört und ich wusste auch nicht, das es so etwas bereits 2008 schon mal gegeben hat. Schade eigentlich, da es mit Nvidia Optimus dieses Feature bereits seit 2010 in Laptops gibt, dort gut funktioniert und seitdem auch bis heute zum Standard gehört.
I would love to watch an English version, but RUclips caption auto-translate worked well, I guess you have good diction and build sentences well in German :) This reminded of AMD Llano APUs from 10 years ago
Thank you for your kind words. As far as I know this is the first comment from an international viewer on this channel. :) Unfortunately my english is not good enough for an English version of the video. Therefore I’m glad that auto-translate worked for you.
Unter Windows 10 gibt es eine solche Funktion ebenfalls zu Finden unter Einstellungen -> System -> Bildschirm -> Grafikeinstellungen (Option ganz Unten), dort kann man Zwischen iGPU und der Dedizierten GPU wählen (nach Programm/App), hatte es mit einer Intel UHD 630 (i7 8700) und NVIDIA GTX1660 getestet Funktionierte ohne Probleme, einzig das NVIDIA Control Panel ist ohne angeschlossenen Monitor an dieser nicht nutzbar gewesen, ob sich dabei die GTX1660 im Idle Komplett abschaltet weis allerdings nicht.
Danke für die Info. Am Wochenende schaue ich mir das in Windows 10 und 11 nochmal genauer an. Danke für den "Pfad" zu den Einstellungen - dann muss ich nicht erst suchen. :)
Sehr ruhiges und dennoch nicht langweiliges Video. Durchgehend interessante Informationen genannt, wenn auch das Intro für meinen Geschmack etwas zu lang-atmig war. Das ist aber meckern auf hohen Niveau, danke für diese tollen Information und gute Arbeit! Könnten Sie vielleicht ihre Excel Tabelle in der Beschreibung zur Verfügung stellen? Das wäre sehr hilfreich Mich würde noch interessieren, ob die Intel Arc Karten damit auch funktionieren? Die haben ja auch ein sehr großes Idle Stromverbrauch Problem. Wobei klar ist, dass es in deinem Fall schwer war das auch noch zu testen
Danke für das Feedback (auch der Punkt mit dem für dich zu langen Intro)! :) Dank einiger Kommentare hier bin ich inzwischen etwas schlauer, was Hybrid Graphics anbelangt. Deshalb plane ich dazu in den nächsten Tagen noch ein kurzes Update-Video, wo ich auch auf Intel eingehe. Denn in der Theorie können die das auch...
@@hardwarestories Das werde ich mir anschauen, da bin ich mal gespannt. Könnten sie eventuell ihre Excel Tabelle zu den Ergebnissen des Stromverbrauchs in der Beschreibung zur verfügung stellen? Ich denke das wäre sehr hilfreich.
Moderner Gaming-Laptop hat aber ganz andere Zahlen. Da läuft iGPU mit 25W und dedizierte GPU mit 60W. Liegt wohl daran das die GPU verlötet ist und kann komplett abgeschaltet werden.
Klar, ein Laptop hat ganz andere Verbrauchswerte. Da wird die Hardware auch sinnvoller betrieben - nicht wie der 7950X in meinem Video. Der lief @Stock und hatte somit einen Spitzenverbrauch von über 200 Watt unter Last. Würde ich den auf 125 oder gar 65 Watt begrenzen, so wäre er deutlich sparsamer - aber nur unwesentlich langsamer. Das gleiche gilt für die GPU. Im Laptop werden die Verbrauchslimits der Komponenten deutlich niedriger gewählt, damit der Akku möglichst lange durchhält und auch, weil die Kühlung ihre Grenzen hat. Und im Laptop sieht man dann meist, wie effizient Hardware XYZ sein kann, wenn sie nicht außerhalb ihres Sweetspots betrieben wird - so wie das aktuell leider bei vielen Komponenten der Fall ist.
Genau das hab ich beim Igor vor ein paar Wochen schon geschrieben als sich alle über den Idle Verbrauch der 7900er aufgeregt hatten,schade das es noch nicht 100% läuft und du es erst mal nicht neu Testen kannst wenn ein neuer Treiber kommt.
Wurde diese Methode nicht sogar mal verwendet um FreeSync mit nvidia Grafikkarten nutzen zu können? :D Als ich mal Dogecoin gemined habe und 3 verschiedene Grafikkarten im PC hatte, konnte ich bei Spielen die GPU auswählen, geht das mit dem Hybrid dingens auch? Oder wird bei Last automatisch die dicke GPU genommen?
FreeSync auf NVIDIA-Grafikkarten hat meiner Meinung nach nichts mit Hybrid Graphics zu tun. FreeSync hat mit dem Vesa-Standard Adaptive Sync zu tun - imho ist Hybrid Graphics ein komplett anderes Thema. Bezüglich der zweiten Frage: Es gibt im Windows Voreinstellungen, welches Programm auf welcher GPU ausgeführt wird. Diese Einstellungen kann man aber auch manuell "überschreiben", sodass immer die GPU genutzt wird, die man nutzen möchte. Das bedeutet jedoch einen einmaligen manuellen Aufwand, weil man je Anwendung vom Windows-Default auf eine individuelle Zuordnung wechseln muss. Und dieses Prozedere dürfte sich beim Treiberwechsel wiederholen. In meinem Update-Video zum Thema habe ich dort auch ein paar kurze Aufnahmen des entsprechenden Menüs unter Windows 11 mit eingearbeitet (ruclips.net/video/WdK3yeR8U7A/видео.html). Damit kann man ggf. den Aufwand abschätzen..
Das ist natürlich ein gutes Argument. Auf der anderen Seite ist dann die Frage, warum das Feature überhaupt erst erwähnt wurde. Da wäre ich persönlich konsequent gewesen und hätte es komplett unter den Tisch fallen lassen. Aber gut, AMD wird sich (hoffentlich) etwas dabei gedacht haben...
Ich kann leider keinen anderen Stand vermelden, als im Video angegeben. :( Denn ich habe die Karte nicht mehr "zur Hand", sodass ich keine neuen Erkenntnisse habe. Tut mir leid.
I have a question and can't find an answer anywhere, maybe you will help. Can these CPUs do 4k 120Hz 10bit HDR over HDMI? I have LG C2 TV, I want to run it at full spec with integrated graphics.
Unfortunately there are only a few pieces of information. In one launch-presentation AMD listed the following features: - DisplayPort 2.0 UHBR10 - HDMI 2.1 with FRL - 4K60 capabilities This is the only slide I know: www.planet3dnow.de/cms/wp-content/gallery/hybrid-graphics/features_l.png Some motherboards can reach higher specs with its onboard-connectors. For example the HDMI-port of my current ASRock B650M PG Riptide is specified with "HDMI 2.1 TMDS/FRL 8G Compatible, supports HDR, HDCP 2.3 and max resolution up to 4K 120Hz" (quoted from manual). On the other hand my sample of ASUS ROG Strix X670E-E Gaming WiFi has support for 4K60 with the HDMI-Port (DP can up to 8K60 though). In the end I wouldn't bet on 4K120, especially with HDMI. At least not with current gen iGPU. :(
@@hardwarestories Okay, so I tested it. It can do 4k 120Hz over HDMI only in 4:2:2, which is not good for text rendering. For full RGB 4:4:4 it can do 4k 60Hz. This is not a motherboard/HDMI connector limitation, but an iGPU. Maybe next gen CPUs will be able to do 4:4:4 4k 120Hz.
Echt? Das funktioniert schon auf AM4-Boards mit iGPU? Danke für die Rückmeldung! Ich finde es echt komisch, warum das nicht besser vermarktet wird. Denn damit lässt sich - je nach Hardware-Konstellation und Nutzungsszenario - echt ne Menge sparen. Mehr, als wie man üblicherweise mit einer neuen Hardware-Generation sparen kann.
Theoretisch kann Intel das auch anbieten. Sofern der PC einen Onboard-Grafikausgang bietet, könnte Intel das Feature ebenfalls auf Desktop-PCs anbieten. Ob sie das auch in der Praxis tun, entzieht sich meiner Kenntnis. Bei Notebooks ist das Thema deutlich präsenter, sodass es dort scheinbar schon flächendeckend genutzt wird - und zwar schon von Hause aus vom Hersteller umgesetzt - und nicht erst durch einen Eingriff des Users.
Hallo und erstmal Danke für das Video. Ich habe es nach diesem Video auch ausprobiert und es hat zwar funktioniert mit einer Ryzen 7600, RX 6700 XT und einer MSI MAG B650 Mortar mit neusten Bios und neuste AMD Treiber. Jedoch sieht die Auslast von der IGD im AMD Adrenalin katastrophal aus: Eine ständige pulsierende Auslast, die ständig von 0 auf 100% hin und her springt non-stop, kann nicht gesund sein für eine iGPU und CPU. Ebenso spring die Watt-Werte pulsierend ständig von 30 auf 60W hin und her! Und alles ohne, dass irgendetwas im Hintergrund läuft (außer das übliche im Autostart). Die graphischen Werte von der Auslast ähneln einem menschlicher EKG. Die Temp. blieb im normbereich. Das kann nicht normal sein. Ich habe mich nicht getraut irgendwelche Test-Läufe zu machen. Ich lasse es lieber über die normal Konfigoration mit Grafikkarte als Standard laufen, da siese Verhalten von Hybrid-Graphics zu unheimlich und zu unsicher ist, wenn man sich die Werte und die Grafik-Kurven der Werte anschaut. Ich habe ein Video mit dem Handy dazu gemacht, vielleicht veröffenbtlich ich es irgendwann.
Laptop hat sowas; Cpu integriert Stromspar Gpu für Surfen und Desktop, Hochleistungs Gpu für Gaming oder 3d Anwendungen. Desktop hat sowas nicht, verbrauch im IDLE 100-160Watt. Verbrauch Viel zu hoch, daher läuft immer der Laptop. Der Desktop wird nur für Gaming benutzt.
Ja, korrekt. Solch ein Feature kennt man bisher eigentlich nur vom Laptop. Aber AM5 bietet das Feature jetzt halt auch im Desktop-Bereich an. Wie schon erwähnt ist das nicht neu, inzwischen aber - theoretisch - ausgereift genug. Wenn denn die Treiber passen. Ich finde es tatsächlich nicht schlecht. Aber das Nutzungsszenario muss passen. Bei mir tut es das - also werde ich das in der Praxis nutzen.
Rein technisch gesehen kann ich mir das nur deshalb vorstellen,das es nicht beworben wird da es vielleicht beim umschalten zu last spitzen kommt. Was vielleicht nicht gesund ist für die Hardware. Komisch . Bei Intel Laptops gibt es doch schon seit Jahren Hybrid Grafik.
Das Thema Hybrid Graphics interessiert mich selber schon lange, da ich persönlich keinen PC laufen lassen möchte, der unnötig Strom verbraucht. Alles über 50 W sind übertrieben. Deshalb hoffe ich, dass sich das stärker entwickelt, da es noch Kinderkrankheiten aufweist, aber zumindest unter AMD könnte es eher was werden. Hoffentlich. Zur erwähnten Latenz wäre ich eher an richtigen Messungen interessiert. Gefühlte/subjektive Aussagen sind uninteressant, da jeder Mensch eine andere Empfindung hat. Ich weiß nicht, wo ich darin liege, aber harte Zahlen sind immer besser, weswegen ich eher enttäuscht war, dass keine Messung zumindest mit einem Smartphone und unterstütztem SlowMo Video durchgeführt wurde. Als Alternative zu Hybrid Graphics, die im Grunde nur ein weiteres Kabel erfordert, würde es mich reizen, sowohl iGPU als auch Grafikkarte an den selben Monitor anzuschließen. Standardmäßig läuft die iGPU und die Grafikkarte ist inaktiv. Der Monitor, sofern diese Einstellung es erlaubt, schaltet automatisch auf die Grafikkarte um, wenn diese aktiv wird. Ansonsten bleibt es beim Eingang der iGPU. Ein zweiter Monitor kann weiterhin an der iGPU hängen und aktiv sein. Das sollte heutzutage kein Problem darstellen. Keine Probleme mit Latenzen, vielleicht ein geringer Komfortverlust. Es hängt wohl primär davon ab, wie die Software damit agiert.
Bezüglich der Latenzmessungen bin ich hin- und hergerissen. Ja, echte Messungen wären mir auch lieber gewesen - der Aufwand dazu war mir aber zu hoch. Entweder, ich hätte noch weiteres Geld investieren müssen, um mir Equipment zu besorgen, oder ich hätte mir irgendein reproduzierbares Prozedere ausdenken müssen. In beiden Fällen hätte ich noch mehr Freizeit versenkt, als ohnehin schon in die Versuche geflossen ist. Ursprünglich wollte ich ein kurzes Video zum Thema machen. Dann kamen nach und nach weitere Erkenntnisse und aus kurzen Tests wurden vier Grafikkarten, zwei Windows-Versionen, mehrere Treiber-Versionen (zumindest auf AMD-Seite) und dutzende Benchmark-Ergebnisse - das alles hat ohnehin schon deutlich länger gedauert, als ich ursprünglich geplant hatte. Deshalb habe ich mich irgendwann dazu entschieden, das Thema samt meiner eigenen Eindrücke anzusprechen, jedoch keinen Aufwand in irgendwelche - möglicherweise ungenauen - Messwerte zu stecken. Zudem hatte ich die Hoffnung, dass das Thema vielleicht auch mal auf den einschlägigen Hardware-Seiten aufgegriffen wird - dort sind ja in der Regel entsprechende Mess-Möglichkeiten vorhanden. Ja, klar. Subjektive Wahrnehmung ist und bleibt subjektive Wahrnehmung - diesbezüglich gibt es aber zumindest keine groben Schnitzer. Für mich fühlt sich dGPU und Hybrid Graphics bisher gleich an. Bezüglich der anderen Frage bzw. des "Plans": Ich habe zum Thema ein Update-Video gemacht, da es sich bei Hybrid Graphics um ein Windows-Feature handelt (was mir in der Form nicht bekannt war). Und nach der Definition eines hybriden Systems seitens des Windows Display Driver Models ist die dedizierte GPU ein render-only-Device OHNE angeschlossenen Monitor. Daher ist davon auszugehen, dass Hybrid Graphics nicht oder nicht korrekt funktioniert, wenn ein Monitor an der dedizierten GPU angeschlossen wird. Unabhängig davon, ob er genutzt wird oder nicht. Grundsätzlich sollte es technisch möglich sein, die benannte Verkabelung auch zu nutzen. Nur passt diese nicht zur Definition laut Microsoft, was mich daran zweifeln lässt, dass sie funktioren wird. Denn allein eine Konfiguration laut Definition funktioniert scheinbar nur, wenn der Treiber mitmacht - da fällt es mir schwer zu glauben, dass abweichende Verkabelungen trotzdem funktionieren. Wie gesagt: Theoretisch sollte das möglich sein, in der Praxis wäre ich aber bis zum Gegenbeweis skeptisch.
@@hardwarestories Meine alternative Nutzungsmöglichkeit war weniger eine Alternative tun Begriff Hybrid Graphics als vielmehr eine einfache zu realisierende Alternative generell.
@@hardwarestories Subjektive Eindrücke sind immerhin mehr als gar keine Eindrücke und helfen erstmal für eine erste Entscheidung es zu testen. Ich würde bei sowas auch selber mal an den jeweiligen Augängen schauen ob sich die 144Hz anders anfühlen. Aber wenn objektive Messungen zu Aufwendig/Teuer sind ist es vollkommen in Ordnung, evtl spricht sich das Thema einfach irgendwann rum und jemand aus Hardwareluxx, CB oder Igor liest das hier. Nochmals vielen vielen Dank für das aufgreifen der Thematik und mögliche Lösungen!
Interessantes Video, mir stellt sich natürlich die Frage was die iGPU so sparsam macht , und warum es AMD nicht schafft , selbe geringe Leistung genauso sparsam auf der dedizierten GPU zu berechnen.
Zuerst einmal muss man festhalten, dass aktuell keiner der Hersteller mit einer dedizierten Grafikkarte die gleiche Leistungsaufnahme schafft wie mit einer iGPU. Denn selbst mit dem in Sachen Idle-Leistungsaufnahme Branchenprimus NVIDIA konnte ich noch zwischen 4,4 Watt (Prime95) und 10,2 Watt (Wiedergabe eines 4K-RUclips-Videos) einsparen. NVIDIA ist dabei schon sehr nah dran an einer iGPU, ganz erreichen können sie sie meiner Meinung nach aber nicht. Die iGPU sitzt im Prozessor, ist also "ganz nah dran" am RAM und an den CPU-Kernen. Eine dedizierte Grafikkarte muss dagegen Daten erst über die CPU und den RAM schicken und benötigt ein eigenes Speicher-Interface auf der Grafikkarte. Das Speicherinterface ist angeblich einer der energiehungrigsten Komponenten einer Grafikkarte, wenn diese sich im idle befindet. Denn selbst, wenn nur ein Desktop-Bild angezeigt wird, müssen gewisse Daten "bewegt" werden. Und dazu muss das Speicherinterface aktiv sein. Die iGPU hat dieses Problem nicht, weshalb ich das Interface als Ursache ansehe. Allerdings bin ich auch kein Elektroingenieur - insofern kann ich mit dieser Vermutung auch falsch liegen. Ich denke aber, dass die Nähe iGPU zum RAM und den CPU-Kernen sowie kein eigenes Speicherinterface die wahrscheinlichsten Gründe dafür sind, dass eine diskrete Grafikkarte mehr verbraucht als eine iGPU. Selbst im Idle bzw. ohne 3D-Last.
Habe dadurch massive Performanceeinbußen in Forza Horizon 5 bekommen. Meine RX6700XT hat beim Gaming seltsamerweise auch nur noch um die 100 Watt gezogen. Mein System: 1. Mainboard Asus ROG STRIX B650E-F GAMING WIFI mit BIOS Version 0821 2. CPU AMD Ryzen5 7600X 3. RAM G.Skill 32 GB F5-6000J3038F16GX2-TZ5NR, Trident Z NEO RGB, XMP, EXPO, for AMD) 4. GPU RX6700XT 5. Netzteil be quiet! Straight power 11, 850W, Platinum
Ich hatte bei meinen Tests seltene, einzelne Ausreißer in den Benchmarks. Spätestens nach einem Windows-Reboot war aber wieder alles normal. Da mein Ansprechpartner bei ASUS selbst nicht wusste, ob das X670E-E Gaming WiFi Hybrid Graphics unterstützt oder nicht, würde es mich nicht wundern, wenn BIOS- und/oder Treiber-seitig nicht alles bei deinem ASUS-Board passt. Da du DDR5-6000-RAM hast: Wie läuft der denn? Läuft der mit DDR5-6000? Denn es gibt berichtet, dass RAM-OC bei Nutzung der iGPU zu einem Problem werden kann. Das System muss dabei nicht zwingend instabil werden. Das könntest du beispielsweise ausschließen, wenn du mal zum Test DDR5-4800 einstellst und testest, ob die Performance dann wieder dort ist, wo sie eigentlich sein soll. Passt die Performance eigentlich abseits von Forza Horizon 5? Oder gibt es auch in anderen Games/Anwendungen/Benchmarks einen Performanceverlust?
@@hardwarestories Hallo. Ich habe es aufs Neue probiert. Diesmal mit Buildzoid's "Easy memory timings for Hynix DDR5 with Ryzen 7000" vom Kanal "Actualy Hardcore Overclocking" und dem AMD Treiber "Adrenalin 23.2.1 (WHQL)". Die großen Performanceeinbrüche konnten damit beseitigt werden. Allerdings habe ich im Hybrid-Modus nur Nachteile gegenüber einer reinen Nutzung der RX6700XT. Diese da wären: - Flackern beim Abspielen von 4KHDR RUclips-Videos. - RadeonSuperResolution lässt sich nicht mehr einstellen. - Meine Undervolting-Einstellungen für die RX6700XT funktionieren im Hybridmodus nicht mehr. Daraus resultieren ein leichter Performanceverlust, ein deutlich höherer Stromverbrauch, höhere Temperaturen und lautere Lüfter. - Der HDMI-Ausgang des Mainboard beherrscht nur 60Hz bei 4K, der Ausgang an der Grafikkarte 144Hz bei 4K. Die 60Hz bei 4K im Hybridmodus könnte ich verkraften, wenn die anderen Nachteile nicht wären. Wenn es hier Lösungen geben sollte, werde ich gerne nochmal den Hybridmodus ausprobieren. Denn eine funktionierende Effizienzverbesserung nehme ich gerne mit.
@@markusk.3162 Danke für die ausführliche Rückmeldung! Das Video von Buildzoid habe ich mir am Wochenende ebenfalls angeschaut. Ich bin nur noch nicht dazu gekommen, die Timings auszuprobieren. Da mein RAM Hynix M-Die haben müsste, sollte das auch bei mir funktionieren. Bei den von dir beschriebenen Problemen würde ich aber auch erstmal wieder ausschließlich mit der dedizierten Grafikkarte arbeiten und auf Hybrid Graphics verzichten!
Bisher haben sie es fast immer geschafft, im Laufe des Produktzyklus die Komponenten besser in den Griff zu bekommen. Aber irgendwann nervt es, wenn man als Käufer quasi darauf angewiesen ist, dass sie das wieder hinbekommen.
Tja, das kann man leider irgendwie so sehen. Zwar steckt da technisch noch etwas mehr dahinter, in der Treiber-Arbeit von AMD scheint Hybrid Graphics mit RDNA3 absolut keine Priorität zu haben. Denn es funktioniert auch mit dem Adrenalin 23.1.1 unter Windows 11 noch immer nicht - ich konnte gestern die 7900XTX noch einmal testen. :(
@@hardwarestories für mich ist das so, als würde Intel bei neuer Generation einfach so HT abdrehen.. finde die letzen 2 Jahre hat amd stark nachgelassen.
@@Dave20VT Ganz so weit würde ich nicht gehen. HT ist ein Feature, welches - Einfluss auf die Performance einer CPU hat - welches in der Vergangenzeit zur Unterscheidung von Produkten genutzt wurde (Core i5 / Core i7) - was jeder, der es kauft, auch nutzt Das alles trifft auf Hybrid Graphics nicht zu. Deshalb ist der Vergleich meiner Meinung nach nicht ganz passend. Das ändert aber nichts dran, dass sich AMD selbst ins Knie geschossen hat. Von der Vorstellung von AM5 am 26. September bis zum Launch von RDNA3 am 13. Dezember sind gerade einmal 11 Wochen vergangen. Da AMD offensichtlich für RDNA3 mit Chipletansatz einen komplett neuen Treiber stricken muss(te), scheint bisher nicht alles so zu funktionieren, wie es eigentlich sollte. Und Hybrid Graphics scheint aufgrund der größeren Probleme einfach hinten runter gefallen zu sein. Mich persönlich ärgert das, da ich den hybriden Ansatz eigentlich ganz nett finde, um noch ein paar Watt Energie zu sparen...
@@hardwarestories das war ja nur so ein Beispiel von mir mit HT ;) hypothetisch Jedenfalls sieht man das AMD nachlässt, die erhoffte Generation die auf Platz 1 klettert bleibt weiterhin aus
@@Dave20VT Da hast du natürlich recht. Ich bin von RDNA3 bisher auch ordentlich enttäuscht - wirkt irgendwie wie ein Rückfall in alte Zeiten. :( Mit AM5 bin ich zwar prinzipiell zufrieden, jedoch nervt die immer höher geschraubte Leistungsaufnahme. Aber gut, man muss die CPUs ja nicht mit voller TDP laufen lassen. Etwas mehr Effizienz von Hause aus wäre trotzdem schöner...
Dein Kanal hat echt mehr Aufmerksamkeit verdient
Vielen Dank! :)
Hab ein Abo da gelassen, kann meinem Vorredner nur zustimmen: dieser Kanal verdient mehr Aufmerksamkeit 👍
Willkommen und vielen Dank!
DANKE für das THEMA und ein Video dazu.
Alles wichtige abgedeckt, Win10/11, AMD/Nv Generationen, Treiber, Bios, YT sehen und mein persönliches Trauerspiel, die RX 7900XT.
Meine hat im Idle 30-50Watt (4k@144Hz Monitor).
Am Anfang des Videos dachte ich: "Endlich, ich schau mich direkt nach AM5 um."
Am Ende mein Gedanke: "Danke AMD, die einziege Karte XT(x) bei der es mal echt nötig wäre, geht mal wieder nicht."
Ich bin immer early adopter aber sowas ist mal wieder echt traurig.
Behalte das Thema bitte auf dem Schirm, Danke!
Danke für das ausfürliche Feedback!
Das mit der 7900XTX ist echt zu schade - gerade die Karte könnte es gut gebrauchen. Auch mit dem Adrenalin 23.1.2 läuft Hybrid Graphics leider noch nicht. :(
Ich gebe die Hoffnung nicht auf. Aber AMD hat sich mal wieder ohne Not ein Problemfeld aufgemacht, was es nicht braucht. Ich hätte mir auch fast eine 7900XTX bestellt (ich konnte beim Launch im AMD-Shop eine Karte in den Warenkorb legen, habe die Bestellung aber nicht abgeschickt). Derzeit bin ich jedoch froh, dass ich noch mit der 6900XT unterwegs bin. Die ist zwar punktuell deutlich langsamer als die 7900XTX, läuft dafür aber auch rund. So, wie ich das eigentlich auch von RDNA3 erwarten würde... :(
@@hardwarestories
Danke für die Antwort!
Mitlerweile ab. Adrenalin 23.2.1 geht
~15 Watt im Idle bei 144Hz@4K.
Mit YT (720p im Fenster) dabei werden es ~20 Watt.
Ich hoffe das hilft jemandem weiter.
Die 7900XT ist mitlerweile zu 90% in Ordnung mit den Treibern würde ich sagen.
Evtl. wird es doch noch was mit dem Upgrade.
Sehr schön erklärt. Danke.
Sehr gerne! :)
Danke, äußerst interessant!
Schönes informatives Video.
Unter Win11 Einstellungen aufrufen-dann auf Blidschirm klicken-Grafik auswählen- dann kann man den jeweiligen Apps die Grafikkarte zuweisen. Habe selber eine rx7900xt, ja es funktioniert
Danke für die Info.
Läuft es mit dem aktuellen Treiber auch ohne manuelle Zuweisung der Anwendung? Also out of the box? Oder ist selbst mit dem aktuellen Treiber noch notwendig, die Anwendungen zuzuordnen?
Auf alle Fälle Danke für die Rückmeldung. :)
@@hardwarestories Sohabe das mal getestet. Bei manchen Spielen war es egal was ich für eine Grafikkarte zugewiesen habe.
Bei F122 hatte ich auf Windows entscheiden lassen und auf IGpu gestellt. Es kamen jeweils die gleichen hohen FPS dabei heraus. Im Spiel dann auf IGpu umgestellt, na ja war mit 16 FPS spielbar :) Im Spiel war die rx7900xt voreingestellt gewesen, deshalb gab es auch keine Veränderung beim ersten Test. Quake II RTX lief obwohl ich die Vorauswahl auf Windows entscheiden lassen nur mit IGpu. Erst nach umstellen auf die rx7900xt konnte man das Spiel mit hohen FPS spielen. Adrenalin Edition 23.1.1 ist der Grafiktreiber. Win 11 ist mit den aktuellen Updates installiert worden.
Danke für die Rückmeldung - und auch explizit danke für die Mühe!
Dieser Kommentar hat mich auf eine Idee gebracht - weshalb es demnächst ein Update-Video zu dem Thema geben wird. Denn mit dem, was ich bei einer neuen Suche gefunden habe, erklären sich einige der Dinge, die ich in diesem Video angesprochen habe.
Danke nochmals für den wertvollen Input! :)
Cooles Feature, hab davon bisher auch noch nichts gehört und ich wusste auch nicht, das es so etwas bereits 2008 schon mal gegeben hat. Schade eigentlich, da es mit Nvidia Optimus dieses Feature bereits seit 2010 in Laptops gibt, dort gut funktioniert und seitdem auch bis heute zum Standard gehört.
Danke für das Video. Gibt es so etwas auch bei den neuen 700er Intel Chipsätzen/Motherboards?
Mir ist solch ein Feature bei Intel nicht bekannt.
I would love to watch an English version, but RUclips caption auto-translate worked well, I guess you have good diction and build sentences well in German :)
This reminded of AMD Llano APUs from 10 years ago
Thank you for your kind words. As far as I know this is the first comment from an international viewer on this channel. :)
Unfortunately my english is not good enough for an English version of the video. Therefore I’m glad that auto-translate worked for you.
Unter Windows 10 gibt es eine solche Funktion ebenfalls zu Finden unter Einstellungen -> System -> Bildschirm -> Grafikeinstellungen (Option ganz Unten), dort kann man Zwischen iGPU und der Dedizierten GPU wählen (nach Programm/App), hatte es mit einer Intel UHD 630 (i7 8700) und NVIDIA GTX1660 getestet Funktionierte ohne Probleme, einzig das NVIDIA Control Panel ist ohne angeschlossenen Monitor an dieser nicht nutzbar gewesen, ob sich dabei die GTX1660 im Idle Komplett abschaltet weis allerdings nicht.
Danke für die Info.
Am Wochenende schaue ich mir das in Windows 10 und 11 nochmal genauer an. Danke für den "Pfad" zu den Einstellungen - dann muss ich nicht erst suchen. :)
expert level: alte physx karte dazu stecken xD
Sehr ruhiges und dennoch nicht langweiliges Video. Durchgehend interessante Informationen genannt, wenn auch das Intro für meinen Geschmack etwas zu lang-atmig war. Das ist aber meckern auf hohen Niveau, danke für diese tollen Information und gute Arbeit!
Könnten Sie vielleicht ihre Excel Tabelle in der Beschreibung zur Verfügung stellen? Das wäre sehr hilfreich
Mich würde noch interessieren, ob die Intel Arc Karten damit auch funktionieren? Die haben ja auch ein sehr großes Idle Stromverbrauch Problem. Wobei klar ist, dass es in deinem Fall schwer war das auch noch zu testen
Danke für das Feedback (auch der Punkt mit dem für dich zu langen Intro)! :)
Dank einiger Kommentare hier bin ich inzwischen etwas schlauer, was Hybrid Graphics anbelangt. Deshalb plane ich dazu in den nächsten Tagen noch ein kurzes Update-Video, wo ich auch auf Intel eingehe. Denn in der Theorie können die das auch...
@@hardwarestories Das werde ich mir anschauen, da bin ich mal gespannt. Könnten sie eventuell ihre Excel Tabelle zu den Ergebnissen des Stromverbrauchs in der Beschreibung zur verfügung stellen? Ich denke das wäre sehr hilfreich.
Moderner Gaming-Laptop hat aber ganz andere Zahlen. Da läuft iGPU mit 25W und dedizierte GPU mit 60W. Liegt wohl daran das die GPU verlötet ist und kann komplett abgeschaltet werden.
Klar, ein Laptop hat ganz andere Verbrauchswerte. Da wird die Hardware auch sinnvoller betrieben - nicht wie der 7950X in meinem Video. Der lief @Stock und hatte somit einen Spitzenverbrauch von über 200 Watt unter Last. Würde ich den auf 125 oder gar 65 Watt begrenzen, so wäre er deutlich sparsamer - aber nur unwesentlich langsamer. Das gleiche gilt für die GPU.
Im Laptop werden die Verbrauchslimits der Komponenten deutlich niedriger gewählt, damit der Akku möglichst lange durchhält und auch, weil die Kühlung ihre Grenzen hat. Und im Laptop sieht man dann meist, wie effizient Hardware XYZ sein kann, wenn sie nicht außerhalb ihres Sweetspots betrieben wird - so wie das aktuell leider bei vielen Komponenten der Fall ist.
Genau das hab ich beim Igor vor ein paar Wochen schon geschrieben als sich alle über den Idle Verbrauch der 7900er aufgeregt hatten,schade das es noch nicht 100% läuft und du es erst mal nicht neu Testen kannst wenn ein neuer Treiber kommt.
Wurde diese Methode nicht sogar mal verwendet um FreeSync mit nvidia Grafikkarten nutzen zu können? :D
Als ich mal Dogecoin gemined habe und 3 verschiedene Grafikkarten im PC hatte, konnte ich bei Spielen die GPU auswählen, geht das mit dem Hybrid dingens auch?
Oder wird bei Last automatisch die dicke GPU genommen?
FreeSync auf NVIDIA-Grafikkarten hat meiner Meinung nach nichts mit Hybrid Graphics zu tun. FreeSync hat mit dem Vesa-Standard Adaptive Sync zu tun - imho ist Hybrid Graphics ein komplett anderes Thema.
Bezüglich der zweiten Frage: Es gibt im Windows Voreinstellungen, welches Programm auf welcher GPU ausgeführt wird. Diese Einstellungen kann man aber auch manuell "überschreiben", sodass immer die GPU genutzt wird, die man nutzen möchte. Das bedeutet jedoch einen einmaligen manuellen Aufwand, weil man je Anwendung vom Windows-Default auf eine individuelle Zuordnung wechseln muss. Und dieses Prozedere dürfte sich beim Treiberwechsel wiederholen.
In meinem Update-Video zum Thema habe ich dort auch ein paar kurze Aufnahmen des entsprechenden Menüs unter Windows 11 mit eingearbeitet (ruclips.net/video/WdK3yeR8U7A/видео.html). Damit kann man ggf. den Aufwand abschätzen..
Ich würde auch keine werbung machen für Features die noch nicht richtig funktionieren.
Das ist natürlich ein gutes Argument. Auf der anderen Seite ist dann die Frage, warum das Feature überhaupt erst erwähnt wurde. Da wäre ich persönlich konsequent gewesen und hätte es komplett unter den Tisch fallen lassen.
Aber gut, AMD wird sich (hoffentlich) etwas dabei gedacht haben...
Echt interessantes Video, ich mach mal ein Probeabo🙂
Vielen Dank!
Funktioniert das inzwischen mit rx 7900xtx ?
Ich kann leider keinen anderen Stand vermelden, als im Video angegeben. :(
Denn ich habe die Karte nicht mehr "zur Hand", sodass ich keine neuen Erkenntnisse habe. Tut mir leid.
Habe selber eine rx7900xt, ja es funktioniert. Bei mir ist Win11 installiert.
I have a question and can't find an answer anywhere, maybe you will help. Can these CPUs do 4k 120Hz 10bit HDR over HDMI? I have LG C2 TV, I want to run it at full spec with integrated graphics.
Unfortunately there are only a few pieces of information. In one launch-presentation AMD listed the following features:
- DisplayPort 2.0 UHBR10
- HDMI 2.1 with FRL
- 4K60 capabilities
This is the only slide I know:
www.planet3dnow.de/cms/wp-content/gallery/hybrid-graphics/features_l.png
Some motherboards can reach higher specs with its onboard-connectors. For example the HDMI-port of my current ASRock B650M PG Riptide is specified with "HDMI 2.1 TMDS/FRL 8G Compatible, supports HDR, HDCP 2.3 and max resolution up to 4K 120Hz" (quoted from manual).
On the other hand my sample of ASUS ROG Strix X670E-E Gaming WiFi has support for 4K60 with the HDMI-Port (DP can up to 8K60 though).
In the end I wouldn't bet on 4K120, especially with HDMI. At least not with current gen iGPU. :(
@@hardwarestories Thank you so much for the reply! Yes, I don't have my hopes high, but still gonna try :)
@@myroslav6873 Wish you luck. It would be great if you could share your experience.
@@hardwarestories Okay, so I tested it. It can do 4k 120Hz over HDMI only in 4:2:2, which is not good for text rendering. For full RGB 4:4:4 it can do 4k 60Hz. This is not a motherboard/HDMI connector limitation, but an iGPU. Maybe next gen CPUs will be able to do 4:4:4 4k 120Hz.
@@alexbriss hi. which motherboard?
Unfassbar ,das amd ds nicht als Feature angibt. Wäre doch ein weiteres Kaufargument. Als ob die es nicht wollen ,das man Strom spart.
Habe ein ryzen 2400g zusammen mit einen b550 asus board und eine rtx 3070 fe da und bei mir funktioniert das auch 🤔
Echt? Das funktioniert schon auf AM4-Boards mit iGPU? Danke für die Rückmeldung!
Ich finde es echt komisch, warum das nicht besser vermarktet wird. Denn damit lässt sich - je nach Hardware-Konstellation und Nutzungsszenario - echt ne Menge sparen. Mehr, als wie man üblicherweise mit einer neuen Hardware-Generation sparen kann.
aua big bottleneck^^
Und Intel kann das nicht mit den aktuellen APUs?
Theoretisch kann Intel das auch anbieten. Sofern der PC einen Onboard-Grafikausgang bietet, könnte Intel das Feature ebenfalls auf Desktop-PCs anbieten. Ob sie das auch in der Praxis tun, entzieht sich meiner Kenntnis.
Bei Notebooks ist das Thema deutlich präsenter, sodass es dort scheinbar schon flächendeckend genutzt wird - und zwar schon von Hause aus vom Hersteller umgesetzt - und nicht erst durch einen Eingriff des Users.
Hallo und erstmal Danke für das Video. Ich habe es nach diesem Video auch ausprobiert und es hat zwar funktioniert mit einer Ryzen 7600, RX 6700 XT und einer MSI MAG B650 Mortar mit neusten Bios und neuste AMD Treiber. Jedoch sieht die Auslast von der IGD im AMD Adrenalin katastrophal aus: Eine ständige pulsierende Auslast, die ständig von 0 auf 100% hin und her springt non-stop, kann nicht gesund sein für eine iGPU und CPU. Ebenso spring die Watt-Werte pulsierend ständig von 30 auf 60W hin und her! Und alles ohne, dass irgendetwas im Hintergrund läuft (außer das übliche im Autostart). Die graphischen Werte von der Auslast ähneln einem menschlicher EKG. Die Temp. blieb im normbereich. Das kann nicht normal sein. Ich habe mich nicht getraut irgendwelche Test-Läufe zu machen.
Ich lasse es lieber über die normal Konfigoration mit Grafikkarte als Standard laufen, da siese Verhalten von Hybrid-Graphics zu unheimlich und zu unsicher ist, wenn man sich die Werte und die Grafik-Kurven der Werte anschaut. Ich habe ein Video mit dem Handy dazu gemacht, vielleicht veröffenbtlich ich es irgendwann.
Laptop hat sowas; Cpu integriert Stromspar Gpu für Surfen und Desktop,
Hochleistungs Gpu für Gaming oder 3d Anwendungen.
Desktop hat sowas nicht, verbrauch im IDLE 100-160Watt.
Verbrauch Viel zu hoch, daher läuft immer der Laptop.
Der Desktop wird nur für Gaming benutzt.
Ja, korrekt. Solch ein Feature kennt man bisher eigentlich nur vom Laptop. Aber AM5 bietet das Feature jetzt halt auch im Desktop-Bereich an.
Wie schon erwähnt ist das nicht neu, inzwischen aber - theoretisch - ausgereift genug. Wenn denn die Treiber passen.
Ich finde es tatsächlich nicht schlecht. Aber das Nutzungsszenario muss passen. Bei mir tut es das - also werde ich das in der Praxis nutzen.
Rein technisch gesehen kann ich mir das nur deshalb vorstellen,das es nicht beworben wird da es vielleicht beim umschalten zu last spitzen kommt. Was vielleicht nicht gesund ist für die Hardware. Komisch . Bei Intel Laptops gibt es doch schon seit Jahren Hybrid Grafik.
Das Thema Hybrid Graphics interessiert mich selber schon lange, da ich persönlich keinen PC laufen lassen möchte, der unnötig Strom verbraucht. Alles über 50 W sind übertrieben. Deshalb hoffe ich, dass sich das stärker entwickelt, da es noch Kinderkrankheiten aufweist, aber zumindest unter AMD könnte es eher was werden. Hoffentlich.
Zur erwähnten Latenz wäre ich eher an richtigen Messungen interessiert. Gefühlte/subjektive Aussagen sind uninteressant, da jeder Mensch eine andere Empfindung hat. Ich weiß nicht, wo ich darin liege, aber harte Zahlen sind immer besser, weswegen ich eher enttäuscht war, dass keine Messung zumindest mit einem Smartphone und unterstütztem SlowMo Video durchgeführt wurde.
Als Alternative zu Hybrid Graphics, die im Grunde nur ein weiteres Kabel erfordert, würde es mich reizen, sowohl iGPU als auch Grafikkarte an den selben Monitor anzuschließen. Standardmäßig läuft die iGPU und die Grafikkarte ist inaktiv. Der Monitor, sofern diese Einstellung es erlaubt, schaltet automatisch auf die Grafikkarte um, wenn diese aktiv wird. Ansonsten bleibt es beim Eingang der iGPU. Ein zweiter Monitor kann weiterhin an der iGPU hängen und aktiv sein. Das sollte heutzutage kein Problem darstellen.
Keine Probleme mit Latenzen, vielleicht ein geringer Komfortverlust. Es hängt wohl primär davon ab, wie die Software damit agiert.
Bezüglich der Latenzmessungen bin ich hin- und hergerissen. Ja, echte Messungen wären mir auch lieber gewesen - der Aufwand dazu war mir aber zu hoch. Entweder, ich hätte noch weiteres Geld investieren müssen, um mir Equipment zu besorgen, oder ich hätte mir irgendein reproduzierbares Prozedere ausdenken müssen. In beiden Fällen hätte ich noch mehr Freizeit versenkt, als ohnehin schon in die Versuche geflossen ist.
Ursprünglich wollte ich ein kurzes Video zum Thema machen. Dann kamen nach und nach weitere Erkenntnisse und aus kurzen Tests wurden vier Grafikkarten, zwei Windows-Versionen, mehrere Treiber-Versionen (zumindest auf AMD-Seite) und dutzende Benchmark-Ergebnisse - das alles hat ohnehin schon deutlich länger gedauert, als ich ursprünglich geplant hatte. Deshalb habe ich mich irgendwann dazu entschieden, das Thema samt meiner eigenen Eindrücke anzusprechen, jedoch keinen Aufwand in irgendwelche - möglicherweise ungenauen - Messwerte zu stecken. Zudem hatte ich die Hoffnung, dass das Thema vielleicht auch mal auf den einschlägigen Hardware-Seiten aufgegriffen wird - dort sind ja in der Regel entsprechende Mess-Möglichkeiten vorhanden.
Ja, klar. Subjektive Wahrnehmung ist und bleibt subjektive Wahrnehmung - diesbezüglich gibt es aber zumindest keine groben Schnitzer. Für mich fühlt sich dGPU und Hybrid Graphics bisher gleich an.
Bezüglich der anderen Frage bzw. des "Plans": Ich habe zum Thema ein Update-Video gemacht, da es sich bei Hybrid Graphics um ein Windows-Feature handelt (was mir in der Form nicht bekannt war). Und nach der Definition eines hybriden Systems seitens des Windows Display Driver Models ist die dedizierte GPU ein render-only-Device OHNE angeschlossenen Monitor. Daher ist davon auszugehen, dass Hybrid Graphics nicht oder nicht korrekt funktioniert, wenn ein Monitor an der dedizierten GPU angeschlossen wird. Unabhängig davon, ob er genutzt wird oder nicht.
Grundsätzlich sollte es technisch möglich sein, die benannte Verkabelung auch zu nutzen. Nur passt diese nicht zur Definition laut Microsoft, was mich daran zweifeln lässt, dass sie funktioren wird. Denn allein eine Konfiguration laut Definition funktioniert scheinbar nur, wenn der Treiber mitmacht - da fällt es mir schwer zu glauben, dass abweichende Verkabelungen trotzdem funktionieren. Wie gesagt: Theoretisch sollte das möglich sein, in der Praxis wäre ich aber bis zum Gegenbeweis skeptisch.
@@hardwarestories Meine alternative Nutzungsmöglichkeit war weniger eine Alternative tun Begriff Hybrid Graphics als vielmehr eine einfache zu realisierende Alternative generell.
@@hardwarestories Subjektive Eindrücke sind immerhin mehr als gar keine Eindrücke und helfen erstmal für eine erste Entscheidung es zu testen.
Ich würde bei sowas auch selber mal an den jeweiligen Augängen schauen ob sich die 144Hz anders anfühlen.
Aber wenn objektive Messungen zu Aufwendig/Teuer sind ist es vollkommen in Ordnung, evtl spricht sich das Thema einfach irgendwann rum und jemand aus Hardwareluxx, CB oder Igor liest das hier.
Nochmals vielen vielen Dank für das aufgreifen der Thematik und mögliche Lösungen!
Interessantes Video, mir stellt sich natürlich die Frage was die iGPU so sparsam macht , und warum es AMD nicht schafft , selbe geringe Leistung genauso sparsam auf der dedizierten GPU zu berechnen.
Zuerst einmal muss man festhalten, dass aktuell keiner der Hersteller mit einer dedizierten Grafikkarte die gleiche Leistungsaufnahme schafft wie mit einer iGPU. Denn selbst mit dem in Sachen Idle-Leistungsaufnahme Branchenprimus NVIDIA konnte ich noch zwischen 4,4 Watt (Prime95) und 10,2 Watt (Wiedergabe eines 4K-RUclips-Videos) einsparen. NVIDIA ist dabei schon sehr nah dran an einer iGPU, ganz erreichen können sie sie meiner Meinung nach aber nicht.
Die iGPU sitzt im Prozessor, ist also "ganz nah dran" am RAM und an den CPU-Kernen. Eine dedizierte Grafikkarte muss dagegen Daten erst über die CPU und den RAM schicken und benötigt ein eigenes Speicher-Interface auf der Grafikkarte. Das Speicherinterface ist angeblich einer der energiehungrigsten Komponenten einer Grafikkarte, wenn diese sich im idle befindet. Denn selbst, wenn nur ein Desktop-Bild angezeigt wird, müssen gewisse Daten "bewegt" werden. Und dazu muss das Speicherinterface aktiv sein. Die iGPU hat dieses Problem nicht, weshalb ich das Interface als Ursache ansehe.
Allerdings bin ich auch kein Elektroingenieur - insofern kann ich mit dieser Vermutung auch falsch liegen. Ich denke aber, dass die Nähe iGPU zum RAM und den CPU-Kernen sowie kein eigenes Speicherinterface die wahrscheinlichsten Gründe dafür sind, dass eine diskrete Grafikkarte mehr verbraucht als eine iGPU. Selbst im Idle bzw. ohne 3D-Last.
Habe dadurch massive Performanceeinbußen in Forza Horizon 5 bekommen. Meine RX6700XT hat beim Gaming seltsamerweise auch nur noch um die 100 Watt gezogen.
Mein System:
1. Mainboard Asus ROG STRIX B650E-F GAMING WIFI mit BIOS Version 0821
2. CPU AMD Ryzen5 7600X
3. RAM G.Skill 32 GB F5-6000J3038F16GX2-TZ5NR, Trident Z NEO RGB, XMP, EXPO, for AMD)
4. GPU RX6700XT
5. Netzteil be quiet! Straight power 11, 850W, Platinum
Ich hatte bei meinen Tests seltene, einzelne Ausreißer in den Benchmarks. Spätestens nach einem Windows-Reboot war aber wieder alles normal.
Da mein Ansprechpartner bei ASUS selbst nicht wusste, ob das X670E-E Gaming WiFi Hybrid Graphics unterstützt oder nicht, würde es mich nicht wundern, wenn BIOS- und/oder Treiber-seitig nicht alles bei deinem ASUS-Board passt.
Da du DDR5-6000-RAM hast: Wie läuft der denn? Läuft der mit DDR5-6000? Denn es gibt berichtet, dass RAM-OC bei Nutzung der iGPU zu einem Problem werden kann. Das System muss dabei nicht zwingend instabil werden. Das könntest du beispielsweise ausschließen, wenn du mal zum Test DDR5-4800 einstellst und testest, ob die Performance dann wieder dort ist, wo sie eigentlich sein soll.
Passt die Performance eigentlich abseits von Forza Horizon 5? Oder gibt es auch in anderen Games/Anwendungen/Benchmarks einen Performanceverlust?
@@hardwarestories Hallo. Ich habe es aufs Neue probiert. Diesmal mit Buildzoid's "Easy memory timings for Hynix DDR5 with Ryzen 7000" vom Kanal "Actualy Hardcore Overclocking" und dem AMD Treiber "Adrenalin 23.2.1 (WHQL)".
Die großen Performanceeinbrüche konnten damit beseitigt werden. Allerdings habe ich im Hybrid-Modus nur Nachteile gegenüber einer reinen Nutzung der RX6700XT. Diese da wären:
- Flackern beim Abspielen von 4KHDR RUclips-Videos.
- RadeonSuperResolution lässt sich nicht mehr einstellen.
- Meine Undervolting-Einstellungen für die RX6700XT funktionieren im Hybridmodus nicht mehr. Daraus resultieren ein leichter Performanceverlust, ein deutlich höherer Stromverbrauch, höhere Temperaturen und lautere Lüfter.
- Der HDMI-Ausgang des Mainboard beherrscht nur 60Hz bei 4K, der Ausgang an der Grafikkarte 144Hz bei 4K.
Die 60Hz bei 4K im Hybridmodus könnte ich verkraften, wenn die anderen Nachteile nicht wären.
Wenn es hier Lösungen geben sollte, werde ich gerne nochmal den Hybridmodus ausprobieren. Denn eine funktionierende Effizienzverbesserung nehme ich gerne mit.
@@markusk.3162 Danke für die ausführliche Rückmeldung!
Das Video von Buildzoid habe ich mir am Wochenende ebenfalls angeschaut. Ich bin nur noch nicht dazu gekommen, die Timings auszuprobieren. Da mein RAM Hynix M-Die haben müsste, sollte das auch bei mir funktionieren.
Bei den von dir beschriebenen Problemen würde ich aber auch erstmal wieder ausschließlich mit der dedizierten Grafikkarte arbeiten und auf Hybrid Graphics verzichten!
R O G und nicht Rock. Und Strix und Schtrix
Zur Kenntnis genommen. Aber ich glaub, alle wissen, was gemeint ist. ;)
Red Wine wird immer besser
Bisher haben sie es fast immer geschafft, im Laufe des Produktzyklus die Komponenten besser in den Griff zu bekommen.
Aber irgendwann nervt es, wenn man als Käufer quasi darauf angewiesen ist, dass sie das wieder hinbekommen.
also hat AMD ein laufendes feature welches sogar mit nVidia funktionierte, selbst kaputt gemacht auf RDNA3 :D :D :D hahahahah
Tja, das kann man leider irgendwie so sehen.
Zwar steckt da technisch noch etwas mehr dahinter, in der Treiber-Arbeit von AMD scheint Hybrid Graphics mit RDNA3 absolut keine Priorität zu haben. Denn es funktioniert auch mit dem Adrenalin 23.1.1 unter Windows 11 noch immer nicht - ich konnte gestern die 7900XTX noch einmal testen. :(
@@hardwarestories für mich ist das so, als würde Intel bei neuer Generation einfach so HT abdrehen.. finde die letzen 2 Jahre hat amd stark nachgelassen.
@@Dave20VT Ganz so weit würde ich nicht gehen.
HT ist ein Feature, welches
- Einfluss auf die Performance einer CPU hat
- welches in der Vergangenzeit zur Unterscheidung von Produkten genutzt wurde (Core i5 / Core i7)
- was jeder, der es kauft, auch nutzt
Das alles trifft auf Hybrid Graphics nicht zu. Deshalb ist der Vergleich meiner Meinung nach nicht ganz passend.
Das ändert aber nichts dran, dass sich AMD selbst ins Knie geschossen hat. Von der Vorstellung von AM5 am 26. September bis zum Launch von RDNA3 am 13. Dezember sind gerade einmal 11 Wochen vergangen.
Da AMD offensichtlich für RDNA3 mit Chipletansatz einen komplett neuen Treiber stricken muss(te), scheint bisher nicht alles so zu funktionieren, wie es eigentlich sollte. Und Hybrid Graphics scheint aufgrund der größeren Probleme einfach hinten runter gefallen zu sein.
Mich persönlich ärgert das, da ich den hybriden Ansatz eigentlich ganz nett finde, um noch ein paar Watt Energie zu sparen...
@@hardwarestories das war ja nur so ein Beispiel von mir mit HT ;) hypothetisch
Jedenfalls sieht man das AMD nachlässt, die erhoffte Generation die auf Platz 1 klettert bleibt weiterhin aus
@@Dave20VT Da hast du natürlich recht. Ich bin von RDNA3 bisher auch ordentlich enttäuscht - wirkt irgendwie wie ein Rückfall in alte Zeiten. :(
Mit AM5 bin ich zwar prinzipiell zufrieden, jedoch nervt die immer höher geschraubte Leistungsaufnahme. Aber gut, man muss die CPUs ja nicht mit voller TDP laufen lassen. Etwas mehr Effizienz von Hause aus wäre trotzdem schöner...
nvidia optimus gab es ja auch noch