die sind halt so krass abhängig vom treiber und deinen windows einstellungen ich glaub so richtig was rbingen tun die nich....auch wenns natürlich nice is aber die werden crazy flott outdated sein
Vielen, vielen Dank, Roman. Du rundest mit diesem Video alle bereits vorhandenen Reviews vollumfänglich ab. Damit meine ich u.a. Themen wie z.B. dem Stromverbrauch im Vergleich. Klasse!
@@mimon6706 kann beschnitten sein wie sie will wenn sie wqhd die fps liefert und in 4K nicht und Nvidia die so auf den Markt bringt. Verlangen kann ein Unternehmen was es will . . . und wenn die für high FPS-4K zwei Karten im Angebot haben . . . nagut. Und wenn's die Karten sind die's aktuell gibt - umso besser. Geile Stücke. 2080ti - damals 1650,- 4090 custom Model - 1650,- oder mehr. geil oder ? besser als selbst entwerfen, bauen und löten. Und wenn sie meinen nvidia geht mit ihren Mittelklasse (o.ä.) Karten noch nicht mit der Zeit . . . also ich bin selbst beschnitten . . . auch Jahre schon . . . und happy Also gibt wirklich schlimmeres. Muss mal meine 4070ti mal bei 4k+ mit Pico 4 probieren . . . Werde w.o.h.l kaum gegen die Rentner 3080 tauschen. Um Himmels willen hoffentlich nimmer mehr
Danke, dass du die Geldersparniss erwähnt hast und mit einem schönen Beispiel verdeutlicht hast. Bei anderen Reviews wurd zwar auch die Effizienz angesprochen aber keiner hat so den Strompreis berechnet wie du.
gilt auch nur für Deutschland. schon in Österreich kannst mit der Angabe nix anfangen. wir haben den weltweit höchsten strompreis, dafür aber immerhin auch den Dreckigsten in Westeuropa
@@trex70 Der Turbo Button hat die Taktfrequenz aber nicht erhöht, sondern reduziert. Bei meinem ersten PC, ein AMD 486 DX4 100 wurde von 100 MHz auf 66 MHz reduziert.
@@wormaus-mixed Nein der hatte durchaus seinen Sinn. Das runtertakten hatte den Grund, das viele Programme damals so schnell liefen, wie der Takt es Prozessors. Bei alten Spielen war das besonders störend. Mein Onkel hatte z. B. ein altes Flugzeug-Kampf Spiel, das auf seinem 286er mit 33 MHz normal lief, bei mir war es aber dreimal so schnell, also unspielbar. Daher konnte man den Takt mit dem Turbo-Knopf meist um ca. 1/3 reduzieren, um "alte" Software mit neuen Prozessoren kompatibel zu machen.
Ich finde es klasse, dass mal eine Gainward-Karte irgendwo getestet wird. Da mich diese sehr anspricht. Reviews zur Pheonix und Phantom sind auf RUclips gefühlt sehr rar. Daher: danke für deinen Ersteindruck. 👍
9:48 - Interessant finde ich, dass es scheinbar noch zwei freie Plätze für zusätzliche Speicherbausteine gibt, womit man bei dessen Nutzung auf 256 bit mit 16 GB kommen würde. Sofern man identische Speicherbausteine irgendwo kaufen kann und es - falls nötig - entsprechende "Schablonen" zum drauflöten gibt, wäre es mal interessant, ob man damit die Karte aufrüsten kann oder die Bausteine ohne Funktion bleiben. Nimmst du die Herausforderung an? :D
Wäre schon interessant zu erfahren was damit ist. Es war vor ein paar Monaten geleakt worden, dass die 4070 mit einer 16gb Speicherkonfiguration auf den Markt kommen sollte, wurde jedoch nicht bestätigt.
Man braucht dafür mehr als nur so einen Speicherbaustein/e. widerstände, Kondensatoren, Spannungsteiler... Das wird sicherlich nicht so einfach umsetzbar sein, falls es überhaupt geht. Das Auflöten dürfte da noch das einfachste sein.
@@XXXXL25 Entweder ist das Sarkasmus oder nicht deckungsgleich mit der Geschichte die ich gefunden habe: "NVIDIA never did release a 16GB version of the 2070, so this card is truly one of a kind. After some careful scouring of the internet, the GDDR6 chips were procured and carefully soldered on with a hot air gun. A few resistors had to be moved to accommodate the new RAM chips. During power-on, [VIK-on] saw all 16 GB enumerate and was able to run some stress tests. Unfortunately, the card wasn’t stable and started having black screen issues and wonky clocks.". 🤨
Meistens ist es nur möglich Bausteine zu tauschen, neu aufzulöten dürfte nichts bringen, da Nvidia die schlichtweg intern nicht verbindet, sprich die Lötstellen sind nur da, weil das Board eben auch für 16 GB Karten wie die 4080 verwendet wird & so billiger ist ("mehr ist weniger" oder so).
Tolles Video. Danke für die ausführlichen Tests. Einziger Kaufgrund für die 40er Karten ist deren Effizienz. Bei der 4070 kommt noch die RT Leistung dazu. Bedenkt man das man für den selben Preis ne 6950xt bekommt. Die verbraucht mehr... Leistet aber auch mehr und hat mehr vram... FSR 3.0 wird's auch für die alte AMD Generation geben. Man zahlt also wiedermal nur für frame Generation und mehr RT Power nen saftigen Aufpreis bzw bekommt fürs selbe Geld weniger Raster Leistung und vram... DAS sind die "Nvidia Sachen". Der Vorwurf den ich Nvidia hier mache ist klar die Preis treiberei... AMD und Intel werden sich da anpassen. Und wir User haben dann den immer teurer werdenden Salat. Das gesamte bisherige 40er lineup gehört mindestens 100€ günstiger. In der UVP... Schaut man sich die Preise an wird's dann wohl bei round about 450-500€ für ne 4060 werden. Und egal wieviel Leistung diese karte dann gegenüber einer Karte aus der 1080p ära hat, das ist zu teuer. Ich bin eigentlich ein sehr neutraler Hardware bekloppter. Ich feiere neue Technologien. Wenn sie funktionieren. Egal von welchem Hersteller. Aber mit RT und den von Nvidia dazu gelieferten Features Werd ich nicht warm. Der Aufpreis ist nicht gerechtfertigt und ohne KI sampling funktioniert's einfach nicht. Die einzigen paar Pluspunkte die Nvidia hat. Ist die Effizienz der 40er Karten. Das finde ich schon sehr geil. Aber solangsam verliert mich Nvidia. Würde aktuell bis auf die 4090 keine Nvidia Karte empfehlen. Und die 4090 auch nur wenn's um absoulut höchste Ansprüche geht.
Irgendwie will man sich anscheinend nicht die Mühe machen attraktive Karten zum Aufrüsten anzubieten. Wenn ich an die letzten Generationen denke, dann hat das 70er-Modell gleichziehen können zum Flaggschiff der Vorgeneration. Die 4070 erreicht jetzt nur die 3080. Und das bei einem vermutlich gleichen Preis. Verbraucht zwar weniger und hat endlich den VRAM, den der 3080 von Anfang an mindestens zugestanden hätte, trotzdem fühlt es sich so an, als wenn man immer weniger für immer mehr Geld bieten will.
Das stimmt so nicht ganz. Das Flaggschiff ist seit der 30er Serie die xx90. Da kommt die 4070 halt nun nicht ganz ran. Auch sonst war es so, dass die nächste Generation der 70er meistens immer mit der Vorgänger 80er mithalten konnte. In der Hinsicht hat sich halt, mit Ausnahme des Sprungs von 20er zu 30er Serie, nichts geändert.
@@Ruhrpottpatriotda hat sich massiv etwas geändert! Zur Zeiten der GTX 200er bis 900er Serie war da ein viel größerer Sprung gewesen. Habe ich das 70er Modell gekaut, dann war das 70er Modell zum einem nur 15 bis 20 Prozent langsamer als das Topmodell derselben Generation. Und zum anderem deutlich schneller als das Topmodell der vorherigen Generation. Und was bekomme ich heute? Die 4070 ist ein unterer Mittelklasse Chip: 1/3 der Transistoren des Topmodells und nicht mal halb so schnell, aber dafür trotzdem maßlos überteuert. Nvidia verarscht seine Kunden aktuell nach Strich und Faden.
Die NVIDIA Abzocke nimmt kein Ende. Jetzt versucht man hier quasi eine 4060 als 4070 zu verkaufen. Deswegen hat die eauch nur die Leistung einer 3080. Wäre es eine echte 4070, dann wäre sie deutlich schneller als eine 3080. Wir fassen zusammen: NVIDIA verkauft eine Karte mit der Leistung einer 3080 von vor vier Jahren. Die 3080 wurde damals direkt von NVIDIA für 699 € angeboten. Jetzt will man für diese umdeklarierte 4060 doch tatsächlich 659 €. Wer hier jetzt zuschlägt kann eigentlich nur Hansi Hirnschiss heißen. Kauft auf keinen Fall diese Karte zu dem Preis!
@@UltraLord5850 Die Anzahl der Transistoren ist schon lange kein zuverlässiger Indikator für Geschwindigkeit mehr, insbesondere wenn Parallelisierung und Vektorisierung im Spiel sind. Und bevor mir jemand den Sticker "NVDIA Fanboy" antackert: Bräuchte ich CUDA nicht für meine Arbeit, hätte ich schon längst eine AMD Karte.
: Die Sache mit der Leistungsaufnahme finde ich vollkommen richtig angebracht. Ich fänds gut, wenn darauf mehr Leute eingehen würden. Man kann dann auch mal rechnen ab wann sich eine Neuanschaffung lohnen würde. Igor gibt auch immer gute Reviews ab zum Stromverbrauch.
Ich finds irgendwie traurig das es beim Stromverbrauch immer nur um Geld geht und der Aspekt mit den CO2 Emissionen und anderen Externalitäten komplett außer Acht gelassen wird. Bei ca. 350g CO2e pro kWh in Deutschland kommt da nämlich auch einiges zusammen. Da sind wir schnell mal auf 300kg CO2 pro Jahr nur für den Spielerechner+Bildschirm.
@@Mike-oz4cv : Ich sehe was Du meinst und Du hast da auch vollkommen Recht. Das spielt bei mir auch eine Rolle. CO2 soll ja aber irgendwann aus der Rechnung rausfallen, wohingegen der Preis eher hoch bleiben wird. Aber es bleibt abzuwarten.
@@philippbeckonert1678 Komplett rausfallen werden wir niemals miterleben. Selbst bei 100% erneuerbaren Energie(Wo von wir sowieso garantiert noch mindestens 25-30Jahre entfernt sind), muss man noch die Herstellung von Anlagen, Stromnetz und die Instandhaltung mit einbeziehen und da dort auch viel aus dem Ausland kommt und bis dort CO2 neutral produziert und Ressourcen abgebaut werden und sämtliche Laster, Flugzeuge und Schiffe CO2 sind fortbewegen... Natürlich hast du mit deiner Aussage Recht, aber selbst bis nur der produzierte Strom CO2 neutral wird, wird schon viel zu lange dauern^^
Das ist zwar absolut super aber wie wir bei den Energiepreisen einfach abgezockt werden sollte eher voran stehen. Wenn ich noch mehr spare, kann ich fast mein Hobby aufgeben. Währenddessen bei denen die es sich weiter locker leisten können es schlicht egal ist. Der Energiepreis spaltet nur weiter die Gesellschaft ohne Nutzen für die Umwelt.
Tolles Video :) Ich habe mich mal gefragt was wäre, wenn die Platine der Founders Edition mal so verädert wird, das man Komponenten der I-Chill übernimmt auf die Founders Edition. Also Die ganzen Spannungswandeler etc. austauschen. Ist das theoretisch möglich und welche Karte hat hochwertigere Komonenten verbaut?
Also hoffe das es noch in nächster Zeit 4070 Modelle unter 200mm länger auf dem Markt schaffen, also so wie ein paar 3060Ti Modelle. Ich will so eine für meinen 5L PC. Die Gainward scheint möglicherweise eine solche Variante zu bekommen, zumindest wäre das kleine PCB und die 8-Pin ein Hinweis darauf.
2:00 Das ist gut durchdacht mit dem stecker, weil der 12v hipower anschluss eine gewisse länge bis zur biegung braucht damit er nicht abfackelt und dadurch dass der stecker so weit hinten ist hat man einen längeren weg bis zur biegung.
Top review und mal wieder 100% on point mit der Kritik! Auch super, dass du das mit der Effizienz ansprichst. Das hat mir gestern generell durch die Bank ziemlich gefehlt, das macht insb. heutzutage schon einiges aus und sollte nicht komplett vernachlässigt werden imo.
warum sollten die auf Boardpartner verzichten ? die FE modelle werden ständig nur angekündigt .. meist mit gerade noch annehmbaren Preisen ... sind aber so gut wie nie verfügbar ...
@@KalatSaar Weil Nvidia die Boardpartner zwingt einen gewissen Anteil der Karten zum UVP anzubieten wo die dann halt null dran verdienen. EVGA ist nicht ohne Grund als boardpartner ausgestiegen.
@@-Qonqueror- das mag zwar irgendwo auf dem Papier stehen , aber ich hab seit der 30er Reihe keine Karte zum UVP in irgendeinem Shop gesehen ... jedenfalls nicht ohne den zusatz : zur Zeit nicht verfügbar !! Eine 3080 hatte auf jeden Fall keine 1800.- Als uvp
Hallo Roman. Wie immer tolles Video! Wieso hast Du Dich bei 3:28 dazu entschieden, den min. Wert der Grafik auf 0 zu setzen? Das Diagramm würde doch viel mehr Informationen vermitteln, wenn Du zwischen 3000 und 2500 MHz darstellst.
Wird bald ein Problem werden zukünftige Karten in normale Midi Gehäuse einzubauen, vor allem wenn vorne schon ein Radiator einer AIO hängt. Nächste Generation dann 500cm lang und Quadslot standard? Oder mit jeder neuen GPU ein neues Gehäuse?
Ist auch die 4070ti ichill ähnlich gut bestückt, im Vergleich zu den anderen Modellen? Lässt sich somit pauschalisieren, dass Inno3d besser, vollwertiger herstellt?
@abee ceebee ohha ich hab das mal gemacht bei CPU aber graka stell ich mir kompliziert vor... Kann ich die selbe paste verwenden. Es ist eine 3070 die jetzt ziemlich genau vor 2 Jahren gekauft wurde weil Garantie im April weg war
Weil ich ein RGB-Depp bin, und mir die 4070Ti-Karten allesamt zu teuer waren, wurde es bei mir die Gigabyte 4070 Gaming OC. Der Kühler ist monströs groß für den verbauten Chip, hält die Karte thermisch aber sowas von im Zaum... Nur in Torture-Tests kann sie mal auf dem Hotspot die 80°C-Mauer knacken. RAM und GPU-Temps liegen beim Gaming in 1440p generell so zwischen 50 und 60°C. Idle-Verbrauch ist ebenfalls ziemlich bescheiden... 3 bis 4 Watt sind keine Seltenheit ... vielleicht auch weil die Karte selbst im Gaming häufig die Lüfter abschaltet (Standard-Lüfterkurve), und dann auch nur das GB-Logo beleuchtet ist. Die Lüfter LEDs sind nur dann aktiv wenn die Lüfter auch laufen. Das Ganze übrigens mit manuellem OC auf dem Chip und auf dem VRAM - maximal boostet die Karte so bis knapp unter 3000 MHz (~2970), und das VRAM ist mit +1000 MHz übertaktet. Bissl Augenwischerei ist das Power-Limit, das bei der Karte auf um die 300W angehoben werden kann (143% max, IIRC). Beim Gaming in 1440p zieht sie sich allerdings selten mehr als 220, 225W und einzig in Furmark habe ich bislang Leistungsspitzen von knapp über 250W gesehen. Alles in Allem eine wirklich feine Karte, allerdings immer noch deutlich zu teuer. Ich hatte "Glück" und das Ding während eines Flash-Sales für um die €630 ergattert - was meiner Meinung nach für die gebotene Leistung aber immer noch zu viel ist.
Für mich ist keine der 3 Karten der Sieger. Der wahre Sieger der 4070 er karten währe die jenige mit 2 mal 8 pin Strom anschluss. Dann eignet Sie sich erst wirklich zum aufrüsten. Kaum jemand der aufrüstet möchte bei einer neuen karte erstmal ein neues Stromkabel oder neues Netzteil kaufen, was unnötige Kosten sind.
Es gibt doch n Adapterkabel, wenn dein Netzteil diesen komischen neuen Stecker nicht hat. Da macht man dann den 2x 8 Pin dran und den Adapter in die GraKa.
Mit Idle-Leistung und Einbezug der Stromkosten. 👍 Mit nIedrigerem Powerlimit (worauf alle 40er nVidia Karten sehr gut ansprechen) kann sich die 4070 gegenüber der 3080 schon nach einem Jahr lohnen.
@der8auer Gibt es denn auch noch ein Video wo die Karten wirklich zu OC Karten werden? Vom Kühldesign sollte da ja noch was gehen wenn das Powerlimit nicht so niedrig gesetzt ist.
und jetzt bitte 2x 8Pin drauf löten und testen. ^^ Wäre zumindest sehr interessant, ab die wirklich komplett angebunden sind oder ab das nur Überreste einer Idee sind. Ansonsten mal wieder sehr informatives Video.
Danke, dass du explizit über den Stromverbrauch erwähnst. Gefühlt überall wird empfohlen die 6950xt oder o.ä. zu kaufen. Ich habe die Karte gekauft, weil sie grob die Leistung einer RTX 3080 erreicht bei geringerem Verbrauch. Tolles Video.
Er meinte damit 4070 ist mit raytrasinc genau so schnell wie 6950xt....nur verbraucht die 150 Watt... wohingegen die xt 320 haben will Ganz egal wie man es sich schön redet...die 6000 AMD im high end Bereich ist immer die schlechtere Wahl..also seit heute wohl gemerkt
@@waldowaldo1980 raxtracing könnte mir aktuell immer noch nicht egaler sein. Die 15 Spiele, wobei sich da nur bei 5 was richtig ändert. teurer mit weniger echte Performance - was man in jedem Spiel merkt - und weniger Vram, scheint mir nicht so ein besonderer Deal zu sein (fang bloß nicht an es mit dlss "schön'-zureden)
@@MHWGamer 🤣🤣😂...der dlss Spruch war gut...ich wollte gerade anfangen Sicher reine rohleistung ist eine 6950xt schneller...nur verbraucht die ne Menge Strom....ich finde wirklich dlss 3.0 ist schon ein nützliches Future für die nächste Jahre,falls native Leistung nicht mehr ausreicht...ich mein 2026 zocks du mit maximal 65 FPS...und haust dlss rein und plötzlich hast du 120....das ist dann aber schon eine andere Liga in wqhd @144hz
@@waldowaldo1980 DLSS fand ich schon immer geil. bis raytracing mal das tut, wie es gedacht war, muss noch viel Programmierarbeit geleistet werden und ob man es bis dahin schon begraben hat ist die Frage.
Kannst du aus einer solchen effizienten GPU nichtmal eine singleslot graka bauen oder ein ähnliches Format wie die Asus GTX 970 Mini damals ,mit einem PT von 60-70%. Wenn das so weiter geht sehen wir dann bald wieder passiv gekühlte Versuche? Ala Rtx 4050/4060 passiv..
Danke, auf das Review habe ich schon auf Vorgestern gewartet xD Wieso die Custom Modelle nach Release erst gereviewt werden dürfen, sagt doch jetzt alles. Die Leute Stürzen sich um Punkt 15 uhr auf alle Verfügbaren 4070 Modelle und sehen direkt, oh OC version, die ist sicher schneller, aber hätte man vorher das Review dazu gelesen, hätte das sicher jeder vom Kauf abgehalten und einfach eine non OC geholt. 4-5% sind wirklich sehr happisch für den Aufpreis von fast 100€ bei manchen Modellen. Ich hab das gefühl, Nvidia gehts nur noch darum alles so gut so wie möglich zuvertuschen, um den Meisten Umsatz zuerzielen. Es ist wirklich Traurig, Nvidia steht heutzutage nie besser da und verlangt immer mehr, für immer weniger. Klar ist die Effizienz toll, aber hätte man zumindest auf 16GB aufrüsten können. Passt auf, die 4060 kommt dann mit 16 GB, aber mit so einen abgespackten Chip, das sich das aufs Gaming dann auch wieder nicht lohnt. Ich verstehe es einfach nicht mehr was das soll und wieso man immer weiter Nvidia den Aufpreis zahlt, die entwickeln sich langsame immer mehr zu Apple. Zusatz: Ja DLSS 3 und bessere Raytrace Performence ist toll, aber kein Argument für überteuerte Preise, dass sind Nebenprodukte, die jetzt bei jeder Grafikkarte dabei sind. Man sollte hier immer auf die Rohleistung ausgehen, da auch nicht jedes Spiel diese Features Unterstützt. Besonders die Künstlichen erzeugten Zwischenframes um die FPS zuverdoppeln, klingt auf den Papier ja toll und sieht bei der Umsetzung auch smother aus, aber sobald der Vram voll ist oder die FPS bei unter 15 FPS sinken, kann selbst das keine Hilfe mehr sein. Mit Downsampling zusammen ja, aber man spürt aktuell noch, das die Grafik dadurch leidet.
Die können mich alle....bin zurück auf hochwertige 25 Zoll Monitore /1080p. Bildtechnisch schlagen die nach meiner Erfahrung jeden 27Zoll /2K Monitor im mittleren Preissegment bis 600 €. In Kombi mit meiner TUF6800XT bin ich für die nächste Zeit absolut im sicheren Hafen.
mich würde mal interessieren wie sich die RTX karten ab der RTX30 Serie verhalten an einem 16:9 Full-HD 144hz monitor beim Rendern & Gaming??? weil die ja so viel ich weis glaub eher für 4K Ausgelegt sein sollen🤔oder ob man da Zwangshaft ein 4K Monitor bräuchte für wenn einem Full-HD an der Auflösung ausreicht.
Keiner hindert dich daran, die Karte an einem 1080p Panel zu verwenden, du verschwendest höchstens etwas potenzielle Rechenleistung, weil du die Karte nicht komplett ausgelastet bekommst. Es ist auch egal, welchen Monitor du benutzt, wenn du Videos renderst. Relevant sind die Ausgabeparameter (Auflösung, Bildrate, Bitrate).
Cooles Video Roman, ich wäre Dir sehr verbunden wenn Du doch bitte ein Video machen könntest zu den "4070TI OS" Grakas mit ASUS und weiteren Herstellern wie in diesem Video. Mit Ausbau der Backplate usw. Danke und schönes Wochenende, Gruß aus Berlin HSH.
Sehe ich ähnlich aber man darf nicht vergessen das dies auch nur eine Notlösung ist sofern man unbedingt eine neue Karte braucht. Hab noch ne 2080Ti vor dem Release der 3080 für 500€ ersteigert. Weiterhin 0 Gründe auch nur daran zu denken etwas zu investieren. Wenn Intel nicht langsam mal in die Pötte kommt ist der Markt für vernunftorientierte Gamer quasi tot. Adé PC Masterrace.
@@maxmustermann2370 hasb ne 3070ti letztes jahr geholt .,.jezt hab ich zuwenig vram -.- Leistung ansonsten top ...werd in 2 jahren auich zu amd wechseln wenn nvidia 1) die preise net senkt und 2) nicht mehr vram verbaut.
Im Mind⭐Star gibt es in letzter Zeit immer mal zwischendurch die größte AMD Karte der vorherigen Generation (RX 6950 XT) von diversen Herstellern. Zuletzt an Ostern für 649,- 😉
@@maxmustermann2370 Intel hat schon sehr viel Fortschritt mit der ARC gemacht, aber Treiberoptimierung für eine 3D Beschleunigerkarte, ist halt was anderes als für eine iGPU. Das braucht halt seine Zeit und Intel arbeitet ja auch schon an die 2. Gen der ARC, aber vor 2024, wenn nicht sogar erst 2025, wird die nicht kommen.
@@Fairwild1988 Typisch NVidia halt, verlangen Mondpreise und sind dann geizig mit dem VRAM. Ein Schelm wer Böses denkt, dass sie das absichtlich machen, damit du die teueren Modelle kaufst 🙂
@@askat1085 Es betrifft auch billige 4090er ohne RGB und mit wenig Phasen. Z.B. MSI Ventus. Und im Idle sind die Lüfter aus.Das muss ein anderes Problem sein. Evt. behält Nvidia das Geheimnis für sich oder es liegt an der Platine oder am Bios.
@@optimalsettings Alles, Die Bauweise, das Bios und die Platine. Mehr Kerntakt braucht mehr Spannung das braucht mehr Strom, Die FE ist eigentlich immer auf einen Level die Customkarten werden meistens ans Limit übertaktet. Die Karten werden aber generell im Standart zu hoch eingestellt was Strom und Spannung angeht, wenn man sieht wie weit man die 4000er Karten im Powertarget und Undervolting begrenzen kann beweist es ja schon.
Ich weiß nicht, früher waren die custom Karten irgendwie immer deutlich stärker wie die Referenz. Was ist da nur los bei Gainward, Zotac und co. haben die alle ihre Arbeit verlernt?
Naja Spulenfiepen wird wenn ich mir in wharscheinlich 2 Jahren eine neue Karte kaufe auf jedenfall ein Thema sein, da auch die nächste Karte wieder Custom Wassergekühlt wird. Und meine RTX 3080 Asus Tuf Gaming ist da schon krass mit dabei mit Spulenfiepen. Wenn da drei Lüfter montiert sind hört man das halt nicht. Apropo Strompreis, Wenn du so eine Rechnung machst, sag bitte auch dazu mit wie viel Cent pro kW7H du rechnest. Wäre für mich besser zum nachvollziehen und für manche andere auch :)
Irgendwie komme ich nicht wirklich in Aufrüst Laune, ich habe seit November 2021 eine Rx 6800XT und bisher gibt es keine Karte, deren Aufpreis zum Restwert meiner aktuellen sich im Leistungszuwachs verhältnismäßig attraktiv gestalten würde. Ich spiele aber auch nur in 1440p und max 75 Hz und das anspruchsvollsten Game wäre in meinem Fall Far Cry 6, alles andere schluckt weniger Leistung. 😅
2:00 lol, was ist das denn? Das ist ja schon fast Körperverletzung wenn man das Kabel mit dem Finge ab bekommen will. Schön dass du die Inno3D so kritisierst. Das Design ist wirklich an vielen Ecken fragwürdig.
Hallo Roman, ich habe viele Videos von der Review der 4070 angeschaut. Aber deines ist wieder am besten erklärt. Man merkt dein großes Fachwissen sehr.
Das mit den Stickern macht Inno3d leider bei allen Modellen so 😬 ich hab die Stickerflut auf meiner 4090 iChill auch und alle sind Warranty Void if removed, damitst auch ja nix runternimmst 🤮
die pcbs sind echt kurz. das packt den stromanschluß sehr weit nach vorne. bin ich persönlich kein freund von, weils mir die optik eines grade laufenden kabels ruiniert. denn atm sitzt an meiner karte der anschluss so weit hinten, das ich das kabel grade runterziehen kann und es unten in einem gehäuseauschnitt verschwindet. in dem falle, müsste das kabel dann zwigend schräg laufen.. kleinigkeit und pingelig, ich weiß..
06:55 - lichen Dank dir dafür... das ist genau das was ich stets bei den anderen vermisse und dich dafür schätze das du es so auf den Punkt bringst... Ich habe das Gefühl viele satteln das Pferd von Hinten mit der Geldsparerei wo ich mir nur denke wie kann man das so vertreten wenns hinterher eigentlich mehr kostet.... danke das du da anders denkst und es auch sagst
Meine aorus1080ti denkt sich einfach nur "GIB MIR MEHR" XD die 4070 ist mal langsam ein Grund zu wechseln gerade auch wegen der Effizienz aber auch, nur wenn er Preis stimmt ansonsten bleibt mein Baby mir noch eine lange Zeit erhalten.
Gerade der moderate Stromverbrauch führt mich immer wieder zur 4070... Ausserdem bin ich ein DLSS3 und RT Opfer :) Ne RX wäre von der Leistung her an sich besser, aber die verbrauchen einfach deutlich mehr Strom. Ich zocke halt einfach zu viel da macht das schon was aus im Jahr. Und wenn ich meine Karte versetze und etwas drauf lege wäre der Preis nicht mehr so das Problem. Schwere Entscheidung ist das leider... Würde die Karte 550€ kosten dann würde ich nicht überlegen. Aber cooles Video, danke.
Ich habe mal eine Frage vielleicht kann mir ja hier jemand noch eine Idee bringen. Ich habe eine 3070 ti von MSI, soweit funktioniert auch alles. Nur Valorant chrashed durchgängig schon beim starten (alte GPU Vega 56 funktioniert problemlos), selbst bei einem neuen cleanen windows install. Habe ein ähnliches problem bei JaysTwoCents gesehen. Driver und alles ist die neuste Version
Ich bin nach wie vor sprachlos wie teuer es derzeit ist upzugraden, meine 1080 kommt so langsam an ihre grenzen aber selbst für 400€ bekomme ich nur marginal bessere Leistung :(
Ich warte auf die kleineren RX Modelle. Einfach weil ich Nvidia kein Geld nachschmeißen will. Meine Hoffnungen liegen auf der 7800 oder 7700... Preistechnisch Wette ich, dass AMD aber genauso gierig auf unsere Scheine sein wird.
AMD bietet mit der 6800XT ja jetzt schon eine bessere Alternative zur 4070. 660€ für eine langsamere Karte mit weniger Speicher sind ein schlechter Witz.
Das mit der NDA hätten die sich echt Sparen können, aber was soll man dazu noch sagen. Zu den Unterschieden, finde ich dann doch schon groß. Die FE Version ist zwar Deutlich kleiner, hat da aber nur 2 Lüfter dran. Selbst wenn man das Power Target bzw. Untervoltet werden dies FE karten immer 10grad Wärmer sein. Ich bevorzuge dann doch lieber mit 3 großen Lüftern und eine Gute Wärmeabfur und dafür sind sie auch ziemlich leise. Setzt man nun das Power Target runter bzw. Untervoltet man sie, ist das Spulenfieben komplett weg und trotzdem unhörbar bei gleicher Leistung aber wie die FE aber deutlich Kälter.
Zusätzlich zum Verbrauch kommen dann halt auch AV1 decode/encode oder Features wie DLSS3 FG. Bevor ich HEUTE also ne 3080 kaufe wäre eine 4070 sicher die bessere Wahl. Teuer ja, aber wenn schon teuer dann auch alles mitnehmen was geht.
Andere Leistungsaufnahme, geringere Mhz, schlechtere Kühlung (warme Spulen sind leiser), viel geringere FPS. Aber ja vielleicht auch vermeintlich bessere Komponenten.
Ich habe die 3080 OC die hat ja ca 2000MHZ Takt die 4070 hat ca 700mhz Takt mehr und ist nur minimal schneller bzw gleich schnell? Sollte die nicht um einiges mehr Leistung bringen?
Eine Grafikkarte hat viel mehr zu bieten als nur die Frequenz der Kerne. Die 3080 10 GB hat 8704 CUDA-Kerne, 272 TMUs und 96 ROPs. Der 4070 hat nur 5888 CUDA-Kerne, 184 TMUs und 64 ROPs.
Vor allem dabei bleibts ja nicht, wenn du dann eine von den Sparsammeren 3D-Vcache CPUs hast die teilweise die hälfte vom Intel Äquivalent schlucken bist dann schnell mal bei 150 im Jahr :D
Früher waren 40mhz viel😅. Muss man schon warten mit dem heftigen Ergebnis 😅Ja kannst sagen die Karten sind Leistungtechnisch gleich. Aber der Kühler ist natürlich schon ein gewaltiger Unterschied 😮
spulenfieben bei meiner 1080Ti ist die Hölle so was von laut würde es Sinn machen jetzt auf ne 4070Ti zu wechseln? oder warten bis die Preise mal fallen sollten
Was würde denn PAssieren, wenn man bei der FE die fehlenden Phasen bestücken würde? BZW was haben die denn für ein Sinn? Und ich seh schon nächstes Projekt: "RTX4070 mit 2X 8 Pjn Anschluss im Test" xD
Ganz einfach als dieses PCB geplant wurde hat man sich die Option der 8 Pin Anschlüsse offen gelassen für den Fall das man den neuen Stecker nicht verbauen will aus Gründen. Es hat immer irgendwas mit Geld zu tun bei sowas.
Ganz ehrlich, ich warte auf die Einstiegs Karten. Zur Zeit nutze ich eine GTX 980 FE und ich brauche zwar langsam mehr Leistung aber nicht für den Preis, ich warte entweder auf die 4050 oder die neue Arc Gen
@@karateschnitzel1337 kann ich mir wahrscheinlich bei den Preisen nur nicht leisten, ich will halt einfach keine 500€ für eine gpu ausgeben. Auch wenn es stimmt das 6gb langsam wenig sind
@@Fairwild1988 ich habe gerade eine GTX 1070 und bin zufrieden auf fhd aber ich möchte dieses Jahr auf wqhd wechseln da werde ich mir die rtx 4070 holen
10/10 Titel
Eigentlich 11/10😂
@@kejaffzi4121Oh ne
@@kejaffzi4121 Der Witz passt hier jetzt nicht soooo gut rein 😅
@@kejaffzi4121 ehrenmann 😂
10:20 - Nächstes Video: RTX 4070 mit 2x 8 Pin Steckern ausgestattet und getestet
Die Messung des Idle Stromverbrauchs finde ich sehr wichtig. Das kannst du bei künftigen reviews (auch cpu) ruhig beibehalten ;)
die sind halt so krass abhängig vom treiber und deinen windows einstellungen ich glaub so richtig was rbingen tun die nich....auch wenns natürlich nice is aber die werden crazy flott outdated sein
Tolles Video genau solche Reviews und Vergleiche wo auch die Karten zerlegt werden liebe ich, einfach on Top :)
ja, und er denkt an die Umwelt bzgl. Stromverbrauch. noch wichtiger im Sommer, wenn die 4070 weniger Abwärme erzeugt.
Wie immer sehr Informativ!
Vielen, vielen Dank, Roman. Du rundest mit diesem Video alle bereits vorhandenen Reviews vollumfänglich ab. Damit meine ich u.a. Themen wie z.B. dem Stromverbrauch im Vergleich. Klasse!
Gucke seit einem Tag 4070-Videos. Dies ist das erste mit brauchbaren Noise Samples. Video-Qualität wie gewohnt, danke!
Fast 3080 Leistung zu fast 3080 Preisen.
Toll, 2,5 Jahre Stillstand.
2080ti Niveau mit halbsoviel Watt. sie meinen Innovation und Fortschritt 👍
@@urkent4463 halbsoviel? 2080 ti hat 250w tdp, die karte zieht 200
@@keine_ahnung_wie_der_heisst meine strix hat locker 280 gezogen und meine jetzige 4070ti 165
@@urkent4463 Nur wenn man immer stärker beschnittene Karten als Innovation und immer höhere Preise als Fortschritt ansieht.
@@mimon6706 kann beschnitten sein wie sie will wenn sie wqhd die fps liefert und in 4K nicht und Nvidia die so auf den Markt bringt. Verlangen kann ein Unternehmen was es will . . . und wenn die für high FPS-4K zwei Karten im Angebot haben . . . nagut. Und wenn's die Karten sind die's aktuell gibt - umso besser. Geile Stücke. 2080ti - damals 1650,- 4090 custom Model - 1650,- oder mehr.
geil oder ?
besser als selbst entwerfen, bauen und löten.
Und wenn sie meinen nvidia geht mit ihren Mittelklasse (o.ä.) Karten noch nicht mit der Zeit . . .
also ich bin selbst beschnitten . . . auch Jahre schon . . . und happy
Also gibt wirklich schlimmeres.
Muss mal meine 4070ti mal bei 4k+ mit Pico 4 probieren . . . Werde w.o.h.l kaum gegen die Rentner 3080 tauschen. Um Himmels willen hoffentlich nimmer mehr
Ich fand das Detail des Stromverbrauchs auch super. Gerne wieder. Top Video
Danke, dass du die Geldersparniss erwähnt hast und mit einem schönen Beispiel verdeutlicht hast. Bei anderen Reviews wurd zwar auch die Effizienz angesprochen aber keiner hat so den Strompreis berechnet wie du.
gilt auch nur für Deutschland. schon in Österreich kannst mit der Angabe nix anfangen. wir haben den weltweit höchsten strompreis, dafür aber immerhin auch den Dreckigsten in Westeuropa
jedes Video ein Genus
Welches denn? Und wie sieht das mit Kasus und Numerus aus? 😄
Ah the good old days als ich meinen 333er Celeron auf 600Mhz gejagt habe ... Das war OC. 😁
Gab es da keinen Turbo Button mehr? 😁 Wie bei meinem 486 DX 66. Übertakten ganz einfach gemacht.
Und ich meine 750Ti auf 1420 MHz
(Referenz war 1014 Standard und 1058 boost)
@@trex70 Der Turbo Button hat die Taktfrequenz aber nicht erhöht, sondern reduziert. Bei meinem ersten PC, ein AMD 486 DX4 100 wurde von 100 MHz auf 66 MHz reduziert.
Beim 486-er war der "Turbo-Button" nur noch Schmuck und Spielerei.
@@wormaus-mixed Nein der hatte durchaus seinen Sinn.
Das runtertakten hatte den Grund, das viele Programme damals so schnell liefen, wie der Takt es Prozessors. Bei alten Spielen war das besonders störend. Mein Onkel hatte z. B. ein altes Flugzeug-Kampf Spiel, das auf seinem 286er mit 33 MHz normal lief, bei mir war es aber dreimal so schnell, also unspielbar. Daher konnte man den Takt mit dem Turbo-Knopf meist um ca. 1/3 reduzieren, um "alte" Software mit neuen Prozessoren kompatibel zu machen.
vielen Dank für das ausführliche Video, 👍
Ich finde es klasse, dass mal eine Gainward-Karte irgendwo getestet wird. Da mich diese sehr anspricht. Reviews zur Pheonix und Phantom sind auf RUclips gefühlt sehr rar. Daher: danke für deinen Ersteindruck. 👍
9:48 - Interessant finde ich, dass es scheinbar noch zwei freie Plätze für zusätzliche Speicherbausteine gibt, womit man bei dessen Nutzung auf 256 bit mit 16 GB kommen würde. Sofern man identische Speicherbausteine irgendwo kaufen kann und es - falls nötig - entsprechende "Schablonen" zum drauflöten gibt, wäre es mal interessant, ob man damit die Karte aufrüsten kann oder die Bausteine ohne Funktion bleiben. Nimmst du die Herausforderung an? :D
Wäre schon interessant zu erfahren was damit ist. Es war vor ein paar Monaten geleakt worden, dass die 4070 mit einer 16gb Speicherkonfiguration auf den Markt kommen sollte, wurde jedoch nicht bestätigt.
Es gab doch Mal jemanden, der auf eine 2070 mehr RAM gelötet hat. Das ganze lief sehr instabil
Man braucht dafür mehr als nur so einen Speicherbaustein/e. widerstände, Kondensatoren, Spannungsteiler... Das wird sicherlich nicht so einfach umsetzbar sein, falls es überhaupt geht. Das Auflöten dürfte da noch das einfachste sein.
@@XXXXL25 Entweder ist das Sarkasmus oder nicht deckungsgleich mit der Geschichte die ich gefunden habe: "NVIDIA never did release a 16GB version of the 2070, so this card is truly one of a kind. After some careful scouring of the internet, the GDDR6 chips were procured and carefully soldered on with a hot air gun. A few resistors had to be moved to accommodate the new RAM chips. During power-on, [VIK-on] saw all 16 GB enumerate and was able to run some stress tests. Unfortunately, the card wasn’t stable and started having black screen issues and wonky clocks.". 🤨
Meistens ist es nur möglich Bausteine zu tauschen, neu aufzulöten dürfte nichts bringen, da Nvidia die schlichtweg intern nicht verbindet, sprich die Lötstellen sind nur da, weil das Board eben auch für 16 GB Karten wie die 4080 verwendet wird & so billiger ist ("mehr ist weniger" oder so).
Tolles Video. Danke für die ausführlichen Tests.
Einziger Kaufgrund für die 40er Karten ist deren Effizienz. Bei der 4070 kommt noch die RT Leistung dazu. Bedenkt man das man für den selben Preis ne 6950xt bekommt. Die verbraucht mehr... Leistet aber auch mehr und hat mehr vram... FSR 3.0 wird's auch für die alte AMD Generation geben. Man zahlt also wiedermal nur für frame Generation und mehr RT Power nen saftigen Aufpreis bzw bekommt fürs selbe Geld weniger Raster Leistung und vram... DAS sind die "Nvidia Sachen".
Der Vorwurf den ich Nvidia hier mache ist klar die Preis treiberei... AMD und Intel werden sich da anpassen. Und wir User haben dann den immer teurer werdenden Salat.
Das gesamte bisherige 40er lineup gehört mindestens 100€ günstiger. In der UVP... Schaut man sich die Preise an wird's dann wohl bei round about 450-500€ für ne 4060 werden. Und egal wieviel Leistung diese karte dann gegenüber einer Karte aus der 1080p ära hat, das ist zu teuer.
Ich bin eigentlich ein sehr neutraler Hardware bekloppter. Ich feiere neue Technologien. Wenn sie funktionieren. Egal von welchem Hersteller.
Aber mit RT und den von Nvidia dazu gelieferten Features Werd ich nicht warm. Der Aufpreis ist nicht gerechtfertigt und ohne KI sampling funktioniert's einfach nicht.
Die einzigen paar Pluspunkte die Nvidia hat. Ist die Effizienz der 40er Karten. Das finde ich schon sehr geil. Aber solangsam verliert mich Nvidia. Würde aktuell bis auf die 4090 keine Nvidia Karte empfehlen. Und die 4090 auch nur wenn's um absoulut höchste Ansprüche geht.
Irgendwie will man sich anscheinend nicht die Mühe machen attraktive Karten zum Aufrüsten anzubieten.
Wenn ich an die letzten Generationen denke, dann hat das 70er-Modell gleichziehen können zum Flaggschiff der Vorgeneration. Die 4070 erreicht jetzt nur die 3080. Und das bei einem vermutlich gleichen Preis.
Verbraucht zwar weniger und hat endlich den VRAM, den der 3080 von Anfang an mindestens zugestanden hätte, trotzdem fühlt es sich so an, als wenn man immer weniger für immer mehr Geld bieten will.
Das stimmt so nicht ganz. Das Flaggschiff ist seit der 30er Serie die xx90. Da kommt die 4070 halt nun nicht ganz ran. Auch sonst war es so, dass die nächste Generation der 70er meistens immer mit der Vorgänger 80er mithalten konnte. In der Hinsicht hat sich halt, mit Ausnahme des Sprungs von 20er zu 30er Serie, nichts geändert.
@@Ruhrpottpatriotda hat sich massiv etwas geändert! Zur Zeiten der GTX 200er bis 900er Serie war da ein viel größerer Sprung gewesen. Habe ich das 70er Modell gekaut, dann war das 70er Modell zum einem nur 15 bis 20 Prozent langsamer als das Topmodell derselben Generation. Und zum anderem deutlich schneller als das Topmodell der vorherigen Generation.
Und was bekomme ich heute? Die 4070 ist ein unterer Mittelklasse Chip: 1/3 der Transistoren des Topmodells und nicht mal halb so schnell, aber dafür trotzdem maßlos überteuert. Nvidia verarscht seine Kunden aktuell nach Strich und Faden.
Die NVIDIA Abzocke nimmt kein Ende. Jetzt versucht man hier quasi eine 4060 als 4070 zu verkaufen. Deswegen hat die eauch nur die Leistung einer 3080. Wäre es eine echte 4070, dann wäre sie deutlich schneller als eine 3080.
Wir fassen zusammen: NVIDIA verkauft eine Karte mit der Leistung einer 3080 von vor vier Jahren. Die 3080 wurde damals direkt von NVIDIA für 699 € angeboten. Jetzt will man für diese umdeklarierte 4060 doch tatsächlich 659 €. Wer hier jetzt zuschlägt kann eigentlich nur Hansi Hirnschiss heißen. Kauft auf keinen Fall diese Karte zu dem Preis!
@@Ruhrpottpatriot Selbst dann müsste man mit der 3080 Ti vergleichen. Tun wir aber nicht, es reicht nur für die normale kleine 3080.
@@UltraLord5850 Die Anzahl der Transistoren ist schon lange kein zuverlässiger Indikator für Geschwindigkeit mehr, insbesondere wenn Parallelisierung und Vektorisierung im Spiel sind.
Und bevor mir jemand den Sticker "NVDIA Fanboy" antackert: Bräuchte ich CUDA nicht für meine Arbeit, hätte ich schon längst eine AMD Karte.
: Die Sache mit der Leistungsaufnahme finde ich vollkommen richtig angebracht. Ich fänds gut, wenn darauf mehr Leute eingehen würden. Man kann dann auch mal rechnen ab wann sich eine Neuanschaffung lohnen würde. Igor gibt auch immer gute Reviews ab zum Stromverbrauch.
Ich finds irgendwie traurig das es beim Stromverbrauch immer nur um Geld geht und der Aspekt mit den CO2 Emissionen und anderen Externalitäten komplett außer Acht gelassen wird. Bei ca. 350g CO2e pro kWh in Deutschland kommt da nämlich auch einiges zusammen. Da sind wir schnell mal auf 300kg CO2 pro Jahr nur für den Spielerechner+Bildschirm.
@@Mike-oz4cv : Ich sehe was Du meinst und Du hast da auch vollkommen Recht. Das spielt bei mir auch eine Rolle. CO2 soll ja aber irgendwann aus der Rechnung rausfallen, wohingegen der Preis eher hoch bleiben wird. Aber es bleibt abzuwarten.
@@philippbeckonert1678
Komplett rausfallen werden wir niemals miterleben.
Selbst bei 100% erneuerbaren Energie(Wo von wir sowieso garantiert noch mindestens 25-30Jahre entfernt sind), muss man noch die Herstellung von Anlagen, Stromnetz und die Instandhaltung mit einbeziehen und da dort auch viel aus dem Ausland kommt und bis dort CO2 neutral produziert und Ressourcen abgebaut werden und sämtliche Laster, Flugzeuge und Schiffe CO2 sind fortbewegen...
Natürlich hast du mit deiner Aussage Recht, aber selbst bis nur der produzierte Strom CO2 neutral wird, wird schon viel zu lange dauern^^
Das ist zwar absolut super aber wie wir bei den Energiepreisen einfach abgezockt werden sollte eher voran stehen. Wenn ich noch mehr spare, kann ich fast mein Hobby aufgeben. Währenddessen bei denen die es sich weiter locker leisten können es schlicht egal ist. Der Energiepreis spaltet nur weiter die Gesellschaft ohne Nutzen für die Umwelt.
@@Hammersmash3dFace Die gestiegenen Energiepreise des letzten Jahres haben so effektiv zu weniger Verbrauch geführt wie nix anderes davor.
Immer direkt den Daumen hoch. Hier wurde ich noch nie enttäuscht und deswegen ein fettes Danke für deinen Content 🙂
Tolles Video :) Ich habe mich mal gefragt was wäre, wenn die Platine der Founders Edition mal so verädert wird, das man Komponenten der I-Chill übernimmt auf die Founders Edition. Also Die ganzen Spannungswandeler etc. austauschen. Ist das theoretisch möglich und welche Karte hat hochwertigere Komonenten verbaut?
top das du die Leistungsaufnahme ansprichst
Also hoffe das es noch in nächster Zeit 4070 Modelle unter 200mm länger auf dem Markt schaffen, also so wie ein paar 3060Ti Modelle. Ich will so eine für meinen 5L PC.
Die Gainward scheint möglicherweise eine solche Variante zu bekommen, zumindest wäre das kleine PCB und die 8-Pin ein Hinweis darauf.
Asus z.b. hat schon "2 Lüfter" design angekündigt
Danke Roman, endlich erwähnt mal ein Reviewer die Stromkostenersparnis gegenüber älteren Generationen. Ich Habe heute eine MSI 4070 Ventus 3x gekauft.
On Point 👌
Hätte gerne mehr Infos zu den Phasen gehabt (volle Bestückung die selben LR22/Phasen Modelle?)
2:00 Das ist gut durchdacht mit dem stecker, weil der 12v hipower anschluss eine gewisse länge bis zur biegung braucht damit er nicht abfackelt und dadurch dass der stecker so weit hinten ist hat man einen längeren weg bis zur biegung.
4:45 eine sehr gut gemachte Pause...
Mit den kleinen Platinen müssten ja eigentlich mit custom Wasserkühlungen interessante SFF Builds drinn sein
2:09 Da werden die Kabel gleich mitgekühlt. ;)
Top review und mal wieder 100% on point mit der Kritik!
Auch super, dass du das mit der Effizienz ansprichst. Das hat mir gestern generell durch die Bank ziemlich gefehlt, das macht insb. heutzutage schon einiges aus und sollte nicht komplett vernachlässigt werden imo.
Finde die Timestamps besonders gut. ;)
früher oder später wird Nvidia wohl komplett auf Boardpartner-Karten verzichten, falls ihnen nicht vorher schon alle Partner abspringen
Wie war das nochmal mit 3dfx?
warum sollten die auf Boardpartner verzichten ? die FE modelle werden ständig nur angekündigt .. meist mit gerade noch annehmbaren Preisen ... sind aber so gut wie nie verfügbar ...
@@KalatSaar Weil Nvidia die Boardpartner zwingt einen gewissen Anteil der Karten zum UVP anzubieten wo die dann halt null dran verdienen. EVGA ist nicht ohne Grund als boardpartner ausgestiegen.
@@-Qonqueror- das mag zwar irgendwo auf dem Papier stehen , aber ich hab seit der 30er Reihe keine Karte zum UVP in irgendeinem Shop gesehen ... jedenfalls nicht ohne den zusatz : zur Zeit nicht verfügbar !! Eine 3080 hatte auf jeden Fall keine 1800.- Als uvp
Sehe ich ähnlich. Nvidia hat wohl großes Interesse in Zukunft möglichst viele eigene Karten zu verkaufen. Nur das erklärt mir das Verhalten.
Gutes Video
Hallo Roman. Wie immer tolles Video! Wieso hast Du Dich bei 3:28 dazu entschieden, den min. Wert der Grafik auf 0 zu setzen? Das Diagramm würde doch viel mehr Informationen vermitteln, wenn Du zwischen 3000 und 2500 MHz darstellst.
Du hast auch das mit dem zeigen der Phoenix Karte der rgb Beleuchtung vergessen 😅
Für mich ist die Founders Edition das rundeste Produkt. Super verarbeitet, leise und kein allzu ausladender Kühler.
Wird bald ein Problem werden zukünftige Karten in normale Midi Gehäuse einzubauen, vor allem wenn vorne schon ein Radiator einer AIO hängt. Nächste Generation dann 500cm lang und Quadslot standard? Oder mit jeder neuen GPU ein neues Gehäuse?
Man kann ja auch, wie man das bei Autos schon kennt, 2 Gehäuse hintereinander zusammen schweißen und ein Stretch-Case machen.
Was mich interessieren würde kann man diese Karten moden indem man die leeren Phasen Plätze bestückt ?
Moin, kann mir wer verraten welche dicken an Wärmeleitpads in einer 4090 strix oc verbaut sind
Feier dich da du ne 2080 mit rein nimmst
Ist auch die 4070ti ichill ähnlich gut bestückt, im Vergleich zu den anderen Modellen? Lässt sich somit pauschalisieren, dass Inno3d besser, vollwertiger herstellt?
Gutes video wie immer
@abee ceebee ohha ich hab das mal gemacht bei CPU aber graka stell ich mir kompliziert vor... Kann ich die selbe paste verwenden. Es ist eine 3070 die jetzt ziemlich genau vor 2 Jahren gekauft wurde weil Garantie im April weg war
Weil ich ein RGB-Depp bin, und mir die 4070Ti-Karten allesamt zu teuer waren, wurde es bei mir die Gigabyte 4070 Gaming OC. Der Kühler ist monströs groß für den verbauten Chip, hält die Karte thermisch aber sowas von im Zaum... Nur in Torture-Tests kann sie mal auf dem Hotspot die 80°C-Mauer knacken. RAM und GPU-Temps liegen beim Gaming in 1440p generell so zwischen 50 und 60°C. Idle-Verbrauch ist ebenfalls ziemlich bescheiden... 3 bis 4 Watt sind keine Seltenheit ... vielleicht auch weil die Karte selbst im Gaming häufig die Lüfter abschaltet (Standard-Lüfterkurve), und dann auch nur das GB-Logo beleuchtet ist. Die Lüfter LEDs sind nur dann aktiv wenn die Lüfter auch laufen.
Das Ganze übrigens mit manuellem OC auf dem Chip und auf dem VRAM - maximal boostet die Karte so bis knapp unter 3000 MHz (~2970), und das VRAM ist mit +1000 MHz übertaktet.
Bissl Augenwischerei ist das Power-Limit, das bei der Karte auf um die 300W angehoben werden kann (143% max, IIRC). Beim Gaming in 1440p zieht sie sich allerdings selten mehr als 220, 225W und einzig in Furmark habe ich bislang Leistungsspitzen von knapp über 250W gesehen.
Alles in Allem eine wirklich feine Karte, allerdings immer noch deutlich zu teuer. Ich hatte "Glück" und das Ding während eines Flash-Sales für um die €630 ergattert - was meiner Meinung nach für die gebotene Leistung aber immer noch zu viel ist.
Findet man eigentlich irgendwo eine Liste, welche Karte wie viele Spannungswandler hat? Bzw. welche voll bestückt ist?
Für mich ist keine der 3 Karten der Sieger. Der wahre Sieger der 4070 er karten währe die jenige mit 2 mal 8 pin Strom anschluss. Dann eignet Sie sich erst wirklich zum aufrüsten. Kaum jemand der aufrüstet möchte bei einer neuen karte erstmal ein neues Stromkabel oder neues Netzteil kaufen, was unnötige Kosten sind.
Es gibt doch n Adapterkabel, wenn dein Netzteil diesen komischen neuen Stecker nicht hat. Da macht man dann den 2x 8 Pin dran und den Adapter in die GraKa.
Mit Idle-Leistung und Einbezug der Stromkosten. 👍 Mit nIedrigerem Powerlimit (worauf alle 40er nVidia Karten sehr gut ansprechen) kann sich die 4070 gegenüber der 3080 schon nach einem Jahr lohnen.
@der8auer Gibt es denn auch noch ein Video wo die Karten wirklich zu OC Karten werden? Vom Kühldesign sollte da ja noch was gehen wenn das Powerlimit nicht so niedrig gesetzt ist.
und jetzt bitte 2x 8Pin drauf löten und testen. ^^ Wäre zumindest sehr interessant, ab die wirklich komplett angebunden sind oder ab das nur Überreste einer Idee sind.
Ansonsten mal wieder sehr informatives Video.
Wieso takten Spannungswandler nicht in einer nicht höhrbaren Frequenz?
Danke, dass du explizit über den Stromverbrauch erwähnst. Gefühlt überall wird empfohlen die 6950xt oder o.ä. zu kaufen. Ich habe die Karte gekauft, weil sie grob die Leistung einer RTX 3080 erreicht bei geringerem Verbrauch.
Tolles Video.
wo haste denn die Infos bzgl. Leistung her? eine 6800xt ist schon gleich schnell oder schneller als eine 3080. Meintest du 3090?
Er meinte damit 4070 ist mit raytrasinc genau so schnell wie 6950xt....nur verbraucht die 150 Watt... wohingegen die xt 320 haben will
Ganz egal wie man es sich schön redet...die 6000 AMD im high end Bereich ist immer die schlechtere Wahl..also seit heute wohl gemerkt
@@waldowaldo1980 raxtracing könnte mir aktuell immer noch nicht egaler sein. Die 15 Spiele, wobei sich da nur bei 5 was richtig ändert.
teurer mit weniger echte Performance - was man in jedem Spiel merkt - und weniger Vram, scheint mir nicht so ein besonderer Deal zu sein
(fang bloß nicht an es mit dlss "schön'-zureden)
@@MHWGamer 🤣🤣😂...der dlss Spruch war gut...ich wollte gerade anfangen
Sicher reine rohleistung ist eine 6950xt schneller...nur verbraucht die ne Menge Strom....ich finde wirklich dlss 3.0 ist schon ein nützliches Future für die nächste Jahre,falls native Leistung nicht mehr ausreicht...ich mein 2026 zocks du mit maximal 65 FPS...und haust dlss rein und plötzlich hast du 120....das ist dann aber schon eine andere Liga in wqhd @144hz
@@waldowaldo1980 DLSS fand ich schon immer geil. bis raytracing mal das tut, wie es gedacht war, muss noch viel Programmierarbeit geleistet werden und ob man es bis dahin schon begraben hat ist die Frage.
Gibt's schon Infos zum Vergleich für die 4060?
Inno3D ,,Eichel", Untertitel sind pures Gold😂
Kannst du aus einer solchen effizienten GPU nichtmal eine singleslot graka bauen oder ein ähnliches Format wie die Asus GTX 970 Mini damals ,mit einem PT von 60-70%. Wenn das so weiter geht sehen wir dann bald wieder passiv gekühlte Versuche? Ala Rtx 4050/4060 passiv..
Immer schön zu sehen das wenigstens einer den stromverbrauch mit in betracht zeiht das fehlt bei den meisens US reviews kompelt.
hi what is the best place to byt gpus in germany
7:25 und DLSS 3.0 finde ich auch die theoretischen 50€ wert
Ich hätte mal ne Frage! Was ist eine gesunde Temperatur bei Arbeitsspeicher ? Das wäre mal echt interessant
Danke, auf das Review habe ich schon auf Vorgestern gewartet xD
Wieso die Custom Modelle nach Release erst gereviewt werden dürfen, sagt doch jetzt alles.
Die Leute Stürzen sich um Punkt 15 uhr auf alle Verfügbaren 4070 Modelle und sehen direkt, oh OC version, die ist sicher schneller, aber hätte man vorher das Review dazu gelesen, hätte das sicher jeder vom Kauf abgehalten und einfach eine non OC geholt. 4-5% sind wirklich sehr happisch für den Aufpreis von fast 100€ bei manchen Modellen.
Ich hab das gefühl, Nvidia gehts nur noch darum alles so gut so wie möglich zuvertuschen, um den Meisten Umsatz zuerzielen.
Es ist wirklich Traurig, Nvidia steht heutzutage nie besser da und verlangt immer mehr, für immer weniger.
Klar ist die Effizienz toll, aber hätte man zumindest auf 16GB aufrüsten können.
Passt auf, die 4060 kommt dann mit 16 GB, aber mit so einen abgespackten Chip, das sich das aufs Gaming dann auch wieder nicht lohnt.
Ich verstehe es einfach nicht mehr was das soll und wieso man immer weiter Nvidia den Aufpreis zahlt, die entwickeln sich langsame immer mehr zu Apple.
Zusatz:
Ja DLSS 3 und bessere Raytrace Performence ist toll, aber kein Argument für überteuerte Preise, dass sind Nebenprodukte, die jetzt bei jeder Grafikkarte dabei sind. Man sollte hier immer auf die Rohleistung ausgehen, da auch nicht jedes Spiel diese Features Unterstützt.
Besonders die Künstlichen erzeugten Zwischenframes um die FPS zuverdoppeln, klingt auf den Papier ja toll und sieht bei der Umsetzung auch smother aus, aber sobald der Vram voll ist oder die FPS bei unter 15 FPS sinken, kann selbst das keine Hilfe mehr sein. Mit Downsampling zusammen ja, aber man spürt aktuell noch, das die Grafik dadurch leidet.
Die können mich alle....bin zurück auf hochwertige 25 Zoll Monitore /1080p. Bildtechnisch schlagen die nach meiner Erfahrung jeden 27Zoll /2K Monitor im mittleren Preissegment bis 600 €. In Kombi mit meiner TUF6800XT bin ich für die nächste Zeit absolut im sicheren Hafen.
mich würde mal interessieren wie sich die RTX karten ab der RTX30 Serie verhalten an einem 16:9 Full-HD 144hz monitor beim Rendern & Gaming??? weil die ja so viel ich weis glaub eher für 4K Ausgelegt sein sollen🤔oder ob man da Zwangshaft ein 4K Monitor bräuchte für wenn einem Full-HD an der Auflösung ausreicht.
Keiner hindert dich daran, die Karte an einem 1080p Panel zu verwenden, du verschwendest höchstens etwas potenzielle Rechenleistung, weil du die Karte nicht komplett ausgelastet bekommst. Es ist auch egal, welchen Monitor du benutzt, wenn du Videos renderst. Relevant sind die Ausgabeparameter (Auflösung, Bildrate, Bitrate).
Was haben der Held der Steine und der8auer gemeinsam? Probleme mit Stickern. :D
Cooles Video Roman, ich wäre Dir sehr verbunden wenn Du doch bitte ein Video machen könntest zu den "4070TI OS" Grakas mit ASUS und weiteren Herstellern wie in diesem Video. Mit Ausbau der Backplate usw. Danke und schönes Wochenende, Gruß aus Berlin HSH.
die Ichill sieht vom Design her aus wie früher die Karten von Asus, ich lieb das Design. Gainward Phantom ist da momentan am schönsten
Würde es eigentlich was bringen solche Phasen die nicht hinzugefügt wurden, diese zu ergenzen?
AMD Karten werden echt mit jeden nvidia Release immer attraktiver.
Sehe ich ähnlich aber man darf nicht vergessen das dies auch nur eine Notlösung ist sofern man unbedingt eine neue Karte braucht.
Hab noch ne 2080Ti vor dem Release der 3080 für 500€ ersteigert. Weiterhin 0 Gründe auch nur daran zu denken etwas zu investieren. Wenn Intel nicht langsam mal in die Pötte kommt ist der Markt für vernunftorientierte Gamer quasi tot. Adé PC Masterrace.
@@maxmustermann2370 hasb ne 3070ti letztes jahr geholt .,.jezt hab ich zuwenig vram -.- Leistung ansonsten top ...werd in 2 jahren auich zu amd wechseln wenn nvidia 1) die preise net senkt und 2) nicht mehr vram verbaut.
Im Mind⭐Star gibt es in letzter Zeit immer mal zwischendurch die größte AMD Karte der vorherigen Generation (RX 6950 XT) von diversen Herstellern. Zuletzt an Ostern für 649,- 😉
@@maxmustermann2370 Intel hat schon sehr viel Fortschritt mit der ARC gemacht, aber Treiberoptimierung für eine 3D Beschleunigerkarte, ist halt was anderes als für eine iGPU. Das braucht halt seine Zeit und Intel arbeitet ja auch schon an die 2. Gen der ARC, aber vor 2024, wenn nicht sogar erst 2025, wird die nicht kommen.
@@Fairwild1988 Typisch NVidia halt, verlangen Mondpreise und sind dann geizig mit dem VRAM. Ein Schelm wer Böses denkt, dass sie das absichtlich machen, damit du die teueren Modelle kaufst 🙂
Das mit der Idle Differenz war doch schon bei der 4090er. FE=ca. 10W, Cutom: 30-40W. Keine Ahnung was die AIB's da falsch machen.
sieht man ja eigentlich beim auseinandernehmen. Mehr Phasen, RGB, mehr Lüfter > Zieht alles Strom. Wenig, aber es läppert sich
@@askat1085 Es betrifft auch billige 4090er ohne RGB und mit wenig Phasen. Z.B. MSI Ventus. Und im Idle sind die Lüfter aus.Das muss ein anderes Problem sein. Evt. behält Nvidia das Geheimnis für sich oder es liegt an der Platine oder am Bios.
@@optimalsettings Alles, Die Bauweise, das Bios und die Platine.
Mehr Kerntakt braucht mehr Spannung das braucht mehr Strom, Die FE ist eigentlich immer auf einen Level die Customkarten werden meistens ans Limit übertaktet.
Die Karten werden aber generell im Standart zu hoch eingestellt was Strom und Spannung angeht, wenn man sieht wie weit man die 4000er Karten im Powertarget und Undervolting begrenzen kann beweist es ja schon.
@@GamingchannelLP die fe ist nicht langsamer getaktet als aib's. Außerdem gehts um den verbrauch im idle. Unter last sind alle gleich.
@@GamingchannelLP die fe ist nicht langsamer getaktet als aib's. Außerdem gehts um den verbrauch im idle. Unter last sind alle gleich.
Ich weiß nicht, früher waren die custom Karten irgendwie immer deutlich stärker wie die Referenz. Was ist da nur los bei Gainward, Zotac und co. haben die alle ihre Arbeit verlernt?
Naja Spulenfiepen wird wenn ich mir in wharscheinlich 2 Jahren eine neue Karte kaufe auf jedenfall ein Thema sein, da auch die nächste Karte wieder Custom Wassergekühlt wird. Und meine RTX 3080 Asus Tuf Gaming ist da schon krass mit dabei mit Spulenfiepen. Wenn da drei Lüfter montiert sind hört man das halt nicht.
Apropo Strompreis, Wenn du so eine Rechnung machst, sag bitte auch dazu mit wie viel Cent pro kW7H du rechnest. Wäre für mich besser zum nachvollziehen und für manche andere auch :)
wenn ich die platine so sehe, hoffe ich auf karten im itx format. da tut sich durch die gestiegene leistungsaufnahme die letzten jahre wenig.
Irgendwie komme ich nicht wirklich in Aufrüst Laune, ich habe seit November 2021 eine Rx 6800XT und bisher gibt es keine Karte, deren Aufpreis zum Restwert meiner aktuellen sich im Leistungszuwachs verhältnismäßig attraktiv gestalten würde. Ich spiele aber auch nur in 1440p und max 75 Hz und das anspruchsvollsten Game wäre in meinem Fall Far Cry 6, alles andere schluckt weniger Leistung. 😅
Da brauchst eh noch nicht aufrüsten bis zur nächsten Generation
du hast gefühlt die so 6. schnellste karte momentan und die willst schon upgraden wtf
Bro habe auch die 6800XT - was willst du da aufrüsten? Die hat genügend Power und VRAM für ne ganze Weile.
Irgendwie kommt mir diese Video so bekannt vor (besonders ab 9:48)
Mit dem Anschluss an der Immo karte ist doch egal, der Stecker geht doch eh nicht richtig rein :P
2:00 lol, was ist das denn? Das ist ja schon fast Körperverletzung wenn man das Kabel mit dem Finge ab bekommen will. Schön dass du die Inno3D so kritisierst. Das Design ist wirklich an vielen Ecken fragwürdig.
Hallo Roman, ich habe viele Videos von der Review der 4070 angeschaut. Aber deines ist wieder am besten erklärt. Man merkt dein großes Fachwissen sehr.
Das mit den Stickern macht Inno3d leider bei allen Modellen so 😬 ich hab die Stickerflut auf meiner 4090 iChill auch und alle sind Warranty Void if removed, damitst auch ja nix runternimmst 🤮
die pcbs sind echt kurz. das packt den stromanschluß sehr weit nach vorne. bin ich persönlich kein freund von, weils mir die optik eines grade laufenden kabels ruiniert. denn atm sitzt an meiner karte der anschluss so weit hinten, das ich das kabel grade runterziehen kann und es unten in einem gehäuseauschnitt verschwindet. in dem falle, müsste das kabel dann zwigend schräg laufen.. kleinigkeit und pingelig, ich weiß..
06:55 - lichen Dank dir dafür... das ist genau das was ich stets bei den anderen vermisse und dich dafür schätze das du es so auf den Punkt bringst... Ich habe das Gefühl viele satteln das Pferd von Hinten mit der Geldsparerei wo ich mir nur denke wie kann man das so vertreten wenns hinterher eigentlich mehr kostet.... danke das du da anders denkst und es auch sagst
Meine aorus1080ti denkt sich einfach nur "GIB MIR MEHR" XD die 4070 ist mal langsam ein Grund zu wechseln gerade auch wegen der Effizienz aber auch, nur wenn er Preis stimmt ansonsten bleibt mein Baby mir noch eine lange Zeit erhalten.
Gerade der moderate Stromverbrauch führt mich immer wieder zur 4070... Ausserdem bin ich ein DLSS3 und RT Opfer :)
Ne RX wäre von der Leistung her an sich besser, aber die verbrauchen einfach deutlich mehr Strom. Ich zocke halt einfach zu viel da macht das schon was aus im Jahr. Und wenn ich meine Karte versetze und etwas drauf lege wäre der Preis nicht mehr so das Problem. Schwere Entscheidung ist das leider... Würde die Karte 550€ kosten dann würde ich nicht überlegen.
Aber cooles Video, danke.
Typo in Slide @ Minute 4:00 "Pheonix" !
Ich habe mal eine Frage vielleicht kann mir ja hier jemand noch eine Idee bringen. Ich habe eine 3070 ti von MSI, soweit funktioniert auch alles. Nur Valorant chrashed durchgängig schon beim starten (alte GPU Vega 56 funktioniert problemlos), selbst bei einem neuen cleanen windows install. Habe ein ähnliches problem bei JaysTwoCents gesehen. Driver und alles ist die neuste Version
Ich bin nach wie vor sprachlos wie teuer es derzeit ist upzugraden, meine 1080 kommt so langsam an ihre grenzen aber selbst für 400€ bekomme ich nur marginal bessere Leistung :(
Ich warte auf die kleineren RX Modelle. Einfach weil ich Nvidia kein Geld nachschmeißen will. Meine Hoffnungen liegen auf der 7800 oder 7700... Preistechnisch Wette ich, dass AMD aber genauso gierig auf unsere Scheine sein wird.
Was AMD momentan mit ryzen CPUs und am5 Platform abzieht....dagegen ist Nvidia und Intel Weisenknaben
AMD bietet mit der 6800XT ja jetzt schon eine bessere Alternative zur 4070.
660€ für eine langsamere Karte mit weniger Speicher sind ein schlechter Witz.
Das mit der NDA hätten die sich echt Sparen können, aber was soll man dazu noch sagen.
Zu den Unterschieden, finde ich dann doch schon groß. Die FE Version ist zwar Deutlich kleiner, hat da aber nur 2 Lüfter dran.
Selbst wenn man das Power Target bzw. Untervoltet werden dies FE karten immer 10grad Wärmer sein.
Ich bevorzuge dann doch lieber mit 3 großen Lüftern und eine Gute Wärmeabfur und dafür sind sie auch ziemlich leise.
Setzt man nun das Power Target runter bzw. Untervoltet man sie, ist das Spulenfieben komplett weg und trotzdem unhörbar bei gleicher Leistung aber wie die FE aber deutlich Kälter.
Zusätzlich zum Verbrauch kommen dann halt auch AV1 decode/encode oder Features wie DLSS3 FG. Bevor ich HEUTE also ne 3080 kaufe wäre eine 4070 sicher die bessere Wahl. Teuer ja, aber wenn schon teuer dann auch alles mitnehmen was geht.
Meddl Loide
Ich hab eine 2060 und fange mit sim racing an. Ich glaub jetzt werde ich upgraden.
geil, dass du jetzt auch Spulenfiepen testest, aber dafür wären mind 240 hertz schon besser, weil das angeblich bei high fps verstärkt auftritt.
Ich versteh es trotzdem nicht so ganz wieso ich früher NIE spulenfiepen hatte bei keiner highend Karte
Andere Leistungsaufnahme, geringere Mhz, schlechtere Kühlung (warme Spulen sind leiser), viel geringere FPS. Aber ja vielleicht auch vermeintlich bessere Komponenten.
Ich habe die 3080 OC die hat ja ca 2000MHZ Takt die 4070 hat ca 700mhz Takt mehr und ist nur minimal schneller bzw gleich schnell?
Sollte die nicht um einiges mehr Leistung bringen?
Eine Grafikkarte hat viel mehr zu bieten als nur die Frequenz der Kerne. Die 3080 10 GB hat 8704 CUDA-Kerne, 272 TMUs und 96 ROPs. Der 4070 hat nur 5888 CUDA-Kerne, 184 TMUs und 64 ROPs.
3,8w im idle?? Meine 3060ti zieht mit 2 qhd 165 (bzw einer 144hz) Monitoren 50-60w
Keine timestamps?
Vor allem dabei bleibts ja nicht, wenn du dann eine von den Sparsammeren 3D-Vcache CPUs hast die teilweise die hälfte vom Intel Äquivalent schlucken bist dann schnell mal bei 150 im Jahr :D
Früher waren 40mhz viel😅. Muss man schon warten mit dem heftigen Ergebnis 😅Ja kannst sagen die Karten sind Leistungtechnisch gleich. Aber der Kühler ist natürlich schon ein gewaltiger Unterschied 😮
alter warum ist die fe so winzig? habe mir ne strix 4070ti gekauft und dafür ein extra gehäuse gebraucht :D
spulenfieben bei meiner 1080Ti ist die Hölle so was von laut
würde es Sinn machen jetzt auf ne 4070Ti zu wechseln? oder warten bis die Preise mal fallen sollten
Hast du es mit Undervolting versucht? Dadurch konnte ich bei meiner 6900 XT das Spulenfiepen beseitigen.
Optisch finde ich die FE immer noch sehr nice. Aber warum gab es keine 4070 ti FE?
Ich schätze mal, weil die 4070 ti eigentlich eine 4080 12 GB sein sollte. Das haben die dann umgeworfen und eine 4070 ti draus gemacht.
Was würde denn PAssieren, wenn man bei der FE die fehlenden Phasen bestücken würde? BZW was haben die denn für ein Sinn? Und ich seh schon nächstes Projekt: "RTX4070 mit 2X 8 Pjn Anschluss im Test" xD
Ganz einfach als dieses PCB geplant wurde hat man sich die Option der 8 Pin Anschlüsse offen gelassen für den Fall das man den neuen Stecker nicht verbauen will aus Gründen.
Es hat immer irgendwas mit Geld zu tun bei sowas.
Sind 3 Lüfter-Modele immer leiser als 2 Lüfter-Modele?
Sollte so sein, zumindest denke ich das.
Nachdem die 4070 powerlimitiert ist, bin ich schon auf den Shuntmod gespannt :-D
Wieso sind für die kleinen Platinen immer so ausladende kühler nötig... Früher ging das doch auch.
Ganz ehrlich, ich warte auf die Einstiegs Karten. Zur Zeit nutze ich eine GTX 980 FE und ich brauche zwar langsam mehr Leistung aber nicht für den Preis, ich warte entweder auf die 4050 oder die neue Arc Gen
die rtx 4050 soll nur 6 gb vram bekommen denn lieber doch die rtx 4060 die soll 8 gb vram haben
@@karateschnitzel1337 kann ich mir wahrscheinlich bei den Preisen nur nicht leisten, ich will halt einfach keine 500€ für eine gpu ausgeben. Auch wenn es stimmt das 6gb langsam wenig sind
@@karateschnitzel1337 8gb is deutlich zu wenig jezt schon ...traurig das -.-
Ich bin noch zufrieden mit meiner GTX 970
@@Fairwild1988 ich habe gerade eine GTX 1070 und bin zufrieden auf fhd aber ich möchte dieses Jahr auf wqhd wechseln da werde ich mir die rtx 4070 holen