RTX 40 ENDLICH günstig? RTX 4070 im Benchmark-Test | Rafffazit
HTML-код
- Опубликовано: 5 июл 2024
- RTX 40 ENDLICH günstig? RTX 4070 im Benchmark-Test | Rafffazit
▶ Aus der Benchmark-Hölle klettert der Raff und hat uns etwas mitgebracht: Infos und Benchmarks zur RTX 4070! Was er herausgefunden hat und ob und wann sich die Anschaffung lohnt, erfahrt ihr in dem Video!
PCGH-Artikel zum Video-Beitrag:
▶ RTX 4070 Test: www.pcgh.de/aid,1417027/
▶ RTX 4070 Test: www.pcgh.de/aid,1417376/
Timestamps:
0:00 Intro
1:47 RTX 4070 Spec-Vergleich
3:12 Ausstattung RTX 4070
4:22 Rasterizing
6:12 GPU Index
8:49 Taktraten und durchschnittlicher Verbrauch
9:51 Raytracing RTX 4070
12:23 DLSS 3 als Fps Multiplikator
15:35 RTX 4070 aus der Nähe, Lautheit
18:21 Leistungsaufnahme RTX 4070
23:04 Preis/Leistung RTX 4070
26:52 RTX 4070 im Chart mit 43 anderen Karten
29:07 VRAM RTX 4070
31:31 TLDR-Fazit
Die neuesten
▶ Gaming-Monitore*: amzn.to/2ttcJiW
▶ Gaming-Headsets*: amzn.to/2sPKQQx
▶ Gaming-Tastaturen*: amzn.to/2sPD9d6
▶ Gaming-Mäuse*: amzn.to/2tPCgVJ
▶ Gaming-Mainboards*: amzn.to/2sPprH8
PC Games Hardware:
▶ Mehr News bei PCGH: http:/www.pcgh.de/news
▶ Helft uns mit Amazon-Käufen*: amzn.to/2sPzv2w
▶ PCGH Webseite: www.pcgh.de
▶ PCGH @ Discord: / discord
▶ PCGH @ Facebook: / pcgameshardware
▶ PCGH @ Twitter: / pcgh_redaktion
▶ PCGH @ Instagram: / pcgh.de
▶ PCGH @ RUclips: / pcgameshardware
▶ Frag PCGH per Mail: post@pcgh.de
(*) Affiliate-Links haben wir mit einem Sternchen gekennzeichnet. Wir erhalten für einen Kauf über unseren Link eine kleine Provision und können so die kostenlosen Videos teilweise mit diesen Einnahmen finanzieren. Für den User entstehen hierbei keine Kosten.
#pcgh #rtx4070 #RTX4000 Наука
Ich bin auch der Meinung dass Nvidia den Fokus auf die falschen Aspekte legt. Raytracing ist schön und gut, sorgt aber nur dafür dass der knappe VRAM noch mehr belastet wird. Dass dann mit "Allheilmittel DLSS 3" zu kompensieren wirkt mehr wie eine Notlösung die vom Marketing gut rübergebracht wird als wirklich eine gute Lösung. Klar ist DLSS 3 eine tolle Sache aber der knappe VRAM bei Nvidia Karten ab der 70er Reihe ist schon eine kleine Frechheit, gerade bei den Preisen. Dass AMD da mehr Wert auf VRAM legt und weniger auf Raytracing halte ich da aktuell für die bessere Wahl, zumal auch AMD mit sowas wie FSR (und bald auch FSR 3) eine ähnlich gute Alternative zu DLSS bietet. Klar kann man auch darauf hoffen dass in Zukunft mal die PC Games endlich mal wieder besser optimiert werden und dadurch weniger Hardwarehungrig werden, aber ich glaube eher das Gegenteil wird der Fall sein, wodurch die VRAM Thematik nur noch wichtiger wird :D
Ich habe die 3070 mit 8 GB RAM. Vom Power/Temperaturlimit und der GPU-Auslastung her ginge bei Spielen wie Resident Evil und Microsoft-Flight Simulator in 3440x1440 einiges. Der Bottleneck ist der Arbeitsspeicher, man ist gezwungen einige Features komplett zu deaktivieren oder die Details runterzuschrauben. Sobald der GDDR6 Speicher voll ist, wird es eine Dia-Show. Wenn ich mir eine neue Grafikkarte zulegen würde, dann auch eher keine 70er mehr, sondern 60,80 oder 90
Finde ich auch absolut dreist von Nvidia das die beim Vram sparen bei ner Karte in meinem Fall ne 4070ti und nem preis von 900€+. 16Gb für die 4070ti. 20gb für die 4080 und 24gb für die 4090 wären optimal gewesen. und 12gb für die normale 4070. Bis jetzt komme ich zwar noch ganz gut zurecht mit den 12Gb Vram . das kann sich aber in einem Jahr schon schnell ändern. spiele auf 3440*1440. Meine alte 1080ti hatte ich fast 6 Jahre im Betrieb. ich glaube kaum das meine 4070ti so lange halten wird bei den ganzen grafischen sprüngen und neuen feautures die rauskommen ......
ist halt deine Leienansicht, der Fokus liegt auf der Zukunft. Das VRAM Problem könnten die Devs ja angehen indem sie sampler feedback nutzen würden, machen sie aber leider nicht. RT ist das wichtigste Feature was es gibt, in 10 Jahren wird nichts anderes mehr benötigt, ergo muss man dieses Feature jetzt schon pushen. AMDs Ansatz ist eben schlecht für die Zukunft, sie bringen keine neuen Features... Stilstand ist eben ein Rückschritt, daher ist Nvidia auch schon mehr Wert als Intel und AMD zusammen.
Wo sind 12GB knapp wenn das eine 1440p Karte ist und mit DLSS nur in 1080P gerendert wird !?
@@Neburion Wäre so technisch nur nicht umsetzbar gewesen. Man kann VRAM nicht einfach ankleben, der Chip und das Businterface muss da mit angepasst werden, woe eine 4070Ti mit 16GB effektiv eine 4080 wäre und eine 4080 mit 20GB zwar möglich gewesen wäre, aber dann zu dicht an der 4090 dran wäre (ca. -5-10%-Leistung). In UWQHD wirst Du Dir mit 12GB aber keinen Kopf machen müssen, wenn Du genug normalen RAM im System hast. 32GB werden da aber auch schon wieder knapp, ab 25,5GB wird ausgelagert und z.B. LoU belegt gerne 22+GB. Man sollte jetzt bei einem neuen System bereits 48/64GB verbauen.
Der niedrige Stromverbrauch bei dieser Leistung ist ziemlich beeindruckend 👍🏼
Sehr sehr guter und aufwendiger Test. Vielen Dank für die tolle Arbeit!
Ne 6800XT gibt es für 569€ bei Mindfactory, hat auch 16GB VRAM und genug Stärke, damit man games mit hoher Grafik in 1440p auch noch in 2 bis 3 Jahren flüssig nativ zocken kann.
Dieser ganze DLSS Firlefanz ist zwar ganz nett, hab ich in Games auch schon benutzt (Cyberpunk, God of War), aber letzten Endes funktioniert es mal gut mal eher meh in Games, daher nicht kaufentscheidend. Ist nur Marketing BS um die Leute dazu zu bewegen mehr Geld für ne Karte auszugeben als sie sollten.
Diese ganze Grafikkartengeneration ist einfach absoluter Müll.
Alles, was du sagst, thematisiert PCGH übrigens im Test. :)
ist nvidia doch egal. 4070 wird sich gut verkaufen da kannste einen drauf lassen. die leute kaufen auch apple für 1000€+
@@retakleksum111 Bei Apple fangen bei 1000€ grade mal die Rollräder für den PC an. :D
@@retakleksum111 Ich wäre mir da nicht so sicher, das hat man bei der 4080 auch gedacht.
192bit, also eigl. eine 60er Karte. Und die Leute merken nicht, wie sie verarscht werden. Oh mann..
So funktioniert das nicht. 36 MiB L2-Cache, krass - die kommt aus der Zukunft! Siehste? :)
warum ist das so relevant? und in welchem buch steht das 70er 256 haben müssen? reicht halt für wqhd
@@retakleksum111 Du lässt dich wohl gerne von Unternehmen verarschen, anders kann man die Frage nicht verstehen.
@@shercrox8650 gib ne vernünftige antwort oder halt dein dummes maul.
Wenns nur das wäre. Schlimmer ist eig dass die Leute sich mit sehr wenig vram abspeisen lassen, damit sie 2 jahre später wieder ne tolle karte kaufgen können, die dann grad wieder " genug" hat für den moment
Danke für den tollen Test! (:
Ich weiß, das könnte man auch selbst ermitteln.
Es wäre allerdings interessant, noch eine Übersicht von Preis/Effizienz zu haben, um einen noch detaillierteren/aussagekräftigeren Vergleich der Generationen zu bekommen. :3
Schönes Wochenende
echt starkes video mit vielen information ohne blabla für video in die länge ziehen
Der UVP-Vergleich:
2070: 519 €
3070: 549 € und damit 6 % teurer bei 50 % mehr Leistung.
4070: 659 € und damit 20 % teurer bei 30 % mehr Leistung vs der 3070.
Wenn das so weiter geht, dann bringt Nvidia demnächst eine 5030 mit 3 GB VRAM und später eine 6020 mit 2 GB VRAM raus für jeweils knapp 300 €.
Die 4070 ist sozusagen die eigentliche Ti, denn sowohl die 3070 Ti als auch die 4070 haben eine UVP von 599 $.
Damit brechen nach unten die günstigeren Karten weg, bezahlbare Computer müssen ohne GPU der neusten Generation auskommen, teilweise werden mehr als 5 Jahre alte Modelle verbaut.
Das wäre auch eine Erklärung dafür, warum die 4070 TI eigentlich ne 4080 sein sollte. Mit 10gb VRAM 😂
@@technikfreak7705 Das wäre der König aller 1080p Karten. lol.
@@DeadNoob451 perfekter Preis für Full HD xD
Finde auch wichtig anzumerken, dass die UVP jetzt seit 2000er Karten im Grunde nicht mal Ansatzweise eingehalten wurde. 3070 für 550€ gibt es erst seit ca. diesem Jahr, mittlerweile auch drunter. War Quasi die gesamte "Laufzeit" der Generation mindesten 100€ über UVP. Zu Beginn sogar Monate bei über 800€.
Der reale Preis ist zu Release für die 4070 demnach sogar wesentlich besser, als bei der 3070.
Ich habe persönlich ca. ein 3/4 Jahr vor Release der 3070 eine 2070 für 400€ Neu gekauft.
Man merkt, dass Nvidia auf den Trichter gekommen ist, dass die Leute es ja trotzdem kaufen. Jetzt sind die UVPs ein bisschen Richtung Scalper Preis gewandert, toll.
Man braucht sich nur die 4060 ti angucken. 430-500€ für ne Full HD Karte ist ne absolute Frechheit! Die 16GB VRAM beim teureren Modell boxen da auch nichts raus meiner Meinung nach.
aus trotz werd ich mir ne 7900xt kaufen ^^ wenn die preise so bleiben -.-**
wie immer super video!
habe mir die Saphire 7900 XT Pulse geholt vor 3 Wochen und bin absolut zufrieden. Kann den wechseln von NVidia zu AMD zur zeit nur empfehlen 👌
@@Defender90210 Bist mit den treibern und Software zufrieden? War die Umstellung groß?
die schafft 8fps in Cyberpunk Pathtracing, die Karte ist jetzt schon für die Zukünftigen Spiele veraltet.
@@merrydoc1051 benutze die "AMD Software: Adrenalin Edition". Sie bietet sehr viele Möglichkeiten also musste ich mich erst 2-3 Tage durch alles durchlesen und durchprobieren. Da ich ansonsten relativ alte Komponenten besitze musste ich quasi alle Features ausschalten die standardmässig aktiviert sind. Dies hat die Performance bei mir verbessert. Ich spreche von bspw. AMD FreeSync (dazu ist ein entsprechender Bildschirm nötig, ich selbst habe einen "alten" 60HZ 4K) oder auch Anti-Lag und Enhanced Sync. Die haben bei mir nur zu laggs geführt. Muss man aber individuell nach System beurteilen denk ich mal.
Habe dann mittels Tuning-Tool die Karte auf 1000mV undervolted und Power draw auf +15% gestellt (mit 3DMark getestet) und dadurch signifikante MHZ und FPS extra gekriegt.
Man kann auf jeden Fall sehr viel rausholen wenn man sich einliest und ein bisschen rumprobiert^^ Zum Tuning von AMD gibt gute Videos unter anderem von JayzTwoCents (englisch).
Die Kühlung meiner custom design Karte ist jedenfalls sehr gut. Übergangstemperatur in der Mitte der CPU bei max 70°C, der Rand ist etwas kühler bei 65°C. Die AMD Software zeigt diese Werte alle schön an.
Danke dür den Preis am anfang des Videos ,spare ich mir die Zeit schon zum gucken .
super erklärt, Danke
Na dann habe ich mit der RX 6800 XT für 570€, vor zwei Monaten, keinen schlechten Deal gemacht 😅
hab meine ende letzten Jahres 6800xt tuf für 539 geschossen prima Karte
Wenn Du aktuelle Titels spielst stimmt das, schielst Du eher auf zukünftige Games werden die RDNA-Karten enorm schlecht altern. Du wirst auf massig grafische Effekte verzichten müssen und einige Spiele werden nicht einmal mehr eine normale Lichtberechnung bieten, so dass selbst dynamische Lichter wegfallen und Du mit statischen Lichtern leben musst. Willkommen in 1999...:)
Kack amd ging wieder mal zurück einfach nur Schlecht Bluescreens/ Treiber Probleme Hot Spott Probleme....dann lieber NV ohne Probleme
@@GlobalPlayerDE nvidia marketing wirkt einfach zu gut.
@@GlobalPlayerDE werd mal realistisch. bist patch tracing überhaupt richtig markttauglich wird, vergehen noch locker 2-5 jahre. dieses Fanboy geschwaffel kann man sich ja gar neme geben... traurige entwicklung.
Erst mal, vielen Dank für die Videos auf euren Kanal. Sehr informativ und gut gestaltet! An dich Raff, ich schaue gern Videos in denen du die Themen erklärst. Du kommst einfach voll sympathisch rüber. Einfach ein Typ-Mensch mit dem ich gern mal nen Bierchen trinken würde.
#FragPCGH mich würde mal generell interessieren welche Leistungsverluste ich bei aktuellen Grafikkarten habe wenn ich sie als Upgrade auf mein vorhandenes System mit leider nur einer PCI-e 3.0 Schnittstelle verwende??
Mainboard Gigabyte B450 Aorus Pro.
Würde mich freuen wenn ihr in einen eurer nächsten Videos darauf eingehen würdest.
Macht weiter so und viele Grüße
du verlierst vlt 2 bis 5 fps im schnitt
659 Euro für die Mittelklasse. Ich glaube, ich behalte meine 6700xt noch bis zur nächsten Generation.
die 6700er ist doch super. ich habe den vorgänger (5700er) und bin nach wie vor zufrieden mit der leistung. gibt immer was besseres und schnelleres. high details zocken braucht nicht so viel leistung. ich spiele auf qhd und da kommt man mit den alten generationen noch gut aus.
Respekt für den Aufwand
Danke, PCGH! Das ist eine insgesamt effiziente Grafikkarte, die leicht zu teuer ist. Die bietet eine gute Leistung bei viel geringeren Verbräuchen gegenüber einer 3080 oder 6800 XT (ohne Hand anzulegen).
Das beste Fachmagazin für Hardware auf der ganzen Welt.
Danke wie immer sehr Informativ!😀
Kommt die Karte auch mit dem Spiel Satisfactory Update 8 klar , suche ja ne neue Karte für das spiel meine Strix 1070 OC schafft das nicht mehr?
Gruß Isith
Ah danke! Weiß bescheid! also für'n🗑 😂🎉
Zum Thema 4070 oder 6800XT: Habt ihr geprüft, wie stark sich die 4070 undervolten lässt? Bei einer 6800XT ist zumindest einiges drin, sie lässt sich auch um die 200W Vollast bei gleicher Performance betreiben. Ich persönlich halte die 16GB für wichtiger als DLSS(3) und Raytracing, gerade weil der Einsatz von Raytracing ja eine Karte mit nur 12GB spürbare ins Schwitzen bringen kann. Ein Paradoxon, oder? ;)
Ja dieser Punkt wurde ausgelassen leider. Da Raytracing mitlerweile auch bis zu 2GB mehr VRAM speicher auf 4k und 1,2GB auf 1440p benutzt, und die spiele werden ab jetzt nicht VRAM freundlicher sondern das komplette gegenteil.
Ein anderer RUclipsr hat dies angetestet. Bis ca 60-70% PT verliert man kaum FPS, wie die 4090. Erst danach verliert man etwas mehr. Die Karte würde also noch über 90% Leistung bringen bei knapp unter 140W. Der Sweetspot wäre 60% PT mit max 120W und ca 85% Leistung.
12gb reichen vollkommen für Full HD und WQHD.
Bei 4k wird es je nach Spiel knapp, aber für 4k sind sowohl die 4070 als auch die 6800 XT sowieso zu schwach, wenn man anständige Frameraten möchte.
@@DonicMusik Aktuell reichen die NOCH. Aber je nach dem, für wie lange man seine Karte plant, eben nicht. Wenn man zum Beispiel die nächste Generation überspringen will, würde ich keine 12gb Karte mehr kaufen.
mit einer 4070 spielt man doch maximal 1440p, da reicht der VRAM. Natürlich kannst du nicht alles voll aufdrehen, dafür sind ja die teureren Karten... Alles wollen mit den "billigsten" Produkten ist halt dämlich.
Hmm solange Nvidia mit den Arbeitsspeicher geizt....bleib ich bei AMD, und beim Nativen Zocken und Ohne Raytracing.
@Species3472 sehe ich auch so 16GB weniger nicht.
Vom Preis her bist glaub sogar mit der RX6950XT besser dran ^^.Strom hin oder her
Für nicht mehr als 500€ vertretbar aber da würde ich defintiv eine RX 6900 XT oder noch eher die RX 7900 XT holen für 600-700€🎉
Nur das du ne 7900Xt sicher nicht für 700 Euro bekommst eher 800 - 1000 je nach Model.
@@babastyle8938 bei Kleinanzeigen ab 600€ 🤫
Hatte letztes Jahr vor dem Sommer eine RX 6700 XT für 400€ neu bekommen und die hat erst so viel Ende des Jahres gekostet.
@@Serandi Ja klar wir vergleichen jetzt gebrauchte Karten mit neuen.......
Meine Merc 310 7900XT hat mich vor einem Monat 950€ gekostet. Bis wir bei 600-700€ ankommen, wirds dauern.
@@Serandi
Jo genau. Gute Idee sich bei Kleinanzeigen ne gebrauchte Grafikkarte zu holen, so völlig ohne jegliche Gewährleistung falls was ist.
16gb VRAM und es wäre ne tolle Karte geworden, aber das ist nicht mit Nvidias Prinzipien vereinbar.
Es ist technisch nicht so ohne weiteres drin, man kann schließlich keinen VRAM mit UHU befestigen.😉
@@GlobalPlayerDE Die Technik überlassen wir mal Nvidia - die Kunden sind fürs Bezahlen zuständig. Immerhin hat Nvidia das Ding so designt, das es mit 12GB Ram rauskommt - wie geplant und wie die 70ti. Die haben die Karte nicht entwickelt und dann im Nachinein gesagt "Boa fuck...eigentlich wollten wir 16-20GB draufmachen... aber das geht ja so garnicht. So ein Mist."
Süße Größe im Vergleich zu den anderen Backsteinen :D
Ich sehe die Argumentation bezüglich der Preise in der Vergangenheit ziemlich verzerrt. In den USA, wie auch in der EU haben wir eine deutliche Inflation zu 2016 z. B. als die 1070 500 € gekostet hat. Jeder, der erwartet, dass die ..70er Karten von nVidia immer für 500€ über die Theke gehen, muss sich mal mit der Notenbankpolitik auseinandersetzen.
Sehr schöner Beitrag. Hat Spaß gemacht :) …Danke dafür!
Mega Avatar! ^^
5:25 what is "Nurgleay" ? It is not one of the included benchmarks, is it a quest, a map or something custom ? Thanks!
That's our replay used for GPU benchmarks: ruclips.net/video/4fvdPUoxVvw/видео.html :)
@@PCGH_English Oh, ok then, thank you for your answer.
Tolle Arbeit! Finde auch den Überblick mit den älteren Karten super!
Spiele selbst auf UWQHD und mir fällt es sehr schwer mich zwischen der 4070 und der 7900xt zu entscheiden 😀geht es jemand ähnlich?
Grafikkarten sind sehr komplex geworden. Die Ansätze von AMD und Nvidia gehen immer weiter auseinander, deswegn habt dir da einen guten Job mit eurem Review gemacht.
Erstmal danke für den Test. Was mich jedoch verwirrt ist die Gewichtung von Raytracing hier im Test. Ich bin bisher davon ausgegangen das das ein Addon für richtig schöne spiegelnde Oberflächen ist. Also vonwegen Grundperformance (Raster) plus dazu spiegelnde Oberflächen (Ray). Dieser Test hatt bei mir implizit den Eindruck erweckt das man sich quasie zwischen Raster und Raytracing entscheden kann und sie somit gleichwichtig sind. weiss hier einer mehr dazu?
Ich habe in meinem PC eine 3060 Ti, kann ich da einfach eine 4070 einbauen? Beide haben doch 200 Watt als Limit?
Die 3060 12 GB war damals ne richtig gute Kaufentscheidung. Beste Karte wenn man auf rt weitesgehend verzichten kann.
Aber auch deutlich langsamer als andere.
Kommt halt auf die Ansprüche an.
Kommt drauf an wie viel man dafür bezahlt hat, ehemaliger Kumpel von mir hat für seine letztes Jahr 600€ geblecht 😂
Danke für diesen riesen Aufwand und die gute Zusammenfassung im Video! Muss aber sagen, der Schnitt vom Video (in der ersten Hälfte) war mir bisschen wild, da gab es zu viel cuts, aber vielleicht höre ich Raff auch nur gern reden :)
Manchmal wär mir langsameres Sprechen noch lieber. In manchen Takes versteht man nur zweimal die Hälfte, weil er spricht als hätte man die Abspielgeschwindigkeit auf 1,5 oder gar 2x
echt peinlich was nvidia da für den preis anbietet
danke !
Ich bin Anwender der 1 Generation und seit 1987 dabei (C64) . Seit 1996 und NvidiaRiva128 oder Voodoo1 sind Games krass schöner geworden und ich nutze meist Nvidia oder auch mal ATI (heute AMD) . Die Karten hatten von Generation zu Generation beinahe verdoppelte FPS und es gab immer starke neue Features. Früher war der Unterschied gravierend. Die Röhrenmonitore waren meist bei 60-75Hz begrenzt. Also reichten auch 40-60FPS mit V-Sync völlig aus. Seit der 1070/2070/3070/4070 habe ich aber nun den Eindruck, dass man, bis auf wenige neue Features, nur noch versucht, grafisch die höheren Auflösung zu bewältigen. Spielte ich mit der GTX -1070ti kürzlich unter 1080p in allen Games flüssig , so ist mit der RTX-3070 das gleiche Potential eben bei 1440p möglich. OK , Raytracing ist als ein neues Feature dazugekommen aber bringt in Shootern optisch fast nichts und DLSS-2 macht paar FPS mehr, es treten aber wieder andere grafisch unschöne Effekte auf. Ich habe seit Kurzem nun die 4070ti verbaut und spiele hier, ohne Dlss3 (!) in allen Games unter 1440p flüssig. Battlefield-5 bei ca. 100FPS oder Battlefield 2042 bei 140FPS. Mein 32" 2K-Moni kann G-Sync und ist bei 170Hz am Ende. Die 1070ti kostete 485€ , die RTX 3070 ca. 685€ und die 4070Ti 899€. Es sind preislich mittlerweile schon sehr dicke Bretter. Es ist mir einfach die Mehrleistung nicht mehr wert, noch höhere Preise zu bezahlen. Ich könnte zwar auch mit der 4070Ti gut unter 4K ( inkl.Dlss3) spielen, aber dann muss ja auch ein neuer Moni her. Ich weiß, es reizt die schnelle Technik. Aber die optischen Effekte sind seit der RTX 20xx nicht wirklich besser. Raytracing wird meiner Meinung nach etwas überbewertet und Dlss3 ist ein "Notgroschen", wenns anfängt zu ruckeln.
man kann auch ohne neuen monitor auf höhere auflösungen spielen, über DSR bzw DLDSR
Das sollte eine 399Euro Karte sein dann kauf ich mir lieber eine rx 6750 xt für 400 und reduziere ein wenig die Details oder gleicvh für den Preis eine Rx 6900 xt mit mehr Vram...bissl undervolting macht die karte auch relativ sparsam
399 ist halrlt Quatsch.
Das ist bissl frecher Gedanke.
Man muss es auch nicht übertreiben.
@@pasimo1399 Eigentlich nicht. Die 4070 ist eine 4060 mit anderem Namen. Da ist 400 schon okay.
@@DeadNoob451 warum eine 4060?
Wie kommt man darauf
@@pasimo1399 Die Technischen Daten und Performance.
Der 192bit Memory Bus.
Alle x70 Karten hatten bis jetzt 256 bit.
Die Anzahl der GPU-Kerne war sonst bei den x70 Karten immer 50% der Kerne der größten GPU. (bei der 3070 sogar 55%)
Jetzt sind es *35%* .
Dadurch ist sie langsamer als die x80 der vorherigen Generation.
Alle x70 Karten waren bis jetzt schneller als die alten x80.
Das ist alles Standard für die x60 Karten.
Kann man auch so auf Wikipedia nachlesen und selber ausrechnen.
Nvidia kann da auch 40100 draufschreiben. Ist trotzdem 4060 Hardware drinne.
(Was man auch am Stromverbrauch merkt.)
Und das für 650€.
@@DeadNoob451 Ist es nicht, denn die 60er haben auch nie pauschal 80er Kartenleistung erreicht.
Das Interface sagt auch nichts darüber aus, nur weil andere Generstionen das hatten.
Das die 70 was beschnitten wurde was nicht hätte sein sollen ist klar, aber das ist dafür nicht direkt relevant.
Bei 500/550€ wäre das zb. anders.
Macht ihr zu der VRAM Problematik noch ein Video oder einen Artikel, denn wenn die 12GB bei der 4070 schon nur ausreichend, wird er bei der 4070TI doch knapp. Ich bekomme da schon Flashbacks zur 970 mit ihren 3,5(4)GB VRAM
Absolut. In 1440p sind 12 Gigabyte das absolute Minumum.
10 Gigabyte hatte der Maxwell Titan 2014/15. 2 Gigabyte mehr nach 9 Jahren zu 2/3 des Preises ist absolut nicht beeindruckend.
@@Strongholdex
Was für ein Geschwätz.
Habe die 1080ti mit 11gb VRAM, zocke in 1440p und bisher hatte ich in keinem einzigen Spiel irgendwelches Stuttering oder andere Symptome die auf zu wenig VRAM zurückzuführen wären. Läuft alles so wie´s soll.
12gb VRAM das Minimum für 1440p. Ja ne, ist klar.
@@DonicMusik 14.5 gb Vram bei resident evil 4. Manche von uns wollen in der Lage sein gute 4 Jahre aus einer Karte rauszuholen und das ist nicht drin. Auch nicht unbedingt mit der 4080. In 4k braucht resident evil 4 sogar 17.5 GB VRAM. Deine 11 Gigabyte waren 2017! Jetzt sind 6 Jahre vorbei. Man kann mehr als 12 Gigabyte erwarten.
Das Geschwätz dass VRAM ausreicht kenne ich weil ich selber eine gtx 960 hatte, die gute Reviews erhielt aber schon nach wenigen Monaten in neuen Spielen versagte, wegen VRAM. Den Fehler mache ich nie mehr wieder.
@@Strongholdex
Ich spiele aktuell Resident Evil 4 in 1440p und fast Max Settings mit meiner 1080ti und das flüssig ohne Stuttering oder dergleichen mit 60 - 80 FPS.
Na klar nimmt sich das Spiel mehr VRAM, wenn mehr VRAM vorhanden ist.
Das heißt aber nicht, dass das Spiel dann mit weniger VRAM nicht mehr spielbar ist oder es zwingend zu irgendwelchen Komplikationen kommt.
Ist doch das selbe wie beim RAM.
16gb RAM reichen noch für 99,99% aller Spiele.
Wenn man allerdings 32gb RAM hat, dann nehmen sich manche Spiele auch gerne mal 20gb oder mehr.
@@Strongholdex Absoluter Schwachsinn eine solche Aussage zu tätigen und schlechte Ports von Spielen als Beispiele zu nehmen. Dazu kommt bei RE4, dass die VRAM anzeige im Menü schon im 3. Teil verbuggt ist. Hättest du dich tatsächlich informiert dann wüsstest du, dass RE4 in 1440p was die Target Auflösung der 4070 ist, auf maximalen Einstellungen einen VRAM verbrauch von 6.9gb hat und mit 100fps average auf der 3070 läuft eine 8gb Karte. Die ganzen crashes die Leute mit 8 - 12 gb Karten hatten sind zurückzuführen über einen bug der entsteht wenn man raytracing anstellt, der Überraschung auch schon im 3. Teil existiert hat :D . Das grenzt ja an fear mongering was hier betrieben wird.
Ich freu mich auf November wenn Weihnachtsgeld kommt :D In meinen Setup schlummert noch eine 1080ti, das upgrade wird scheppern. Vllt gibts sogar wieder die ti variante
Bin ich der einzige der den 43 Kartenvergleich im Artikel nicht findet? Oder ist das so ein Bezahlinhalt im Artikel und ich sehe ihn deswegen nicht?
Ich auch nicht
Ist ein Extra-Artikel, der erst vorhin bei PCGH live ging. Ich kann hier leider nix verlinken, daher schaut mal selbst. :)
Sieht richtig niedlich aus in deinen Händen wenn man aktuelle 4070ti plus Karten sieht 😅
Perfekt! bin von einer 1080 auf die 4070 geupdatet :) einfach mega und musste kein neues netzteil kaufen 600 watt :)
Hab auch ein 600 Watt Netzteil, wollte eigentlich auf die 6800 XT oder 7700 XT aber die fressen leider viel zu viel Strom und sind zu groß für mein Case.
Biste mit der 4070 nach wie vor zufrieden und zockst du auf WQHD oder Full HD?
1080P würde mir die 4070 auch Definitiv nicht für WQHD kaufen da sollte es schon die 4070ti sein aber eher die 4080. @@bee_happy9969
Wenn ich bei Ebay die 1080 ti sehe für 300 - 500 Euronen. Da ist doch jede Diskussion über Preise totaler Wahnsinn. Klar, die neuen Karten sind zu teuer. Aber warum kosten die alten Dinger noch so viel? Sind alle Benchmarks gefakt? Quatsch, es hat sich in der Entwicklung wirklich was getan. Ergo, sind die neuen Grakas zu billig? Dann habe ich zu wenig Geld. Irgendwas stimmt nicht🤷🏻♂️
Ebay ist für Grakas (zumindest momentan) Mist. Auf Ebay Kleinanzeigen geht das deutlich besser.
Für 500 sollte man da mindestens eine 3070ti bekommen. Mit ein bísschen warten könnte sogar eine 3080 10gb drinnen sein.
Zu dem Preis mit nur dieser knappen 3080er Leistung und dem Minimum an Vram und dem widereinmal zu kleinen Speicherinterface absolut keine Kaufempfehlung. Wer auf Raytraycing und DLSS 3.0 FG verzichten kann ist mit RX6000 immer noch mehr als gut bedient, die RX6800XT ist in Rasterisierung, mit mehr Vram und größerem Interface gleich schnell aber man bekommt sie bereits für 100 Euro weniger. Ansonsten wartet man halt auf AMDs Antwort in Form von 7700/7800. Und FSR 3.0 mit Fluid Motion Frame und Motion Vector sind für RX6000 nicht vom Tisch. Alles in allem eher enttäuschend.
Das Ding ist halt, dass die 4070 bei weitem zukunftssicherer ist als die 6800XT, eben wegen DLSS / Frame Generation, die je nach Spiel einfach mal fast die FPS verdoppeln. Somit kommt man damit viel später an den Zeitpunkt an dem man wieder wegen zu wenig FPS upgradet.
Ja, die 6800 XT ist 100€ günstiger. Wenn man aber bedenkt, dass man die 4070 dann locker 1 - 2 Jahre länger mit akzeptablen FPS nutzen kann, dann zahlt man doch lieber 100€ mehr. Außer man gehört zu der Fraktion, die alle 2 - 4 Jahre ihre Grafikkarte upgraden.
@@DonicMusik Wird aber am Vram rippen.
NVIDIA muss Geld verdienen, aber NVIDIA sollte mal aufwachen und realisieren das man für die kleine Mittelklasse GPU mehr ausgeben muss als für eine xBox Series X oder eine PS5 - und beide Konsolen nutzen die Chips von AMD... und selbst ich als PC Liebhaber und Konsolenverweigerer seit meiner Kindheit wird bei den aktuellen Preisen schwach und tendiert zu einer blöden Konsole... Spoiler: Klar muss NVIDIA Geld verdienen, aber wenn die Preise unverhältnismäßig sind, dann greift man zu anderen Dingen und NVIDIA verdient gar kein Geld!
Und man darf halt auch nicht vergessen das NVIDIA trotz der Preise beim Speicher viel zu Sparsam ist! Auch da bin ich mit einer Konsole besser bedient...
nVidia ist Marktführer, die müssen kein Geld verdienen weil sie mehr als genug davon haben. AMD ist es, die quasi in den letzten Monaten keinen Umsatz gemacht haben.
hab mir vor über einem jahr eine aorus master 6800xt für 650€ geschossen - erkenntnis aus dem raffazit: alles richtig gemacht ;P
Irgendwie stört mich beim Ton das Hintergrundrauschen in diesem Video sehr :/
Tja, insgesamt schon interessant aber leider ca. 100 Euro zu teuer für mich. Also erstmal abwarten was AMD dagegen stellt im Herbst. Vielleicht gibt es dann sogar eine 4070 Super Anfang nächsten Jahres, die dann sogar die 3080ti schlägt.
Blöderweise brauch ich eine Karte im kompakten Format. Die RX6800 und aufwärts sind leider alle etwas zu groß (und zu durstig).
Welche Grafikkarte und Prozessor würdet ihr euch bei einem Budget von 2000 Euro holen?
#FragPCGH Wie sinnvoll ist es überhaupt sich neue Grafikkarten (vor allem im High End Bereich) zu kaufen, wenn diese selbst in 4k mit den besten CPUs ein Bottleneck haben? Und wird sich dieser Unterschied je auflösen?
Besser ein GPU Bottleneck als ein CPU Bottleneck. So schlimm wie das Internet versucht einem das einzureden ist das alles nicht.
Der drittgrösste Chip? Also ein x60 als x70 betitelt und als x80 bepreist. Läuft Huang
Nvidia RTX 4070 Ti, Ti , Ti ich bin etwas verwirrt. Es geht doch um die RTX 4070. Bei den vielen Zeichen, Balken und Text kann man schonmal ... Ti, Ti, Ti na ihr wisst schon. Trotzdem sehr guter Content.
👍🏾👍🏾👍🏾👍🏾
Die Preise sind schon undiskutabel. Hätte Nvidia jede Karte bis 4080 bis mit +4GB RAM ausgestattet, wäre es wenigstens vertretbar. So nicht empfehlenswert
@RAFF du nennst ja beim Anfangsvergleich fast jede Karte falsch😂
Das geht ja technisch schon gar nicht, du forderst Sachen wovon du gar keinen Plan hast... bisshen dümmlich.
@@PrefoX 😂 klar geht das wenn man an der Architektur und das Interface überarbeitet. Ist halt nicht so gewollt, damit die 4070er Käufer nach zwei Jahren in den Speichermangel rennen und neu kaufen. Alternative hätte man die Preise um 100-150€ niedriger ansetzen müssen.
🤡
@@Raknarus Man hätte den Chip und das Interface aufbohren müssen und effektiv bei einer 4070Ti eine 4080 erzeugt, bei einer 4080 eine 4080Ti eliminiert, bei der 4090 wäre es kompletter Blödsinn gewesen. Man kann VRAM nicht einfach ankleben. Man muss da schon die Verbindungen mit BUS und Chip und die Auswirkungen bei der Vergrößerung berücksichtigen.
@@GlobalPlayerDE das ist mir schon klar. Man hätte die Karten von Anfang an anders konzipieren können oder eben sie preislich attraktiver gestalten. Es hat sich nunmal gezeigt das Nvidias Speicherknauserei seit GTX 1000 jetzt zur Buche schlägt. Toll das die 3000er schnellen Speicher hat, nützt aber auch nix wenn er mit 8gb bei ner 3070 jetzt ausgeht, auch ne 3080 kackt mit 10 bei RTX ab.
Plötzlich konstruieren sie ne 3060 mit 12 nur um bei ner 4060 wieder bei 8 anzusetzen.
Man wollte die 4070ti als 4080 verkaufen. Man fühlt sich schon hart verarscht als Kunde. AMD zeigt zumindest in Sachen VRAM seit mehreren Gen wie es richtig geht.
Ich sage nur das man mit den Preisen besser hätte leben können wenn ne 4060 mit 12, 4070/ti mit 16 / und ne 4080 mit 20 gebaut wurden wäre. Oder eben das Portfolio preislich nach unten korrigieren.
Ich finde hier fehlt eine Kaufwarnung!
Klar wird der Vergleich zur 6800XT gezogen. Aber was man doch immer wieder vergisst ist, dass die Karte 30 Monaten alt ist. Die 4070 bietet also fast die Leistung einer 6800XT! Klar ist die Effizienz super. Aber der einzige Kaufgrund für eine 4070 ist: mittelmäßige, übermorgen bereits obsolte raytracing Performance.
Denn machen wir uns nichts vor, rayracing ist hier um zu bleiben und das Ziel ist das volle Raytracing wie wir es jetzt in CyberPunk 2077 sehen und da macht sogar selbst eine 4090 schlapp!
Mit DLSS3 sowatt von nicht obsolet....wasn BS
Cyberpunk 2077 ist für die Hardware von 2077 gemacht.
Naja Raytracing ist und bleibt vorerst High End Luxus, sich ne Mittel/Oberklasse Karte für RT zukaufen, bleibt immer noch schwachsinn.
@@Sierraone1 häh....test dir angeschaut........mit NVIDIA Technik DLSS&Co ohne grosse CPU absolut kein Ding.......Mittelklasse......Kannst froh sein das Evolutionsbremse AMD nur marginale Marktanteile hat. Gern geschehen
@@mimu9599 Raytracing braucht aber vram, wobei nvidia nur mit der 4090 bei vram mit AMD mithält.
Ohne ausreichend vram hat AMD sogar in Raytracing die Nase vorn
mit 16 gb und einer uvp von unter 600€ hätte ich mir die warscheinlich gekauft aber der juni kommt (rx 7800xt usw.)ich bin eigentlich ein nvidia fan meine letzten grafikkarten(8800gt,gtx470,gtx770,gtx1070) aber irgendwann ist es vorbei
Ja, das wär ne geniale Kombo gewesen. Hatte ja sehr gehofft, dass ne 16GB Version kommt, wegen diesem Gigabyte Leak. Die dann für 550-600 Euro, das wäre ein Top Deal geworden.
@@masterluckyluke Mag dich irgendwie. Stimme dir in allen Punkten zu.
Ich mag mich ja täuschen, aber wird durch Lumen (UE5) die RT Leistung nicht an Relevanz eher verlieren?
Wieso? Das kann ja auch Hardware-beschleunigt werden.
Naja. Ziemlich lahm. Die Radeon RX 6950 XT gib’s momentan auch für 650 Euro bei Mindfactory und die Karte zieht die 4070 ordentlich ab und hat dazu 4GB mehr VRAM.
Eigentlich bleibe nur DLSS 3.0 als großes Argument aber dieses Jahr soll ja auch endlich FSR 3.0 kommen.
659 Euro für 12GB Speicher, damit man sich nächstes Jahr wieder ne neue Karte holen kann. Ganz sicher nicht Nvidia, einmal nen Fehlkauf mit der 3060Ti gemacht, passiert mir nicht wieder (siehe Hogwarts, Last of us etc.) Mag sein das 12GB etwas länger halten. Aber es ist schon übel, dass ne 3060 12GB bessere Frametimes in Last of us hat als ne Ti. Das zeigt ja das der Speicher nicht richtig zum Chip dimensioniert wurde, und meine Befürchtung ist, dass dies auch auf die 4070 zutrifft. Bei der 4070ti ist es auf alle Fälle zu wenig, gemessen an der starken Leistung des Chip´s
Das ist immer so bei Nvidia, mit jeder Generation ein Aufrüst“anreiz“.
genau in diese scheiß preisfalle bin ich auch getappt
willst du grafikspeicher bei nvidia haben musst du ordentlich geld ausgeben. Ich hab zur 4080 gegriffen, weil mir 12gb zu wenig sind für meine Spiele
AMD ging leider nicht obwohl ich gerne eine gehabt hätte (hab ich getestet, das gejammer erspar ich euch)
Das machen sie absichtlich bei Nvidia. Leistungsmäßig hätte mir ne 4070ti genügt.
Ich finde ja auch die 16gb von einer 4080 ne Frechheit. 20gb hättens schon sein dürfen für 1400€
was tut man nicht alles für sein hobby
@@groorg3430 Warum keine 7900xtx ? Warum ging es nicht?
@@Strongholdex hatte mit meiner 6750 aus dem alten System im neuen Computer im Minutentakt Treiber Timeouts, wo sich der PC teilweise für mehrere Minuten aufgehängt hat.
Ich hab dann recherchiert, paar Sachen probiert, hat aber alles nix geholfen.
Dann hab ich die Geduld verloren, da der alte PC kaum mehr nutzbar war, und mir wiedermal eine Nvidia Karte gekauft
@@groorg3430 Oh wie schade ☹️.
Das in jeder Hinsicht bessere PC Welt.
Die einzigste 40er die für mich intressant ist ich denke in 3-4 Jahren kauf ich die mir
Das was ich mir an strom spar, muss ich dann in den Preis pump sehr sinnvoll...
Und die 40serie schliesst ab den 70iger Karten noch nicht mal dort an wo die 30 serie aufhört.
Damit bleibt es dabei diese jahr ist Hardware Technisch fast schon eine Entäuschung.
Grafikkarten zu teuer wenn man dort weiter machen will wo die anderen aufhören und die grösse ja.. Männerding ne..
Intel naja, Power brauch power ja aber intel übertreibt wenn die Chips mal ausgelaste werden.
AMD Heiss bei diesgn mag zwar okay erst mal okay sein wenn es so gewolt ist aber der Einstieg ist nicht gerade billig.
PCIe5.0 SSD big data wow aber das was man dann brauch so schlecht wie PCIe 4.0.
Intel GPU´s vielleicht ein hoffungsschimmer an Horizont.
Mag nicht jeder die selbe meinung haben.
Ich denke mal niemand teilt deine Meinung. :D
👍👍
200 W ist wahnsinn da lohnt sich auch bissl mehr bezahlen, lieber 1x mehr als 12x im monat mehr bei der stromrechnung^^
Ich warte Mal noch auf AMD da 12 GB VRAM hat schon meine 3060 und in VR werden die auch schon oft benötigt. Daher wenn ich mehr Leistung hole dann auch mit mehr Puffer.
Ohne Frame Generation wäre das ein Witz und alle 3080FE Besitzer die damals 699€ bezahlten, würden sich fragen wieso man nach 2,5 Jahren 659€ für die gleiche Leistung bezahlen muss !?
Naja, für 3080-Besitzer ist es eher gut, da sich der Wert der Karte vergleichsweise stark hält.
Wenn AMD mit FSR 3 um die Ecke kommt ist diese Karte mehr als Müll...
PCGH versucht mit aller Macht diese Karte schön zu reden. Warum nur?...
Vor der ganzen Marktzerstörung durch scalper und Miner war es üblich, dass die Preise schon nach einem Jahr so stark gesunken sind.^^
@@elchbaer4017 tun sie nicht. Es wurde an zig Stellen offen kommuniziert. Aber die machen die Preise nicht sondern vergleichen die Leistung.
ihr müsst echt mal die rauschunterdrückung von euren mikros anmachen. ansonsten gutes video
Was heißt hier "endlich günstig?“
Danke für das super Video und auch den sehr aufwendigen Artikel! Die Karte ist genau die auf die meine aktuell 1070 gewartet hat und nun ersetzt wird.
Meine 1070 hat auch gewartet und die 4070 ist genau die Karte, mit der ich meine 1070 nicht ersetzen werde. 😅
Sehr detailierter und aussagekräftiger Test. Aber was ist mit denen die nur ein festes Budget haben (z.B. 300 - 500€), und einfach normal zocken wollen (es wird einem ja auch von den Herstellern, viel eingeredet, was man denn brauche)? Da sind doch wir beim altbekannten und leidigen Thema, findet der Markt auch mal wieder eine bessere Balance??? Zumindest gefühlt steigen die Preise für Mittelklasse deutlich mehr als früher, sehe ich das nur so? Nur mal ein kleines Beispiel, eine Fertig-Pizza die vor 2 Jahren 2,49€ gekostet hat, da wollen die jetzt 3,49€ und da reden "Die" von Inflation von 8 - 10%. Fakt ist das die "Aktien dotierten Großkonzerne" deutlich höhere Preisteigerung durchsetzen als kleinere Unternehmen, schließlich müssen die Aktionäre bedient werden. Mein Tipp an alle, genau Überlegen, was man wirklich braucht, für das was man zocken möchte die nächsten Jahre, sprich die GPU solange nutzen möchte. Leider wird es immer schwerer für den Verbraucher, den Markt zu durchschauen. Also mal eine interessante Frage an das tolle PCGH-Team: bestes Preis-Leistung-Verhältnis (Zukunfstorientiert), auf Nutzungsdauer (hoffe mich verständlich ausgedrückt zu haben)???
Dann rtx 4090. Die rtx 4090 hat das Potenzial die neue gtx 1080 ti zu werden.
@@Strongholdex Das könnte so sein, wobei nach der Gerüchteküche es mit RTX 5000 auch anders kommen könnte. Ich habe eine RTX 4090 mittlerweile (Preise sind ja auch deutlich gefallen). Hatte auch eine GTX 1080 Ti, mit der konnte man locker die RTX 2000er überspringen, abgesehen von RTX und DLLS, die Leistung ist immer noch sehenswert (rein Rasterising, und bei bestimmten Games, die damals einfach enorm von 11GB VRAM profitiert haben, bei Modding und mehr als 1080p). VRAM-Mangel wurde auch oft bei RTX 2000/3000 bemängelt, scheint sich ja zu bessern bei NVidia..
@@Drizzt1948 Das könnte sein, ich könnte mir aber vorstellen, dass Nvidia 1999 Euro verlangt für die Karte.
Du könntest dir seit 2 Jahren ne 6700xt oder 6750 xt holen. Hast ne 3070ti leistung zu etwa 400€ manchmal sogar günstiger... 12 GB speicher und für simples 1440p gamign total gut.
Hmmm... trotz Allem finde ich 659 für eine 70er Karte viel zu viel. Ich warte mal auf die nächste Intel Generation und dann schau ich mal. Vielleicht nehme ich eine 4070, wenn der Preis unter 550 fällt oder eben Intel, wenn die nächste Generation die Kinderkrankheiten der ersten Karten ausmerzt. Da meine 1060 6GB so langsam an ihre Grenzen gebracht wird, muss ich mich ja mal etwas umschauen. Aber der Markt ist dermaßen kapuutt, was die Preisgestaltung anbelangt. Und NVidia nervt mit ihrem Speichergeknausere.
Du scheinst grundlos so zu tun, als gäbe es keine AMD-Karten.
1/3 der Transistoren der RTX 4090 und die Karte erhält die Endung XX70? Lächerlich! Die Bezeichnung 4050 Ti wäre an dieser Stelle passend. Und dafür möchte man über 600€ haben?
Du wirst da aber niemals eine 50er Reihe sehen, auch bei Amd nicht, nur weil es nen drittel der Transistoren hat.
So funktioniert da nicht so einfach.
Ich freue mich scho auf rtx 5070 review ;-)
Edit: sie ist für 599 euro verfügbar 😉
Jetzt 5 Monate später immer noch für 599€ xD
4070 wäre ne gute Karte wenn es sie für max 500€ gäbe mit 16GB VRAM
Sehr guter und umfangreicher Bericht! Gefällt mir sogar mehr als der von LTT! 0:43 659 Euro? Das sind aktuell 723 US-Dollar. Da werben da mit 599 US-Dollar. Selbst mit 8% Sales Tax bleiben die unter 650 US-Dollar. Dieses Flow-Through-Design finde ich immer noch sehr gut. 27:37 In dem Leistungsindex fehlt mir noch die 2080 Ti 11 GB. 😁 Video Idee: Wie gut ist der Preis-Leistungs-Index der neuen 4070 im Vergleich zu gebrauchten Grafikkarten?
Zur Info:
In Europa kommt auf Elektronik die Mehrwertsteuer, ist also Geld das an den Staat geht (nicht an Nvidia)
Da die Steuern dann wiederum unterschiedlich sind, wird nur die "UVP" in den USA angegeben, in den USA wird das anders besteuert, da gibt es diese Steuer auf Elektronik in der Form gar nicht.
Also ich würde es sehr sehr intersannt finden wenn ihr mal beam NG Drive mal in solche hardware test dazu nehmen würdet, das game ist mehr hardware hungrig als cyberpunk. vorallem mit ai traffic. Bitte danke
#FragPCGH Wie viel sollte man jetzt noch für eine gebrauchte 2080 Ti ausgeben?
350-380 Euro für gebrauchte RTX 2080 Ti ist ein gutes Preis-Leistung-Verhältnis.
@@hansschmitz8578 Das muss zu viel sein. Für den Preis habe ich auf eBay gebrauchte 3080 Auktionen enden gesehen
@PCGH wäre es möglich, dass ihr mal eine Titan Xp mittestet? Die ist zwar schon etwas in die Jahre gekommen, aber vom VRAM her laut Nvidia ja noch voll am Nabel der Zeit :D
Haben sie im Tech Test von Hogwarts Legacy gemacht, sogar mit Ray Tracing. :D
@@antispackftw2675 Alles klar, das muss ich wohl übersehen haben :D
Danke für die Info ;)
#FragPCGH
spiele momentan mit einer rx5700 (non xt) in full hd, möchte mir aber in kürze einen uwqhd monitor kaufen. lohnt sich ein upgrade auf die 4070 (zugewinn an leistung) oder besser gleich auf 4070ti/4080/rx7900xt gehen?
also normales qhd (2560x1440) spiel ich mit meiner 5700er und bin zufrieden. schafft die karte noch mit high details sehr gut bei 60 fps. kannst ja mit dem neuen monitor erstmal testen. am ende langt dir die leistung und du sparst das geld. ich werde jedenfalls noch abwarten und dann später zuschlagen. geplant ist dann min. sowas wie ne 7900xt. grüße
Der Preis für diese Leistung ist in meinen Augen eine Frechheit , auch wenn Sie wenig frisst ..das gibt mir aber nicht genug FPS auf den Bildschirm bei 4K und Ultra Auflösung. Kauf mir doch keine neue Karte der neuen Generationen um dann in den Einstellungen die Karte schonen zu müssen. Verstehe nicht wie Du die Karte für gut befinden kannst.
4k?
Dann nimm direkt eine vernünftige Karte dafür, aber doch keine 70.
Also mehr als 400€ sollte die nicht kosten wenn nicht sogar noch weniger mit den 12gb wird dir nicht mehr als 1-2 jahre machen abgesehen davon das die neuen hochanspruchvollen spiele die auch zum schwitzem bringen ja nach auflösung.. ich hoffe die kaufen auch fast keine menschen damit die irgendwann verstehen und die preise irgenwann normaler werden
400 vor 5 Jahren vllt.
Du kannst das aber nicht mit heute vergleichen und nein, 400 muss sie auch nicht kosten.
550 zb wäre da sogar akzeptabel.
@@pasimo1399 Nostalgie spielt da mit rein die mrsp aller 70er karten war ~500 in der Vergangenheit.
@@Skydreamer1331 nostalgie hat aber keine Repevanz dafür.
@@pasimo1399 Falsch ausgedrückt an der Stelle, meiner Meinung nach sehen viele Leute z.B. auf die 10er Serie zurück und wie diese für sie die letzten 6 Jahre eine super Arbeit geleistet hat, weil viele wie ich auch mit optimierten Settings auch gut klar kommen. Während sie durch ihre gute Erfahrung vergessen oder nicht sehen, dass z.B. die FE der 1070 auch eine mrsp von 499Euro hatte und dadurch unrealistische Preisvorstellungen wie 400Euro als ihren gewünschten Preis für heutige Karten angeben.
@@Skydreamer1331 ahhh, ja jetzt verstehe ich wie du des meinst, entschuldige bitte.
Ich hab die 4070 Ghost für 530€ bekommen, mal eben 200€ günstiger als meine Asus Strix 1070 gekostet hat ^^
Ein Vergleich zwischen WQHD und Full HD Auflösungen wäre Mal spannend. Ob es sich wirklich lohnt. Wo die optischen Unterschiede liegen. Ich glaube da suchen einige nach! Danke! :)
Eine ca. doppelt so scharfe Darstellung kann man sich doch vorstellen? Wobei ich WQHD auch schon wieder sehr krümelig finde und UHD einfach schöner ist. Man gewöhnt sich aber auch da schnell dran und möchte noch mehr haben.
@@GlobalPlayerDE WQHD als ''krümelig'' zu bezeichnen.........? Ok, auf einem 31 Zoll Monitor sicherlich.
Wenn du 2 x 27 Zoll nebeneinander stellst, wirst du sicherlich einen Unterschied zwischen WQHD und UHD bemerken. Nicht aber wenn der UHD Monitor eine Diagonale von 29,30 Zoll oder höher hat.
mMn macht alles über 27 Zoll eh keinen Sinn (Gaming)
@@malupani1133 Also ich zocke auf meinem 55 Zoll Fernseher und würde niemals wieder zurück auf solche kleinen Zoll-Monitore wie 27 Zoll zurückgehen wollen. Da kommen jetzt sicher wieder alle mit ihrer Pixeldichte an aber wenn man weiter weg sitzt sieht man davon eh nichts.
Nun, bringt alles nichts.
Letztes Jahr ist meine 2070 abgeraucht, sonst hätte ich die vermutlich jetzt noch im System.
Da damals keine 3070 zu einem brauchbaren Preis zu haben war (jedenfalls nicht für mich), hab ich mir eine gemietet (bei Grover) bis die 4070 rauskommt.
Die Miete läuft jetzt aus und ich muss auch etwas auf den Stromverbrauch schauen. Daher ist die 4070 auch die Karte der Wahl, die demnächst hier reinflattert.
Da ich "nur" auf FullHD spiele, wird die auch ihre Arbeit tun. DSR, DLSS usw werden dann ihren Job schon machen.
Wo bleibt denn AMD mit deren neuen Karten?
rtx 4070 neptun 320watt tdp
12Gb hm.. Ist halt nicht so viel
12gb heute ist immernoch besser als 8gb vor 2,5 jahren. ist halt nichts für 4k das sollte klar sein.
@@AzumDzumHzumS sehe ich anders. Zocke meine Games auf 4k ohne probleme mit einer 3080 ti 12gb...
@@technicalmoreteam Dann Zockst du halt nicht einige der aktuelleren Titel wie resident evil 4 oder Last of Us oder selbst bei Hogwarts Legacy gab es teilweise auf 4k schon Probleme mit 12Gb. Und das wird sich ja jetzt er noch mehr verstärken.
20 gb das wäre angemessen
Custom Designs um die 700-750 Euro. Leistung unter der der RTX 3080. Die 4070 sollte eigentlich 4060 heißen. Ein absoluter Witz. NVIDIA ist ein ganz übler Verein.
Warum sollte sich irgendjemand fragen welchen Takt die Grafikkarte hat?
Solche Fragen stellt doch nur das Marketing. :)
Relevanter wäre ja was pro Takt passiert. :)
Bei einer 54%igen Leistung einer RTX 4090 müsste die 4090 also nur 1221€ kosten. Auch eine Erkenntnis in so viele Richtungen.
Gute Arbeit an das PCGH-Team, wie immer! Danke dafür! Dieses Produkt sollte man aufgrund des VRAMs nicht kaufen und nVidia noch dabei unterstützen, solche Sollbruchstellen in Zukunft wieder zu produzieren. Lasst das bitte im Regal liegen.
Seit wann ist das P/L denn Linear? das ist doch nirgendwo so, geh mal bitte in die Schule...
@@PrefoX geh mal bitte in die Anstandsschule. Seit wann beleidigt man öffentlich einfach andere Leute.
Und ich hab mir vor Kurzem für ca. 580€ eine 3070 ti gekauft ;( Es war dumm, aber jetzt bleib ich dabei. Danach gibt's ne AMD, also in so 3 Jahren. AAA Spiele, die VRAM bis zum geht nicht mehr fressen spiele ich eh nicht, von daher reichts für meine Zwecke.
Endlich 650EUR für eine, real gesagt, 4060. Wow. Endlich.
Die Karte ist trotzdem genauso schnell wie eine 3080 die mehr kostet
Glaub bei den meisten zahlen scheinbar noch die Eltern den Strom 😅 man darf den deutlich niedrigeren Stromverbrauch nicht vernachlässigen!
Bin mit meiner RTX 2080 noch zufrieden^^
Leider zeigt Nvidia wieder das sie keine Mittelklassengrafikarten können. Wäre die 4070 TI für 600 Euro angeboten worden und die Non Ti für 500 Euro hätte man ja reden können da die Nvidia Karten die Leistung mit DLSS3 und Raytracing kompensieren können also Features die AMD leider noch nicht ganz gut beherrscht. Allerdings bei denn Preisen kann ich nur zu AMD raten da sie im allgemeinen durch besseren Speicherinterface und Ram und den Preis für diese Leistung einfach zukunftsorientierter sind. Aber so war das immer wärent AMD im Mittelklasse/Oberklasse regiert gehört die unangefochtene Premiumhighendklasse Nvidia
RX 6950xt besser als die 4070? Bekommt man für den selben Preis.
Jein - genauer steht es im Artikel oben. ^^
@@antispackftw2675 sehe da nur 6800 xt vergleiche ubd da ist sie mit der 6800xt fast gleich auf. 6950xt sollte doch eig viel besser sein als die 4070.. oder nicht ?
@@gehtdichnixan18373 "Viel" würde ich das nicht nennen, das 6800 xt und 6950 xt relativ nah beieinander liegen. Aber ja, die 6950 xt ist rastertechnisch schneller unterwegs als die 4070.
Okay. Danke
Eigentlich finde sie irgendwie niedlich. Ich spiele nur wqhd. 4k ist nur Blabla für mich. Wenn ich Bilder will nutze ich meist für Fotos machen und das war es. . mir wäre es ok aber ich warte mit 500€.
Unter 16GB kommt mir nichts in Haus. Von daher nehm ich lieber ein Upgrade auf 7900xt als (mal wieder) ständig zu wenig VRAM zu haben. AMD machts richtig, auch mit den Treibern
RTX 3080 einfach mal besser. Nice. RTX 4070 dafür sparsamer. Top Video.
naja 25% mehr VRAM, bessere RT Leistung (bald) und Stromsparender und leiser. bitte erst denken. die ganzen RT Features von ADA werden zurzeit nicht genutzt.
@@PrefoX die 200 Watt sind echt nice. Meine alte 3080 10 GB ging bei 330 Watt ab...und war laut