RTX 40 ENDLICH günstig? RTX 4070 im Benchmark-Test | Rafffazit

Поделиться
HTML-код
  • Опубликовано: 5 июл 2024
  • RTX 40 ENDLICH günstig? RTX 4070 im Benchmark-Test | Rafffazit
    ▶ Aus der Benchmark-Hölle klettert der Raff und hat uns etwas mitgebracht: Infos und Benchmarks zur RTX 4070! Was er herausgefunden hat und ob und wann sich die Anschaffung lohnt, erfahrt ihr in dem Video!
    PCGH-Artikel zum Video-Beitrag:
    ▶ RTX 4070 Test: www.pcgh.de/aid,1417027/
    ▶ RTX 4070 Test: www.pcgh.de/aid,1417376/
    Timestamps:
    0:00 Intro
    1:47 RTX 4070 Spec-Vergleich
    3:12 Ausstattung RTX 4070
    4:22 Rasterizing
    6:12 GPU Index
    8:49 Taktraten und durchschnittlicher Verbrauch
    9:51 Raytracing RTX 4070
    12:23 DLSS 3 als Fps Multiplikator
    15:35 RTX 4070 aus der Nähe, Lautheit
    18:21 Leistungsaufnahme RTX 4070
    23:04 Preis/Leistung RTX 4070
    26:52 RTX 4070 im Chart mit 43 anderen Karten
    29:07 VRAM RTX 4070
    31:31 TLDR-Fazit
    Die neuesten
    ▶ Gaming-Monitore*: amzn.to/2ttcJiW
    ▶ Gaming-Headsets*: amzn.to/2sPKQQx
    ▶ Gaming-Tastaturen*: amzn.to/2sPD9d6
    ▶ Gaming-Mäuse*: amzn.to/2tPCgVJ
    ▶ Gaming-Mainboards*: amzn.to/2sPprH8
    PC Games Hardware:
    ▶ Mehr News bei PCGH: http:/www.pcgh.de/news
    ▶ Helft uns mit Amazon-Käufen*: amzn.to/2sPzv2w
    ▶ PCGH Webseite: www.pcgh.de
    ▶ PCGH @ Discord: / discord
    ▶ PCGH @ Facebook: / pcgameshardware
    ▶ PCGH @ Twitter: / pcgh_redaktion
    ▶ PCGH @ Instagram: / pcgh.de
    ▶ PCGH @ RUclips: / pcgameshardware
    ▶ Frag PCGH per Mail: post@pcgh.de
    (*) Affiliate-Links haben wir mit einem Sternchen gekennzeichnet. Wir erhalten für einen Kauf über unseren Link eine kleine Provision und können so die kostenlosen Videos teilweise mit diesen Einnahmen finanzieren. Für den User entstehen hierbei keine Kosten.
    #pcgh #rtx4070 #RTX4000
  • НаукаНаука

Комментарии • 380

  • @Biernot247
    @Biernot247 Год назад +36

    Ich bin auch der Meinung dass Nvidia den Fokus auf die falschen Aspekte legt. Raytracing ist schön und gut, sorgt aber nur dafür dass der knappe VRAM noch mehr belastet wird. Dass dann mit "Allheilmittel DLSS 3" zu kompensieren wirkt mehr wie eine Notlösung die vom Marketing gut rübergebracht wird als wirklich eine gute Lösung. Klar ist DLSS 3 eine tolle Sache aber der knappe VRAM bei Nvidia Karten ab der 70er Reihe ist schon eine kleine Frechheit, gerade bei den Preisen. Dass AMD da mehr Wert auf VRAM legt und weniger auf Raytracing halte ich da aktuell für die bessere Wahl, zumal auch AMD mit sowas wie FSR (und bald auch FSR 3) eine ähnlich gute Alternative zu DLSS bietet. Klar kann man auch darauf hoffen dass in Zukunft mal die PC Games endlich mal wieder besser optimiert werden und dadurch weniger Hardwarehungrig werden, aber ich glaube eher das Gegenteil wird der Fall sein, wodurch die VRAM Thematik nur noch wichtiger wird :D

    • @MrMicha0815
      @MrMicha0815 Год назад +6

      Ich habe die 3070 mit 8 GB RAM. Vom Power/Temperaturlimit und der GPU-Auslastung her ginge bei Spielen wie Resident Evil und Microsoft-Flight Simulator in 3440x1440 einiges. Der Bottleneck ist der Arbeitsspeicher, man ist gezwungen einige Features komplett zu deaktivieren oder die Details runterzuschrauben. Sobald der GDDR6 Speicher voll ist, wird es eine Dia-Show. Wenn ich mir eine neue Grafikkarte zulegen würde, dann auch eher keine 70er mehr, sondern 60,80 oder 90

    • @Neburion
      @Neburion Год назад +2

      Finde ich auch absolut dreist von Nvidia das die beim Vram sparen bei ner Karte in meinem Fall ne 4070ti und nem preis von 900€+. 16Gb für die 4070ti. 20gb für die 4080 und 24gb für die 4090 wären optimal gewesen. und 12gb für die normale 4070. Bis jetzt komme ich zwar noch ganz gut zurecht mit den 12Gb Vram . das kann sich aber in einem Jahr schon schnell ändern. spiele auf 3440*1440. Meine alte 1080ti hatte ich fast 6 Jahre im Betrieb. ich glaube kaum das meine 4070ti so lange halten wird bei den ganzen grafischen sprüngen und neuen feautures die rauskommen ......

    • @PrefoX
      @PrefoX Год назад +1

      ist halt deine Leienansicht, der Fokus liegt auf der Zukunft. Das VRAM Problem könnten die Devs ja angehen indem sie sampler feedback nutzen würden, machen sie aber leider nicht. RT ist das wichtigste Feature was es gibt, in 10 Jahren wird nichts anderes mehr benötigt, ergo muss man dieses Feature jetzt schon pushen. AMDs Ansatz ist eben schlecht für die Zukunft, sie bringen keine neuen Features... Stilstand ist eben ein Rückschritt, daher ist Nvidia auch schon mehr Wert als Intel und AMD zusammen.

    • @0ssi170
      @0ssi170 Год назад +1

      Wo sind 12GB knapp wenn das eine 1440p Karte ist und mit DLSS nur in 1080P gerendert wird !?

    • @GlobalPlayerDE
      @GlobalPlayerDE Год назад

      @@Neburion Wäre so technisch nur nicht umsetzbar gewesen. Man kann VRAM nicht einfach ankleben, der Chip und das Businterface muss da mit angepasst werden, woe eine 4070Ti mit 16GB effektiv eine 4080 wäre und eine 4080 mit 20GB zwar möglich gewesen wäre, aber dann zu dicht an der 4090 dran wäre (ca. -5-10%-Leistung). In UWQHD wirst Du Dir mit 12GB aber keinen Kopf machen müssen, wenn Du genug normalen RAM im System hast. 32GB werden da aber auch schon wieder knapp, ab 25,5GB wird ausgelagert und z.B. LoU belegt gerne 22+GB. Man sollte jetzt bei einem neuen System bereits 48/64GB verbauen.

  • @John-Reese-
    @John-Reese- Год назад +9

    Der niedrige Stromverbrauch bei dieser Leistung ist ziemlich beeindruckend 👍🏼

  • @b0b745
    @b0b745 Год назад +28

    Sehr sehr guter und aufwendiger Test. Vielen Dank für die tolle Arbeit!

  • @kaystephan2610
    @kaystephan2610 Год назад +18

    Ne 6800XT gibt es für 569€ bei Mindfactory, hat auch 16GB VRAM und genug Stärke, damit man games mit hoher Grafik in 1440p auch noch in 2 bis 3 Jahren flüssig nativ zocken kann.
    Dieser ganze DLSS Firlefanz ist zwar ganz nett, hab ich in Games auch schon benutzt (Cyberpunk, God of War), aber letzten Endes funktioniert es mal gut mal eher meh in Games, daher nicht kaufentscheidend. Ist nur Marketing BS um die Leute dazu zu bewegen mehr Geld für ne Karte auszugeben als sie sollten.
    Diese ganze Grafikkartengeneration ist einfach absoluter Müll.

    • @antispackftw2675
      @antispackftw2675 Год назад +1

      Alles, was du sagst, thematisiert PCGH übrigens im Test. :)

    • @retakleksum111
      @retakleksum111 Год назад +6

      ist nvidia doch egal. 4070 wird sich gut verkaufen da kannste einen drauf lassen. die leute kaufen auch apple für 1000€+

    • @MrRuffythemonkey
      @MrRuffythemonkey Год назад +4

      @@retakleksum111 Bei Apple fangen bei 1000€ grade mal die Rollräder für den PC an. :D

    • @DeadNoob451
      @DeadNoob451 Год назад

      @@retakleksum111 Ich wäre mir da nicht so sicher, das hat man bei der 4080 auch gedacht.

  • @shercrox8650
    @shercrox8650 Год назад +12

    192bit, also eigl. eine 60er Karte. Und die Leute merken nicht, wie sie verarscht werden. Oh mann..

    • @antispackftw2675
      @antispackftw2675 Год назад +1

      So funktioniert das nicht. 36 MiB L2-Cache, krass - die kommt aus der Zukunft! Siehste? :)

    • @retakleksum111
      @retakleksum111 Год назад +1

      warum ist das so relevant? und in welchem buch steht das 70er 256 haben müssen? reicht halt für wqhd

    • @shercrox8650
      @shercrox8650 Год назад +1

      @@retakleksum111 Du lässt dich wohl gerne von Unternehmen verarschen, anders kann man die Frage nicht verstehen.

    • @retakleksum111
      @retakleksum111 Год назад

      @@shercrox8650 gib ne vernünftige antwort oder halt dein dummes maul.

    • @redknight2120
      @redknight2120 Год назад +3

      Wenns nur das wäre. Schlimmer ist eig dass die Leute sich mit sehr wenig vram abspeisen lassen, damit sie 2 jahre später wieder ne tolle karte kaufgen können, die dann grad wieder " genug" hat für den moment

  • @xXFe_LixXx
    @xXFe_LixXx Год назад +1

    Danke für den tollen Test! (:
    Ich weiß, das könnte man auch selbst ermitteln.
    Es wäre allerdings interessant, noch eine Übersicht von Preis/Effizienz zu haben, um einen noch detaillierteren/aussagekräftigeren Vergleich der Generationen zu bekommen. :3
    Schönes Wochenende

  • @nightcoreheaven5935
    @nightcoreheaven5935 Год назад

    echt starkes video mit vielen information ohne blabla für video in die länge ziehen

  • @lughor82
    @lughor82 Год назад +14

    Der UVP-Vergleich:
    2070: 519 €
    3070: 549 € und damit 6 % teurer bei 50 % mehr Leistung.
    4070: 659 € und damit 20 % teurer bei 30 % mehr Leistung vs der 3070.
    Wenn das so weiter geht, dann bringt Nvidia demnächst eine 5030 mit 3 GB VRAM und später eine 6020 mit 2 GB VRAM raus für jeweils knapp 300 €.
    Die 4070 ist sozusagen die eigentliche Ti, denn sowohl die 3070 Ti als auch die 4070 haben eine UVP von 599 $.
    Damit brechen nach unten die günstigeren Karten weg, bezahlbare Computer müssen ohne GPU der neusten Generation auskommen, teilweise werden mehr als 5 Jahre alte Modelle verbaut.

    • @technikfreak7705
      @technikfreak7705 Год назад +2

      Das wäre auch eine Erklärung dafür, warum die 4070 TI eigentlich ne 4080 sein sollte. Mit 10gb VRAM 😂

    • @DeadNoob451
      @DeadNoob451 Год назад

      @@technikfreak7705 Das wäre der König aller 1080p Karten. lol.

    • @technikfreak7705
      @technikfreak7705 Год назад

      @@DeadNoob451 perfekter Preis für Full HD xD

    • @brohvakiindova4452
      @brohvakiindova4452 Год назад

      Finde auch wichtig anzumerken, dass die UVP jetzt seit 2000er Karten im Grunde nicht mal Ansatzweise eingehalten wurde. 3070 für 550€ gibt es erst seit ca. diesem Jahr, mittlerweile auch drunter. War Quasi die gesamte "Laufzeit" der Generation mindesten 100€ über UVP. Zu Beginn sogar Monate bei über 800€.
      Der reale Preis ist zu Release für die 4070 demnach sogar wesentlich besser, als bei der 3070.
      Ich habe persönlich ca. ein 3/4 Jahr vor Release der 3070 eine 2070 für 400€ Neu gekauft.
      Man merkt, dass Nvidia auf den Trichter gekommen ist, dass die Leute es ja trotzdem kaufen. Jetzt sind die UVPs ein bisschen Richtung Scalper Preis gewandert, toll.

    • @bee_happy9969
      @bee_happy9969 8 месяцев назад

      Man braucht sich nur die 4060 ti angucken. 430-500€ für ne Full HD Karte ist ne absolute Frechheit! Die 16GB VRAM beim teureren Modell boxen da auch nichts raus meiner Meinung nach.

  • @H4ns_Vad3r
    @H4ns_Vad3r Год назад +19

    aus trotz werd ich mir ne 7900xt kaufen ^^ wenn die preise so bleiben -.-**
    wie immer super video!

    • @Defender90210
      @Defender90210 Год назад +9

      habe mir die Saphire 7900 XT Pulse geholt vor 3 Wochen und bin absolut zufrieden. Kann den wechseln von NVidia zu AMD zur zeit nur empfehlen 👌

    • @merrydoc1051
      @merrydoc1051 Год назад +1

      ​@@Defender90210 Bist mit den treibern und Software zufrieden? War die Umstellung groß?

    • @PrefoX
      @PrefoX Год назад

      die schafft 8fps in Cyberpunk Pathtracing, die Karte ist jetzt schon für die Zukünftigen Spiele veraltet.

    • @Defender90210
      @Defender90210 Год назад

      @@merrydoc1051 benutze die "AMD Software: Adrenalin Edition". Sie bietet sehr viele Möglichkeiten also musste ich mich erst 2-3 Tage durch alles durchlesen und durchprobieren. Da ich ansonsten relativ alte Komponenten besitze musste ich quasi alle Features ausschalten die standardmässig aktiviert sind. Dies hat die Performance bei mir verbessert. Ich spreche von bspw. AMD FreeSync (dazu ist ein entsprechender Bildschirm nötig, ich selbst habe einen "alten" 60HZ 4K) oder auch Anti-Lag und Enhanced Sync. Die haben bei mir nur zu laggs geführt. Muss man aber individuell nach System beurteilen denk ich mal.
      Habe dann mittels Tuning-Tool die Karte auf 1000mV undervolted und Power draw auf +15% gestellt (mit 3DMark getestet) und dadurch signifikante MHZ und FPS extra gekriegt.
      Man kann auf jeden Fall sehr viel rausholen wenn man sich einliest und ein bisschen rumprobiert^^ Zum Tuning von AMD gibt gute Videos unter anderem von JayzTwoCents (englisch).
      Die Kühlung meiner custom design Karte ist jedenfalls sehr gut. Übergangstemperatur in der Mitte der CPU bei max 70°C, der Rand ist etwas kühler bei 65°C. Die AMD Software zeigt diese Werte alle schön an.

  • @hanspeterried661
    @hanspeterried661 Год назад +6

    Danke dür den Preis am anfang des Videos ,spare ich mir die Zeit schon zum gucken .

  • @Mullemaus578
    @Mullemaus578 Год назад +1

    super erklärt, Danke

  • @V1nc3nt00
    @V1nc3nt00 Год назад +61

    Na dann habe ich mit der RX 6800 XT für 570€, vor zwei Monaten, keinen schlechten Deal gemacht 😅

    • @chimprod9026
      @chimprod9026 Год назад +4

      hab meine ende letzten Jahres 6800xt tuf für 539 geschossen prima Karte

    • @GlobalPlayerDE
      @GlobalPlayerDE Год назад +6

      Wenn Du aktuelle Titels spielst stimmt das, schielst Du eher auf zukünftige Games werden die RDNA-Karten enorm schlecht altern. Du wirst auf massig grafische Effekte verzichten müssen und einige Spiele werden nicht einmal mehr eine normale Lichtberechnung bieten, so dass selbst dynamische Lichter wegfallen und Du mit statischen Lichtern leben musst. Willkommen in 1999...:)

    • @soausf2438
      @soausf2438 Год назад

      Kack amd ging wieder mal zurück einfach nur Schlecht Bluescreens/ Treiber Probleme Hot Spott Probleme....dann lieber NV ohne Probleme

    • @DerBaerserker
      @DerBaerserker Год назад +21

      ​@@GlobalPlayerDE nvidia marketing wirkt einfach zu gut.

    • @Krut01337
      @Krut01337 Год назад +10

      @@GlobalPlayerDE werd mal realistisch. bist patch tracing überhaupt richtig markttauglich wird, vergehen noch locker 2-5 jahre. dieses Fanboy geschwaffel kann man sich ja gar neme geben... traurige entwicklung.

  • @Crash-oc9dh
    @Crash-oc9dh Год назад +1

    Erst mal, vielen Dank für die Videos auf euren Kanal. Sehr informativ und gut gestaltet! An dich Raff, ich schaue gern Videos in denen du die Themen erklärst. Du kommst einfach voll sympathisch rüber. Einfach ein Typ-Mensch mit dem ich gern mal nen Bierchen trinken würde.
    #FragPCGH mich würde mal generell interessieren welche Leistungsverluste ich bei aktuellen Grafikkarten habe wenn ich sie als Upgrade auf mein vorhandenes System mit leider nur einer PCI-e 3.0 Schnittstelle verwende??
    Mainboard Gigabyte B450 Aorus Pro.
    Würde mich freuen wenn ihr in einen eurer nächsten Videos darauf eingehen würdest.
    Macht weiter so und viele Grüße

  • @Maasl85
    @Maasl85 Год назад +10

    659 Euro für die Mittelklasse. Ich glaube, ich behalte meine 6700xt noch bis zur nächsten Generation.

    • @chrisrichter968
      @chrisrichter968 Год назад +2

      die 6700er ist doch super. ich habe den vorgänger (5700er) und bin nach wie vor zufrieden mit der leistung. gibt immer was besseres und schnelleres. high details zocken braucht nicht so viel leistung. ich spiele auf qhd und da kommt man mit den alten generationen noch gut aus.

  • @Artstye4you
    @Artstye4you Год назад

    Respekt für den Aufwand

  • @mbelle2055
    @mbelle2055 Год назад +3

    Danke, PCGH! Das ist eine insgesamt effiziente Grafikkarte, die leicht zu teuer ist. Die bietet eine gute Leistung bei viel geringeren Verbräuchen gegenüber einer 3080 oder 6800 XT (ohne Hand anzulegen).

  • @Alex-jg3yv
    @Alex-jg3yv Год назад +5

    Das beste Fachmagazin für Hardware auf der ganzen Welt.

  • @der47erpcbauundmehr
    @der47erpcbauundmehr Год назад +2

    Danke wie immer sehr Informativ!😀

  • @isithschmeling7528
    @isithschmeling7528 Год назад

    Kommt die Karte auch mit dem Spiel Satisfactory Update 8 klar , suche ja ne neue Karte für das spiel meine Strix 1070 OC schafft das nicht mehr?
    Gruß Isith

  • @Serandi
    @Serandi Год назад +12

    Ah danke! Weiß bescheid! also für'n🗑 😂🎉

  • @andred.2335
    @andred.2335 Год назад +25

    Zum Thema 4070 oder 6800XT: Habt ihr geprüft, wie stark sich die 4070 undervolten lässt? Bei einer 6800XT ist zumindest einiges drin, sie lässt sich auch um die 200W Vollast bei gleicher Performance betreiben. Ich persönlich halte die 16GB für wichtiger als DLSS(3) und Raytracing, gerade weil der Einsatz von Raytracing ja eine Karte mit nur 12GB spürbare ins Schwitzen bringen kann. Ein Paradoxon, oder? ;)

    • @weirddylan7721
      @weirddylan7721 Год назад +2

      Ja dieser Punkt wurde ausgelassen leider. Da Raytracing mitlerweile auch bis zu 2GB mehr VRAM speicher auf 4k und 1,2GB auf 1440p benutzt, und die spiele werden ab jetzt nicht VRAM freundlicher sondern das komplette gegenteil.

    • @gucky4717
      @gucky4717 Год назад +5

      Ein anderer RUclipsr hat dies angetestet. Bis ca 60-70% PT verliert man kaum FPS, wie die 4090. Erst danach verliert man etwas mehr. Die Karte würde also noch über 90% Leistung bringen bei knapp unter 140W. Der Sweetspot wäre 60% PT mit max 120W und ca 85% Leistung.

    • @DonicMusik
      @DonicMusik Год назад +3

      12gb reichen vollkommen für Full HD und WQHD.
      Bei 4k wird es je nach Spiel knapp, aber für 4k sind sowohl die 4070 als auch die 6800 XT sowieso zu schwach, wenn man anständige Frameraten möchte.

    • @technikfreak7705
      @technikfreak7705 Год назад +4

      @@DonicMusik Aktuell reichen die NOCH. Aber je nach dem, für wie lange man seine Karte plant, eben nicht. Wenn man zum Beispiel die nächste Generation überspringen will, würde ich keine 12gb Karte mehr kaufen.

    • @PrefoX
      @PrefoX Год назад +3

      mit einer 4070 spielt man doch maximal 1440p, da reicht der VRAM. Natürlich kannst du nicht alles voll aufdrehen, dafür sind ja die teureren Karten... Alles wollen mit den "billigsten" Produkten ist halt dämlich.

  • @svenosaurustyran4866
    @svenosaurustyran4866 Год назад +7

    Hmm solange Nvidia mit den Arbeitsspeicher geizt....bleib ich bei AMD, und beim Nativen Zocken und Ohne Raytracing.

    • @svenosaurustyran4866
      @svenosaurustyran4866 Год назад +2

      @Species3472 sehe ich auch so 16GB weniger nicht.

    • @svenosaurustyran4866
      @svenosaurustyran4866 Год назад +1

      Vom Preis her bist glaub sogar mit der RX6950XT besser dran ^^.Strom hin oder her

  • @Serandi
    @Serandi Год назад +30

    Für nicht mehr als 500€ vertretbar aber da würde ich defintiv eine RX 6900 XT oder noch eher die RX 7900 XT holen für 600-700€🎉

    • @babastyle8938
      @babastyle8938 Год назад +3

      Nur das du ne 7900Xt sicher nicht für 700 Euro bekommst eher 800 - 1000 je nach Model.

    • @Serandi
      @Serandi Год назад +2

      @@babastyle8938 bei Kleinanzeigen ab 600€ 🤫
      Hatte letztes Jahr vor dem Sommer eine RX 6700 XT für 400€ neu bekommen und die hat erst so viel Ende des Jahres gekostet.

    • @babastyle8938
      @babastyle8938 Год назад +9

      @@Serandi Ja klar wir vergleichen jetzt gebrauchte Karten mit neuen.......

    • @cheshirecaTyt
      @cheshirecaTyt Год назад +4

      Meine Merc 310 7900XT hat mich vor einem Monat 950€ gekostet. Bis wir bei 600-700€ ankommen, wirds dauern.

    • @DonicMusik
      @DonicMusik Год назад +1

      ​@@Serandi
      Jo genau. Gute Idee sich bei Kleinanzeigen ne gebrauchte Grafikkarte zu holen, so völlig ohne jegliche Gewährleistung falls was ist.

  • @Sierraone1
    @Sierraone1 Год назад +5

    16gb VRAM und es wäre ne tolle Karte geworden, aber das ist nicht mit Nvidias Prinzipien vereinbar.

    • @GlobalPlayerDE
      @GlobalPlayerDE Год назад

      Es ist technisch nicht so ohne weiteres drin, man kann schließlich keinen VRAM mit UHU befestigen.😉

    • @derschnuff8819
      @derschnuff8819 Год назад

      @@GlobalPlayerDE Die Technik überlassen wir mal Nvidia - die Kunden sind fürs Bezahlen zuständig. Immerhin hat Nvidia das Ding so designt, das es mit 12GB Ram rauskommt - wie geplant und wie die 70ti. Die haben die Karte nicht entwickelt und dann im Nachinein gesagt "Boa fuck...eigentlich wollten wir 16-20GB draufmachen... aber das geht ja so garnicht. So ein Mist."

  • @felixw.8282
    @felixw.8282 Год назад +16

    Süße Größe im Vergleich zu den anderen Backsteinen :D

  • @kjertan3202
    @kjertan3202 Год назад +2

    Ich sehe die Argumentation bezüglich der Preise in der Vergangenheit ziemlich verzerrt. In den USA, wie auch in der EU haben wir eine deutliche Inflation zu 2016 z. B. als die 1070 500 € gekostet hat. Jeder, der erwartet, dass die ..70er Karten von nVidia immer für 500€ über die Theke gehen, muss sich mal mit der Notenbankpolitik auseinandersetzen.

  • @reinholdm.1050
    @reinholdm.1050 Год назад +3

    Sehr schöner Beitrag. Hat Spaß gemacht :) …Danke dafür!

  • @drupiROM
    @drupiROM Год назад

    5:25 what is "Nurgleay" ? It is not one of the included benchmarks, is it a quest, a map or something custom ? Thanks!

    • @PCGH_English
      @PCGH_English Год назад +1

      That's our replay used for GPU benchmarks: ruclips.net/video/4fvdPUoxVvw/видео.html :)

    • @drupiROM
      @drupiROM Год назад

      @@PCGH_English Oh, ok then, thank you for your answer.

  • @zwieback1988
    @zwieback1988 Год назад +3

    Tolle Arbeit! Finde auch den Überblick mit den älteren Karten super!

  • @Meuchlor
    @Meuchlor Год назад +1

    Spiele selbst auf UWQHD und mir fällt es sehr schwer mich zwischen der 4070 und der 7900xt zu entscheiden 😀geht es jemand ähnlich?

  • @backfischritter
    @backfischritter Год назад +1

    Grafikkarten sind sehr komplex geworden. Die Ansätze von AMD und Nvidia gehen immer weiter auseinander, deswegn habt dir da einen guten Job mit eurem Review gemacht.

  • @midiez1034
    @midiez1034 Год назад

    Erstmal danke für den Test. Was mich jedoch verwirrt ist die Gewichtung von Raytracing hier im Test. Ich bin bisher davon ausgegangen das das ein Addon für richtig schöne spiegelnde Oberflächen ist. Also vonwegen Grundperformance (Raster) plus dazu spiegelnde Oberflächen (Ray). Dieser Test hatt bei mir implizit den Eindruck erweckt das man sich quasie zwischen Raster und Raytracing entscheden kann und sie somit gleichwichtig sind. weiss hier einer mehr dazu?

  • @m42mininuke45
    @m42mininuke45 Год назад

    Ich habe in meinem PC eine 3060 Ti, kann ich da einfach eine 4070 einbauen? Beide haben doch 200 Watt als Limit?

  • @tazzz001
    @tazzz001 Год назад +8

    Die 3060 12 GB war damals ne richtig gute Kaufentscheidung. Beste Karte wenn man auf rt weitesgehend verzichten kann.

    • @pasimo1399
      @pasimo1399 Год назад +1

      Aber auch deutlich langsamer als andere.
      Kommt halt auf die Ansprüche an.

    • @bee_happy9969
      @bee_happy9969 8 месяцев назад

      Kommt drauf an wie viel man dafür bezahlt hat, ehemaliger Kumpel von mir hat für seine letztes Jahr 600€ geblecht 😂

  • @CrampHG
    @CrampHG Год назад +2

    Danke für diesen riesen Aufwand und die gute Zusammenfassung im Video! Muss aber sagen, der Schnitt vom Video (in der ersten Hälfte) war mir bisschen wild, da gab es zu viel cuts, aber vielleicht höre ich Raff auch nur gern reden :)

    • @RetroScorp
      @RetroScorp Год назад

      Manchmal wär mir langsameres Sprechen noch lieber. In manchen Takes versteht man nur zweimal die Hälfte, weil er spricht als hätte man die Abspielgeschwindigkeit auf 1,5 oder gar 2x

  • @maxo8118
    @maxo8118 Год назад +5

    echt peinlich was nvidia da für den preis anbietet

  • @magictimm4090
    @magictimm4090 Год назад

    danke !

  • @shellpierre
    @shellpierre Год назад +2

    Ich bin Anwender der 1 Generation und seit 1987 dabei (C64) . Seit 1996 und NvidiaRiva128 oder Voodoo1 sind Games krass schöner geworden und ich nutze meist Nvidia oder auch mal ATI (heute AMD) . Die Karten hatten von Generation zu Generation beinahe verdoppelte FPS und es gab immer starke neue Features. Früher war der Unterschied gravierend. Die Röhrenmonitore waren meist bei 60-75Hz begrenzt. Also reichten auch 40-60FPS mit V-Sync völlig aus. Seit der 1070/2070/3070/4070 habe ich aber nun den Eindruck, dass man, bis auf wenige neue Features, nur noch versucht, grafisch die höheren Auflösung zu bewältigen. Spielte ich mit der GTX -1070ti kürzlich unter 1080p in allen Games flüssig , so ist mit der RTX-3070 das gleiche Potential eben bei 1440p möglich. OK , Raytracing ist als ein neues Feature dazugekommen aber bringt in Shootern optisch fast nichts und DLSS-2 macht paar FPS mehr, es treten aber wieder andere grafisch unschöne Effekte auf. Ich habe seit Kurzem nun die 4070ti verbaut und spiele hier, ohne Dlss3 (!) in allen Games unter 1440p flüssig. Battlefield-5 bei ca. 100FPS oder Battlefield 2042 bei 140FPS. Mein 32" 2K-Moni kann G-Sync und ist bei 170Hz am Ende. Die 1070ti kostete 485€ , die RTX 3070 ca. 685€ und die 4070Ti 899€. Es sind preislich mittlerweile schon sehr dicke Bretter. Es ist mir einfach die Mehrleistung nicht mehr wert, noch höhere Preise zu bezahlen. Ich könnte zwar auch mit der 4070Ti gut unter 4K ( inkl.Dlss3) spielen, aber dann muss ja auch ein neuer Moni her. Ich weiß, es reizt die schnelle Technik. Aber die optischen Effekte sind seit der RTX 20xx nicht wirklich besser. Raytracing wird meiner Meinung nach etwas überbewertet und Dlss3 ist ein "Notgroschen", wenns anfängt zu ruckeln.

    • @ImperialDiecast
      @ImperialDiecast 11 месяцев назад

      man kann auch ohne neuen monitor auf höhere auflösungen spielen, über DSR bzw DLDSR

  • @chimprod9026
    @chimprod9026 Год назад +6

    Das sollte eine 399Euro Karte sein dann kauf ich mir lieber eine rx 6750 xt für 400 und reduziere ein wenig die Details oder gleicvh für den Preis eine Rx 6900 xt mit mehr Vram...bissl undervolting macht die karte auch relativ sparsam

    • @pasimo1399
      @pasimo1399 Год назад

      399 ist halrlt Quatsch.
      Das ist bissl frecher Gedanke.
      Man muss es auch nicht übertreiben.

    • @DeadNoob451
      @DeadNoob451 Год назад

      @@pasimo1399 Eigentlich nicht. Die 4070 ist eine 4060 mit anderem Namen. Da ist 400 schon okay.

    • @pasimo1399
      @pasimo1399 Год назад

      @@DeadNoob451 warum eine 4060?
      Wie kommt man darauf

    • @DeadNoob451
      @DeadNoob451 Год назад +1

      @@pasimo1399 Die Technischen Daten und Performance.
      Der 192bit Memory Bus.
      Alle x70 Karten hatten bis jetzt 256 bit.
      Die Anzahl der GPU-Kerne war sonst bei den x70 Karten immer 50% der Kerne der größten GPU. (bei der 3070 sogar 55%)
      Jetzt sind es *35%* .
      Dadurch ist sie langsamer als die x80 der vorherigen Generation.
      Alle x70 Karten waren bis jetzt schneller als die alten x80.
      Das ist alles Standard für die x60 Karten.
      Kann man auch so auf Wikipedia nachlesen und selber ausrechnen.
      Nvidia kann da auch 40100 draufschreiben. Ist trotzdem 4060 Hardware drinne.
      (Was man auch am Stromverbrauch merkt.)
      Und das für 650€.

    • @pasimo1399
      @pasimo1399 Год назад

      @@DeadNoob451 Ist es nicht, denn die 60er haben auch nie pauschal 80er Kartenleistung erreicht.
      Das Interface sagt auch nichts darüber aus, nur weil andere Generstionen das hatten.
      Das die 70 was beschnitten wurde was nicht hätte sein sollen ist klar, aber das ist dafür nicht direkt relevant.
      Bei 500/550€ wäre das zb. anders.

  • @christophh.1116
    @christophh.1116 Год назад +11

    Macht ihr zu der VRAM Problematik noch ein Video oder einen Artikel, denn wenn die 12GB bei der 4070 schon nur ausreichend, wird er bei der 4070TI doch knapp. Ich bekomme da schon Flashbacks zur 970 mit ihren 3,5(4)GB VRAM

    • @Strongholdex
      @Strongholdex Год назад +1

      Absolut. In 1440p sind 12 Gigabyte das absolute Minumum.
      10 Gigabyte hatte der Maxwell Titan 2014/15. 2 Gigabyte mehr nach 9 Jahren zu 2/3 des Preises ist absolut nicht beeindruckend.

    • @DonicMusik
      @DonicMusik Год назад +1

      @@Strongholdex
      Was für ein Geschwätz.
      Habe die 1080ti mit 11gb VRAM, zocke in 1440p und bisher hatte ich in keinem einzigen Spiel irgendwelches Stuttering oder andere Symptome die auf zu wenig VRAM zurückzuführen wären. Läuft alles so wie´s soll.
      12gb VRAM das Minimum für 1440p. Ja ne, ist klar.

    • @Strongholdex
      @Strongholdex Год назад +2

      @@DonicMusik 14.5 gb Vram bei resident evil 4. Manche von uns wollen in der Lage sein gute 4 Jahre aus einer Karte rauszuholen und das ist nicht drin. Auch nicht unbedingt mit der 4080. In 4k braucht resident evil 4 sogar 17.5 GB VRAM. Deine 11 Gigabyte waren 2017! Jetzt sind 6 Jahre vorbei. Man kann mehr als 12 Gigabyte erwarten.
      Das Geschwätz dass VRAM ausreicht kenne ich weil ich selber eine gtx 960 hatte, die gute Reviews erhielt aber schon nach wenigen Monaten in neuen Spielen versagte, wegen VRAM. Den Fehler mache ich nie mehr wieder.

    • @DonicMusik
      @DonicMusik Год назад

      @@Strongholdex
      Ich spiele aktuell Resident Evil 4 in 1440p und fast Max Settings mit meiner 1080ti und das flüssig ohne Stuttering oder dergleichen mit 60 - 80 FPS.
      Na klar nimmt sich das Spiel mehr VRAM, wenn mehr VRAM vorhanden ist.
      Das heißt aber nicht, dass das Spiel dann mit weniger VRAM nicht mehr spielbar ist oder es zwingend zu irgendwelchen Komplikationen kommt.
      Ist doch das selbe wie beim RAM.
      16gb RAM reichen noch für 99,99% aller Spiele.
      Wenn man allerdings 32gb RAM hat, dann nehmen sich manche Spiele auch gerne mal 20gb oder mehr.

    • @Skydreamer1331
      @Skydreamer1331 Год назад

      @@Strongholdex Absoluter Schwachsinn eine solche Aussage zu tätigen und schlechte Ports von Spielen als Beispiele zu nehmen. Dazu kommt bei RE4, dass die VRAM anzeige im Menü schon im 3. Teil verbuggt ist. Hättest du dich tatsächlich informiert dann wüsstest du, dass RE4 in 1440p was die Target Auflösung der 4070 ist, auf maximalen Einstellungen einen VRAM verbrauch von 6.9gb hat und mit 100fps average auf der 3070 läuft eine 8gb Karte. Die ganzen crashes die Leute mit 8 - 12 gb Karten hatten sind zurückzuführen über einen bug der entsteht wenn man raytracing anstellt, der Überraschung auch schon im 3. Teil existiert hat :D . Das grenzt ja an fear mongering was hier betrieben wird.

  • @Eldanirito
    @Eldanirito 10 месяцев назад

    Ich freu mich auf November wenn Weihnachtsgeld kommt :D In meinen Setup schlummert noch eine 1080ti, das upgrade wird scheppern. Vllt gibts sogar wieder die ti variante

  • @weeKael
    @weeKael Год назад +4

    Bin ich der einzige der den 43 Kartenvergleich im Artikel nicht findet? Oder ist das so ein Bezahlinhalt im Artikel und ich sehe ihn deswegen nicht?

    • @mimu9599
      @mimu9599 Год назад

      Ich auch nicht

    • @antispackftw2675
      @antispackftw2675 Год назад

      Ist ein Extra-Artikel, der erst vorhin bei PCGH live ging. Ich kann hier leider nix verlinken, daher schaut mal selbst. :)

  • @Aristoteles2JZ4life
    @Aristoteles2JZ4life Год назад +1

    Sieht richtig niedlich aus in deinen Händen wenn man aktuelle 4070ti plus Karten sieht 😅

  • @mapstar
    @mapstar Год назад +1

    Perfekt! bin von einer 1080 auf die 4070 geupdatet :) einfach mega und musste kein neues netzteil kaufen 600 watt :)

    • @bee_happy9969
      @bee_happy9969 8 месяцев назад

      Hab auch ein 600 Watt Netzteil, wollte eigentlich auf die 6800 XT oder 7700 XT aber die fressen leider viel zu viel Strom und sind zu groß für mein Case.
      Biste mit der 4070 nach wie vor zufrieden und zockst du auf WQHD oder Full HD?

    • @mapstar
      @mapstar 8 месяцев назад

      1080P würde mir die 4070 auch Definitiv nicht für WQHD kaufen da sollte es schon die 4070ti sein aber eher die 4080. @@bee_happy9969

  • @kallegossler1721
    @kallegossler1721 Год назад +2

    Wenn ich bei Ebay die 1080 ti sehe für 300 - 500 Euronen. Da ist doch jede Diskussion über Preise totaler Wahnsinn. Klar, die neuen Karten sind zu teuer. Aber warum kosten die alten Dinger noch so viel? Sind alle Benchmarks gefakt? Quatsch, es hat sich in der Entwicklung wirklich was getan. Ergo, sind die neuen Grakas zu billig? Dann habe ich zu wenig Geld. Irgendwas stimmt nicht🤷🏻‍♂️

    • @DeadNoob451
      @DeadNoob451 Год назад +1

      Ebay ist für Grakas (zumindest momentan) Mist. Auf Ebay Kleinanzeigen geht das deutlich besser.
      Für 500 sollte man da mindestens eine 3070ti bekommen. Mit ein bísschen warten könnte sogar eine 3080 10gb drinnen sein.

  • @TheTaurus104
    @TheTaurus104 Год назад +4

    Zu dem Preis mit nur dieser knappen 3080er Leistung und dem Minimum an Vram und dem widereinmal zu kleinen Speicherinterface absolut keine Kaufempfehlung. Wer auf Raytraycing und DLSS 3.0 FG verzichten kann ist mit RX6000 immer noch mehr als gut bedient, die RX6800XT ist in Rasterisierung, mit mehr Vram und größerem Interface gleich schnell aber man bekommt sie bereits für 100 Euro weniger. Ansonsten wartet man halt auf AMDs Antwort in Form von 7700/7800. Und FSR 3.0 mit Fluid Motion Frame und Motion Vector sind für RX6000 nicht vom Tisch. Alles in allem eher enttäuschend.

    • @DonicMusik
      @DonicMusik Год назад +1

      Das Ding ist halt, dass die 4070 bei weitem zukunftssicherer ist als die 6800XT, eben wegen DLSS / Frame Generation, die je nach Spiel einfach mal fast die FPS verdoppeln. Somit kommt man damit viel später an den Zeitpunkt an dem man wieder wegen zu wenig FPS upgradet.
      Ja, die 6800 XT ist 100€ günstiger. Wenn man aber bedenkt, dass man die 4070 dann locker 1 - 2 Jahre länger mit akzeptablen FPS nutzen kann, dann zahlt man doch lieber 100€ mehr. Außer man gehört zu der Fraktion, die alle 2 - 4 Jahre ihre Grafikkarte upgraden.

    • @dukenukem9781
      @dukenukem9781 Год назад +2

      @@DonicMusik Wird aber am Vram rippen.

  • @TheBloodydona
    @TheBloodydona Год назад +4

    NVIDIA muss Geld verdienen, aber NVIDIA sollte mal aufwachen und realisieren das man für die kleine Mittelklasse GPU mehr ausgeben muss als für eine xBox Series X oder eine PS5 - und beide Konsolen nutzen die Chips von AMD... und selbst ich als PC Liebhaber und Konsolenverweigerer seit meiner Kindheit wird bei den aktuellen Preisen schwach und tendiert zu einer blöden Konsole... Spoiler: Klar muss NVIDIA Geld verdienen, aber wenn die Preise unverhältnismäßig sind, dann greift man zu anderen Dingen und NVIDIA verdient gar kein Geld!
    Und man darf halt auch nicht vergessen das NVIDIA trotz der Preise beim Speicher viel zu Sparsam ist! Auch da bin ich mit einer Konsole besser bedient...

    • @makunouchiippo816
      @makunouchiippo816 9 месяцев назад

      nVidia ist Marktführer, die müssen kein Geld verdienen weil sie mehr als genug davon haben. AMD ist es, die quasi in den letzten Monaten keinen Umsatz gemacht haben.

  • @kerbholzgt
    @kerbholzgt Год назад +3

    hab mir vor über einem jahr eine aorus master 6800xt für 650€ geschossen - erkenntnis aus dem raffazit: alles richtig gemacht ;P

  • @ultramoxx1148
    @ultramoxx1148 Год назад

    Irgendwie stört mich beim Ton das Hintergrundrauschen in diesem Video sehr :/

  • @torsten4558
    @torsten4558 Год назад +2

    Tja, insgesamt schon interessant aber leider ca. 100 Euro zu teuer für mich. Also erstmal abwarten was AMD dagegen stellt im Herbst. Vielleicht gibt es dann sogar eine 4070 Super Anfang nächsten Jahres, die dann sogar die 3080ti schlägt.
    Blöderweise brauch ich eine Karte im kompakten Format. Die RX6800 und aufwärts sind leider alle etwas zu groß (und zu durstig).

  • @notalent7369
    @notalent7369 Год назад

    Welche Grafikkarte und Prozessor würdet ihr euch bei einem Budget von 2000 Euro holen?

  • @Hexenkind1
    @Hexenkind1 Год назад +1

    #FragPCGH Wie sinnvoll ist es überhaupt sich neue Grafikkarten (vor allem im High End Bereich) zu kaufen, wenn diese selbst in 4k mit den besten CPUs ein Bottleneck haben? Und wird sich dieser Unterschied je auflösen?

    • @makunouchiippo816
      @makunouchiippo816 9 месяцев назад +1

      Besser ein GPU Bottleneck als ein CPU Bottleneck. So schlimm wie das Internet versucht einem das einzureden ist das alles nicht.

  • @TheMmex
    @TheMmex Год назад +4

    Der drittgrösste Chip? Also ein x60 als x70 betitelt und als x80 bepreist. Läuft Huang

  • @steve00331
    @steve00331 Год назад +1

    Nvidia RTX 4070 Ti, Ti , Ti ich bin etwas verwirrt. Es geht doch um die RTX 4070. Bei den vielen Zeichen, Balken und Text kann man schonmal ... Ti, Ti, Ti na ihr wisst schon. Trotzdem sehr guter Content.

  • @CrYsTaLySeR
    @CrYsTaLySeR Год назад +2

    👍🏾👍🏾👍🏾👍🏾

  • @Raknarus
    @Raknarus Год назад +8

    Die Preise sind schon undiskutabel. Hätte Nvidia jede Karte bis 4080 bis mit +4GB RAM ausgestattet, wäre es wenigstens vertretbar. So nicht empfehlenswert
    @RAFF du nennst ja beim Anfangsvergleich fast jede Karte falsch😂

    • @PrefoX
      @PrefoX Год назад +3

      Das geht ja technisch schon gar nicht, du forderst Sachen wovon du gar keinen Plan hast... bisshen dümmlich.

    • @Raknarus
      @Raknarus Год назад +2

      @@PrefoX 😂 klar geht das wenn man an der Architektur und das Interface überarbeitet. Ist halt nicht so gewollt, damit die 4070er Käufer nach zwei Jahren in den Speichermangel rennen und neu kaufen. Alternative hätte man die Preise um 100-150€ niedriger ansetzen müssen.

    • @tom_braider96
      @tom_braider96 Год назад +1

      🤡

    • @GlobalPlayerDE
      @GlobalPlayerDE Год назад

      @@Raknarus Man hätte den Chip und das Interface aufbohren müssen und effektiv bei einer 4070Ti eine 4080 erzeugt, bei einer 4080 eine 4080Ti eliminiert, bei der 4090 wäre es kompletter Blödsinn gewesen. Man kann VRAM nicht einfach ankleben. Man muss da schon die Verbindungen mit BUS und Chip und die Auswirkungen bei der Vergrößerung berücksichtigen.

    • @Raknarus
      @Raknarus Год назад

      @@GlobalPlayerDE das ist mir schon klar. Man hätte die Karten von Anfang an anders konzipieren können oder eben sie preislich attraktiver gestalten. Es hat sich nunmal gezeigt das Nvidias Speicherknauserei seit GTX 1000 jetzt zur Buche schlägt. Toll das die 3000er schnellen Speicher hat, nützt aber auch nix wenn er mit 8gb bei ner 3070 jetzt ausgeht, auch ne 3080 kackt mit 10 bei RTX ab.
      Plötzlich konstruieren sie ne 3060 mit 12 nur um bei ner 4060 wieder bei 8 anzusetzen.
      Man wollte die 4070ti als 4080 verkaufen. Man fühlt sich schon hart verarscht als Kunde. AMD zeigt zumindest in Sachen VRAM seit mehreren Gen wie es richtig geht.
      Ich sage nur das man mit den Preisen besser hätte leben können wenn ne 4060 mit 12, 4070/ti mit 16 / und ne 4080 mit 20 gebaut wurden wäre. Oder eben das Portfolio preislich nach unten korrigieren.

  • @TrackmaniaKaiser
    @TrackmaniaKaiser Год назад +16

    Ich finde hier fehlt eine Kaufwarnung!
    Klar wird der Vergleich zur 6800XT gezogen. Aber was man doch immer wieder vergisst ist, dass die Karte 30 Monaten alt ist. Die 4070 bietet also fast die Leistung einer 6800XT! Klar ist die Effizienz super. Aber der einzige Kaufgrund für eine 4070 ist: mittelmäßige, übermorgen bereits obsolte raytracing Performance.
    Denn machen wir uns nichts vor, rayracing ist hier um zu bleiben und das Ziel ist das volle Raytracing wie wir es jetzt in CyberPunk 2077 sehen und da macht sogar selbst eine 4090 schlapp!

    • @mimu9599
      @mimu9599 Год назад

      Mit DLSS3 sowatt von nicht obsolet....wasn BS

    • @Strongholdex
      @Strongholdex Год назад +6

      Cyberpunk 2077 ist für die Hardware von 2077 gemacht.

    • @Sierraone1
      @Sierraone1 Год назад +3

      Naja Raytracing ist und bleibt vorerst High End Luxus, sich ne Mittel/Oberklasse Karte für RT zukaufen, bleibt immer noch schwachsinn.

    • @mimu9599
      @mimu9599 Год назад +1

      @@Sierraone1 häh....test dir angeschaut........mit NVIDIA Technik DLSS&Co ohne grosse CPU absolut kein Ding.......Mittelklasse......Kannst froh sein das Evolutionsbremse AMD nur marginale Marktanteile hat. Gern geschehen

    • @Strongholdex
      @Strongholdex Год назад +4

      @@mimu9599 Raytracing braucht aber vram, wobei nvidia nur mit der 4090 bei vram mit AMD mithält.
      Ohne ausreichend vram hat AMD sogar in Raytracing die Nase vorn

  • @mariokugler4608
    @mariokugler4608 Год назад +4

    mit 16 gb und einer uvp von unter 600€ hätte ich mir die warscheinlich gekauft aber der juni kommt (rx 7800xt usw.)ich bin eigentlich ein nvidia fan meine letzten grafikkarten(8800gt,gtx470,gtx770,gtx1070) aber irgendwann ist es vorbei

    • @masterluckyluke
      @masterluckyluke Год назад +2

      Ja, das wär ne geniale Kombo gewesen. Hatte ja sehr gehofft, dass ne 16GB Version kommt, wegen diesem Gigabyte Leak. Die dann für 550-600 Euro, das wäre ein Top Deal geworden.

    • @dukenukem9781
      @dukenukem9781 Год назад +1

      @@masterluckyluke Mag dich irgendwie. Stimme dir in allen Punkten zu.

  • @SpiDey1500
    @SpiDey1500 Год назад

    Ich mag mich ja täuschen, aber wird durch Lumen (UE5) die RT Leistung nicht an Relevanz eher verlieren?

    • @antispackftw2675
      @antispackftw2675 Год назад

      Wieso? Das kann ja auch Hardware-beschleunigt werden.

  • @Evermore360
    @Evermore360 Год назад +1

    Naja. Ziemlich lahm. Die Radeon RX 6950 XT gib’s momentan auch für 650 Euro bei Mindfactory und die Karte zieht die 4070 ordentlich ab und hat dazu 4GB mehr VRAM.
    Eigentlich bleibe nur DLSS 3.0 als großes Argument aber dieses Jahr soll ja auch endlich FSR 3.0 kommen.

  • @templetonpeck1080
    @templetonpeck1080 Год назад +21

    659 Euro für 12GB Speicher, damit man sich nächstes Jahr wieder ne neue Karte holen kann. Ganz sicher nicht Nvidia, einmal nen Fehlkauf mit der 3060Ti gemacht, passiert mir nicht wieder (siehe Hogwarts, Last of us etc.) Mag sein das 12GB etwas länger halten. Aber es ist schon übel, dass ne 3060 12GB bessere Frametimes in Last of us hat als ne Ti. Das zeigt ja das der Speicher nicht richtig zum Chip dimensioniert wurde, und meine Befürchtung ist, dass dies auch auf die 4070 zutrifft. Bei der 4070ti ist es auf alle Fälle zu wenig, gemessen an der starken Leistung des Chip´s

    • @Suctess
      @Suctess Год назад +2

      Das ist immer so bei Nvidia, mit jeder Generation ein Aufrüst“anreiz“.

    • @groorg3430
      @groorg3430 Год назад +4

      genau in diese scheiß preisfalle bin ich auch getappt
      willst du grafikspeicher bei nvidia haben musst du ordentlich geld ausgeben. Ich hab zur 4080 gegriffen, weil mir 12gb zu wenig sind für meine Spiele
      AMD ging leider nicht obwohl ich gerne eine gehabt hätte (hab ich getestet, das gejammer erspar ich euch)
      Das machen sie absichtlich bei Nvidia. Leistungsmäßig hätte mir ne 4070ti genügt.
      Ich finde ja auch die 16gb von einer 4080 ne Frechheit. 20gb hättens schon sein dürfen für 1400€
      was tut man nicht alles für sein hobby

    • @Strongholdex
      @Strongholdex Год назад

      @@groorg3430 Warum keine 7900xtx ? Warum ging es nicht?

    • @groorg3430
      @groorg3430 Год назад +1

      @@Strongholdex hatte mit meiner 6750 aus dem alten System im neuen Computer im Minutentakt Treiber Timeouts, wo sich der PC teilweise für mehrere Minuten aufgehängt hat.
      Ich hab dann recherchiert, paar Sachen probiert, hat aber alles nix geholfen.
      Dann hab ich die Geduld verloren, da der alte PC kaum mehr nutzbar war, und mir wiedermal eine Nvidia Karte gekauft

    • @Strongholdex
      @Strongholdex Год назад +1

      @@groorg3430 Oh wie schade ☹️.

  • @Squilliam-Fancyson
    @Squilliam-Fancyson Год назад +2

    Das in jeder Hinsicht bessere PC Welt.

  • @Joachim1401c
    @Joachim1401c Год назад +1

    Die einzigste 40er die für mich intressant ist ich denke in 3-4 Jahren kauf ich die mir

  • @Dragonheng
    @Dragonheng Год назад +4

    Das was ich mir an strom spar, muss ich dann in den Preis pump sehr sinnvoll...
    Und die 40serie schliesst ab den 70iger Karten noch nicht mal dort an wo die 30 serie aufhört.
    Damit bleibt es dabei diese jahr ist Hardware Technisch fast schon eine Entäuschung.
    Grafikkarten zu teuer wenn man dort weiter machen will wo die anderen aufhören und die grösse ja.. Männerding ne..
    Intel naja, Power brauch power ja aber intel übertreibt wenn die Chips mal ausgelaste werden.
    AMD Heiss bei diesgn mag zwar okay erst mal okay sein wenn es so gewolt ist aber der Einstieg ist nicht gerade billig.
    PCIe5.0 SSD big data wow aber das was man dann brauch so schlecht wie PCIe 4.0.
    Intel GPU´s vielleicht ein hoffungsschimmer an Horizont.
    Mag nicht jeder die selbe meinung haben.

    • @makunouchiippo816
      @makunouchiippo816 9 месяцев назад

      Ich denke mal niemand teilt deine Meinung. :D

  • @ChiefChief6868
    @ChiefChief6868 10 месяцев назад

    👍👍

  • @26DeislerFCB
    @26DeislerFCB Год назад +1

    200 W ist wahnsinn da lohnt sich auch bissl mehr bezahlen, lieber 1x mehr als 12x im monat mehr bei der stromrechnung^^

  • @Maxysch14
    @Maxysch14 Год назад +1

    Ich warte Mal noch auf AMD da 12 GB VRAM hat schon meine 3060 und in VR werden die auch schon oft benötigt. Daher wenn ich mehr Leistung hole dann auch mit mehr Puffer.

  • @0ssi170
    @0ssi170 Год назад +8

    Ohne Frame Generation wäre das ein Witz und alle 3080FE Besitzer die damals 699€ bezahlten, würden sich fragen wieso man nach 2,5 Jahren 659€ für die gleiche Leistung bezahlen muss !?

    • @BitZapple
      @BitZapple Год назад

      Naja, für 3080-Besitzer ist es eher gut, da sich der Wert der Karte vergleichsweise stark hält.

    • @elchbaer4017
      @elchbaer4017 Год назад

      Wenn AMD mit FSR 3 um die Ecke kommt ist diese Karte mehr als Müll...
      PCGH versucht mit aller Macht diese Karte schön zu reden. Warum nur?...

    • @masterluckyluke
      @masterluckyluke Год назад

      Vor der ganzen Marktzerstörung durch scalper und Miner war es üblich, dass die Preise schon nach einem Jahr so stark gesunken sind.^^

    • @zwieback1988
      @zwieback1988 Год назад

      @@elchbaer4017 tun sie nicht. Es wurde an zig Stellen offen kommuniziert. Aber die machen die Preise nicht sondern vergleichen die Leistung.

  • @AzumDzumHzumS
    @AzumDzumHzumS Год назад +2

    ihr müsst echt mal die rauschunterdrückung von euren mikros anmachen. ansonsten gutes video

  • @jelly8594
    @jelly8594 Год назад +3

    Was heißt hier "endlich günstig?“

  • @mariovorpahl2006
    @mariovorpahl2006 Год назад +4

    Danke für das super Video und auch den sehr aufwendigen Artikel! Die Karte ist genau die auf die meine aktuell 1070 gewartet hat und nun ersetzt wird.

    • @technikfreak7705
      @technikfreak7705 Год назад +3

      Meine 1070 hat auch gewartet und die 4070 ist genau die Karte, mit der ich meine 1070 nicht ersetzen werde. 😅

  • @Drizzt1948
    @Drizzt1948 Год назад +4

    Sehr detailierter und aussagekräftiger Test. Aber was ist mit denen die nur ein festes Budget haben (z.B. 300 - 500€), und einfach normal zocken wollen (es wird einem ja auch von den Herstellern, viel eingeredet, was man denn brauche)? Da sind doch wir beim altbekannten und leidigen Thema, findet der Markt auch mal wieder eine bessere Balance??? Zumindest gefühlt steigen die Preise für Mittelklasse deutlich mehr als früher, sehe ich das nur so? Nur mal ein kleines Beispiel, eine Fertig-Pizza die vor 2 Jahren 2,49€ gekostet hat, da wollen die jetzt 3,49€ und da reden "Die" von Inflation von 8 - 10%. Fakt ist das die "Aktien dotierten Großkonzerne" deutlich höhere Preisteigerung durchsetzen als kleinere Unternehmen, schließlich müssen die Aktionäre bedient werden. Mein Tipp an alle, genau Überlegen, was man wirklich braucht, für das was man zocken möchte die nächsten Jahre, sprich die GPU solange nutzen möchte. Leider wird es immer schwerer für den Verbraucher, den Markt zu durchschauen. Also mal eine interessante Frage an das tolle PCGH-Team: bestes Preis-Leistung-Verhältnis (Zukunfstorientiert), auf Nutzungsdauer (hoffe mich verständlich ausgedrückt zu haben)???

    • @Strongholdex
      @Strongholdex Год назад +2

      Dann rtx 4090. Die rtx 4090 hat das Potenzial die neue gtx 1080 ti zu werden.

    • @Drizzt1948
      @Drizzt1948 Год назад

      @@Strongholdex Das könnte so sein, wobei nach der Gerüchteküche es mit RTX 5000 auch anders kommen könnte. Ich habe eine RTX 4090 mittlerweile (Preise sind ja auch deutlich gefallen). Hatte auch eine GTX 1080 Ti, mit der konnte man locker die RTX 2000er überspringen, abgesehen von RTX und DLLS, die Leistung ist immer noch sehenswert (rein Rasterising, und bei bestimmten Games, die damals einfach enorm von 11GB VRAM profitiert haben, bei Modding und mehr als 1080p). VRAM-Mangel wurde auch oft bei RTX 2000/3000 bemängelt, scheint sich ja zu bessern bei NVidia..

    • @Strongholdex
      @Strongholdex Год назад

      @@Drizzt1948 Das könnte sein, ich könnte mir aber vorstellen, dass Nvidia 1999 Euro verlangt für die Karte.

    • @redknight2120
      @redknight2120 Год назад

      Du könntest dir seit 2 Jahren ne 6700xt oder 6750 xt holen. Hast ne 3070ti leistung zu etwa 400€ manchmal sogar günstiger... 12 GB speicher und für simples 1440p gamign total gut.

  • @masterluckyluke
    @masterluckyluke Год назад +2

    Hmmm... trotz Allem finde ich 659 für eine 70er Karte viel zu viel. Ich warte mal auf die nächste Intel Generation und dann schau ich mal. Vielleicht nehme ich eine 4070, wenn der Preis unter 550 fällt oder eben Intel, wenn die nächste Generation die Kinderkrankheiten der ersten Karten ausmerzt. Da meine 1060 6GB so langsam an ihre Grenzen gebracht wird, muss ich mich ja mal etwas umschauen. Aber der Markt ist dermaßen kapuutt, was die Preisgestaltung anbelangt. Und NVidia nervt mit ihrem Speichergeknausere.

    • @paulszki
      @paulszki Год назад +1

      Du scheinst grundlos so zu tun, als gäbe es keine AMD-Karten.

  • @UltraLord5850
    @UltraLord5850 Год назад +3

    1/3 der Transistoren der RTX 4090 und die Karte erhält die Endung XX70? Lächerlich! Die Bezeichnung 4050 Ti wäre an dieser Stelle passend. Und dafür möchte man über 600€ haben?

    • @pasimo1399
      @pasimo1399 Год назад

      Du wirst da aber niemals eine 50er Reihe sehen, auch bei Amd nicht, nur weil es nen drittel der Transistoren hat.
      So funktioniert da nicht so einfach.

  • @mr.electronx9036
    @mr.electronx9036 Год назад +1

    Ich freue mich scho auf rtx 5070 review ;-)
    Edit: sie ist für 599 euro verfügbar 😉

    • @makunouchiippo816
      @makunouchiippo816 9 месяцев назад

      Jetzt 5 Monate später immer noch für 599€ xD

  • @simplyyunak3189
    @simplyyunak3189 Год назад +1

    4070 wäre ne gute Karte wenn es sie für max 500€ gäbe mit 16GB VRAM

  • @jantube358
    @jantube358 Год назад

    Sehr guter und umfangreicher Bericht! Gefällt mir sogar mehr als der von LTT! 0:43 659 Euro? Das sind aktuell 723 US-Dollar. Da werben da mit 599 US-Dollar. Selbst mit 8% Sales Tax bleiben die unter 650 US-Dollar. Dieses Flow-Through-Design finde ich immer noch sehr gut. 27:37 In dem Leistungsindex fehlt mir noch die 2080 Ti 11 GB. 😁 Video Idee: Wie gut ist der Preis-Leistungs-Index der neuen 4070 im Vergleich zu gebrauchten Grafikkarten?

    • @BitZapple
      @BitZapple Год назад

      Zur Info:
      In Europa kommt auf Elektronik die Mehrwertsteuer, ist also Geld das an den Staat geht (nicht an Nvidia)
      Da die Steuern dann wiederum unterschiedlich sind, wird nur die "UVP" in den USA angegeben, in den USA wird das anders besteuert, da gibt es diese Steuer auf Elektronik in der Form gar nicht.

  • @MrCalimero85
    @MrCalimero85 Год назад

    Also ich würde es sehr sehr intersannt finden wenn ihr mal beam NG Drive mal in solche hardware test dazu nehmen würdet, das game ist mehr hardware hungrig als cyberpunk. vorallem mit ai traffic. Bitte danke

  • @jantube358
    @jantube358 Год назад

    #FragPCGH Wie viel sollte man jetzt noch für eine gebrauchte 2080 Ti ausgeben?

    • @hansschmitz8578
      @hansschmitz8578 Год назад

      350-380 Euro für gebrauchte RTX 2080 Ti ist ein gutes Preis-Leistung-Verhältnis.

    • @jantube358
      @jantube358 Год назад

      @@hansschmitz8578 Das muss zu viel sein. Für den Preis habe ich auf eBay gebrauchte 3080 Auktionen enden gesehen

  • @Kater_von_Baum
    @Kater_von_Baum Год назад +1

    @PCGH wäre es möglich, dass ihr mal eine Titan Xp mittestet? Die ist zwar schon etwas in die Jahre gekommen, aber vom VRAM her laut Nvidia ja noch voll am Nabel der Zeit :D

    • @antispackftw2675
      @antispackftw2675 Год назад +2

      Haben sie im Tech Test von Hogwarts Legacy gemacht, sogar mit Ray Tracing. :D

    • @Kater_von_Baum
      @Kater_von_Baum Год назад +1

      @@antispackftw2675 Alles klar, das muss ich wohl übersehen haben :D
      Danke für die Info ;)

  • @koala_baer9139
    @koala_baer9139 Год назад

    #FragPCGH
    spiele momentan mit einer rx5700 (non xt) in full hd, möchte mir aber in kürze einen uwqhd monitor kaufen. lohnt sich ein upgrade auf die 4070 (zugewinn an leistung) oder besser gleich auf 4070ti/4080/rx7900xt gehen?

    • @chrisrichter968
      @chrisrichter968 Год назад +1

      also normales qhd (2560x1440) spiel ich mit meiner 5700er und bin zufrieden. schafft die karte noch mit high details sehr gut bei 60 fps. kannst ja mit dem neuen monitor erstmal testen. am ende langt dir die leistung und du sparst das geld. ich werde jedenfalls noch abwarten und dann später zuschlagen. geplant ist dann min. sowas wie ne 7900xt. grüße

  • @jean-baptisttegeder4453
    @jean-baptisttegeder4453 Год назад +1

    Der Preis für diese Leistung ist in meinen Augen eine Frechheit , auch wenn Sie wenig frisst ..das gibt mir aber nicht genug FPS auf den Bildschirm bei 4K und Ultra Auflösung. Kauf mir doch keine neue Karte der neuen Generationen um dann in den Einstellungen die Karte schonen zu müssen. Verstehe nicht wie Du die Karte für gut befinden kannst.

    • @pasimo1399
      @pasimo1399 Год назад

      4k?
      Dann nimm direkt eine vernünftige Karte dafür, aber doch keine 70.

  • @z3ljo
    @z3ljo Год назад +4

    Also mehr als 400€ sollte die nicht kosten wenn nicht sogar noch weniger mit den 12gb wird dir nicht mehr als 1-2 jahre machen abgesehen davon das die neuen hochanspruchvollen spiele die auch zum schwitzem bringen ja nach auflösung.. ich hoffe die kaufen auch fast keine menschen damit die irgendwann verstehen und die preise irgenwann normaler werden

    • @pasimo1399
      @pasimo1399 Год назад

      400 vor 5 Jahren vllt.
      Du kannst das aber nicht mit heute vergleichen und nein, 400 muss sie auch nicht kosten.
      550 zb wäre da sogar akzeptabel.

    • @Skydreamer1331
      @Skydreamer1331 Год назад

      @@pasimo1399 Nostalgie spielt da mit rein die mrsp aller 70er karten war ~500 in der Vergangenheit.

    • @pasimo1399
      @pasimo1399 Год назад

      @@Skydreamer1331 nostalgie hat aber keine Repevanz dafür.

    • @Skydreamer1331
      @Skydreamer1331 Год назад

      @@pasimo1399 Falsch ausgedrückt an der Stelle, meiner Meinung nach sehen viele Leute z.B. auf die 10er Serie zurück und wie diese für sie die letzten 6 Jahre eine super Arbeit geleistet hat, weil viele wie ich auch mit optimierten Settings auch gut klar kommen. Während sie durch ihre gute Erfahrung vergessen oder nicht sehen, dass z.B. die FE der 1070 auch eine mrsp von 499Euro hatte und dadurch unrealistische Preisvorstellungen wie 400Euro als ihren gewünschten Preis für heutige Karten angeben.

    • @pasimo1399
      @pasimo1399 Год назад

      @@Skydreamer1331 ahhh, ja jetzt verstehe ich wie du des meinst, entschuldige bitte.

  • @SteveOhBrain
    @SteveOhBrain 10 месяцев назад +1

    Ich hab die 4070 Ghost für 530€ bekommen, mal eben 200€ günstiger als meine Asus Strix 1070 gekostet hat ^^

  • @christoph4412
    @christoph4412 Год назад +1

    Ein Vergleich zwischen WQHD und Full HD Auflösungen wäre Mal spannend. Ob es sich wirklich lohnt. Wo die optischen Unterschiede liegen. Ich glaube da suchen einige nach! Danke! :)

    • @GlobalPlayerDE
      @GlobalPlayerDE Год назад

      Eine ca. doppelt so scharfe Darstellung kann man sich doch vorstellen? Wobei ich WQHD auch schon wieder sehr krümelig finde und UHD einfach schöner ist. Man gewöhnt sich aber auch da schnell dran und möchte noch mehr haben.

    • @malupani1133
      @malupani1133 Год назад +1

      @@GlobalPlayerDE WQHD als ''krümelig'' zu bezeichnen.........? Ok, auf einem 31 Zoll Monitor sicherlich.
      Wenn du 2 x 27 Zoll nebeneinander stellst, wirst du sicherlich einen Unterschied zwischen WQHD und UHD bemerken. Nicht aber wenn der UHD Monitor eine Diagonale von 29,30 Zoll oder höher hat.
      mMn macht alles über 27 Zoll eh keinen Sinn (Gaming)

    • @makunouchiippo816
      @makunouchiippo816 9 месяцев назад

      @@malupani1133 Also ich zocke auf meinem 55 Zoll Fernseher und würde niemals wieder zurück auf solche kleinen Zoll-Monitore wie 27 Zoll zurückgehen wollen. Da kommen jetzt sicher wieder alle mit ihrer Pixeldichte an aber wenn man weiter weg sitzt sieht man davon eh nichts.

  • @nomisvanledierk8700
    @nomisvanledierk8700 Год назад

    Nun, bringt alles nichts.
    Letztes Jahr ist meine 2070 abgeraucht, sonst hätte ich die vermutlich jetzt noch im System.
    Da damals keine 3070 zu einem brauchbaren Preis zu haben war (jedenfalls nicht für mich), hab ich mir eine gemietet (bei Grover) bis die 4070 rauskommt.
    Die Miete läuft jetzt aus und ich muss auch etwas auf den Stromverbrauch schauen. Daher ist die 4070 auch die Karte der Wahl, die demnächst hier reinflattert.
    Da ich "nur" auf FullHD spiele, wird die auch ihre Arbeit tun. DSR, DLSS usw werden dann ihren Job schon machen.

  • @protonray
    @protonray Год назад

    Wo bleibt denn AMD mit deren neuen Karten?

  • @tomekdargiewicz6397
    @tomekdargiewicz6397 Год назад +1

    rtx 4070 neptun 320watt tdp

  • @El_Cattivo1988
    @El_Cattivo1988 Год назад +18

    12Gb hm.. Ist halt nicht so viel

    • @AzumDzumHzumS
      @AzumDzumHzumS Год назад +4

      12gb heute ist immernoch besser als 8gb vor 2,5 jahren. ist halt nichts für 4k das sollte klar sein.

    • @technicalmoreteam
      @technicalmoreteam Год назад +1

      ​@@AzumDzumHzumS sehe ich anders. Zocke meine Games auf 4k ohne probleme mit einer 3080 ti 12gb...

    • @El_Cattivo1988
      @El_Cattivo1988 Год назад +4

      @@technicalmoreteam Dann Zockst du halt nicht einige der aktuelleren Titel wie resident evil 4 oder Last of Us oder selbst bei Hogwarts Legacy gab es teilweise auf 4k schon Probleme mit 12Gb. Und das wird sich ja jetzt er noch mehr verstärken.

    • @coworkout5849
      @coworkout5849 9 месяцев назад

      20 gb das wäre angemessen

  • @MartinKuhlen
    @MartinKuhlen Год назад +2

    Custom Designs um die 700-750 Euro. Leistung unter der der RTX 3080. Die 4070 sollte eigentlich 4060 heißen. Ein absoluter Witz. NVIDIA ist ein ganz übler Verein.

  • @KBoomEnte
    @KBoomEnte Год назад

    Warum sollte sich irgendjemand fragen welchen Takt die Grafikkarte hat?
    Solche Fragen stellt doch nur das Marketing. :)
    Relevanter wäre ja was pro Takt passiert. :)

  • @rhunor2433
    @rhunor2433 Год назад +4

    Bei einer 54%igen Leistung einer RTX 4090 müsste die 4090 also nur 1221€ kosten. Auch eine Erkenntnis in so viele Richtungen.
    Gute Arbeit an das PCGH-Team, wie immer! Danke dafür! Dieses Produkt sollte man aufgrund des VRAMs nicht kaufen und nVidia noch dabei unterstützen, solche Sollbruchstellen in Zukunft wieder zu produzieren. Lasst das bitte im Regal liegen.

    • @PrefoX
      @PrefoX Год назад

      Seit wann ist das P/L denn Linear? das ist doch nirgendwo so, geh mal bitte in die Schule...

    • @rhunor2433
      @rhunor2433 Год назад

      @@PrefoX geh mal bitte in die Anstandsschule. Seit wann beleidigt man öffentlich einfach andere Leute.

  • @PinePizza
    @PinePizza Год назад

    Und ich hab mir vor Kurzem für ca. 580€ eine 3070 ti gekauft ;( Es war dumm, aber jetzt bleib ich dabei. Danach gibt's ne AMD, also in so 3 Jahren. AAA Spiele, die VRAM bis zum geht nicht mehr fressen spiele ich eh nicht, von daher reichts für meine Zwecke.

  • @tonac13
    @tonac13 Год назад +8

    Endlich 650EUR für eine, real gesagt, 4060. Wow. Endlich.

    • @Meister888p
      @Meister888p Год назад

      Die Karte ist trotzdem genauso schnell wie eine 3080 die mehr kostet

    • @John-Reese-
      @John-Reese- Год назад

      Glaub bei den meisten zahlen scheinbar noch die Eltern den Strom 😅 man darf den deutlich niedrigeren Stromverbrauch nicht vernachlässigen!

  • @FawkesDog
    @FawkesDog Год назад +1

    Bin mit meiner RTX 2080 noch zufrieden^^

  • @xXNexus2012Xx
    @xXNexus2012Xx Год назад

    Leider zeigt Nvidia wieder das sie keine Mittelklassengrafikarten können. Wäre die 4070 TI für 600 Euro angeboten worden und die Non Ti für 500 Euro hätte man ja reden können da die Nvidia Karten die Leistung mit DLSS3 und Raytracing kompensieren können also Features die AMD leider noch nicht ganz gut beherrscht. Allerdings bei denn Preisen kann ich nur zu AMD raten da sie im allgemeinen durch besseren Speicherinterface und Ram und den Preis für diese Leistung einfach zukunftsorientierter sind. Aber so war das immer wärent AMD im Mittelklasse/Oberklasse regiert gehört die unangefochtene Premiumhighendklasse Nvidia

  • @gehtdichnixan18373
    @gehtdichnixan18373 Год назад +2

    RX 6950xt besser als die 4070? Bekommt man für den selben Preis.

    • @antispackftw2675
      @antispackftw2675 Год назад

      Jein - genauer steht es im Artikel oben. ^^

    • @gehtdichnixan18373
      @gehtdichnixan18373 Год назад +1

      @@antispackftw2675 sehe da nur 6800 xt vergleiche ubd da ist sie mit der 6800xt fast gleich auf. 6950xt sollte doch eig viel besser sein als die 4070.. oder nicht ?

    • @technikfreak7705
      @technikfreak7705 Год назад +1

      ​@@gehtdichnixan18373 "Viel" würde ich das nicht nennen, das 6800 xt und 6950 xt relativ nah beieinander liegen. Aber ja, die 6950 xt ist rastertechnisch schneller unterwegs als die 4070.

    • @gehtdichnixan18373
      @gehtdichnixan18373 Год назад +2

      Okay. Danke

  • @skyzi22
    @skyzi22 Год назад

    Eigentlich finde sie irgendwie niedlich. Ich spiele nur wqhd. 4k ist nur Blabla für mich. Wenn ich Bilder will nutze ich meist für Fotos machen und das war es. . mir wäre es ok aber ich warte mit 500€.

  • @TheExard3k
    @TheExard3k Год назад +9

    Unter 16GB kommt mir nichts in Haus. Von daher nehm ich lieber ein Upgrade auf 7900xt als (mal wieder) ständig zu wenig VRAM zu haben. AMD machts richtig, auch mit den Treibern

  • @GamerJuli85
    @GamerJuli85 Год назад +5

    RTX 3080 einfach mal besser. Nice. RTX 4070 dafür sparsamer. Top Video.

    • @PrefoX
      @PrefoX Год назад +3

      naja 25% mehr VRAM, bessere RT Leistung (bald) und Stromsparender und leiser. bitte erst denken. die ganzen RT Features von ADA werden zurzeit nicht genutzt.

    • @GamerJuli85
      @GamerJuli85 Год назад

      @@PrefoX die 200 Watt sind echt nice. Meine alte 3080 10 GB ging bei 330 Watt ab...und war laut