Комментарии •

  • @hardwaredealz
    @hardwaredealz Год назад +366

    10/10 Titel

    • @Saderue
      @Saderue Год назад +7

      Eigentlich 11/10😂

    • @Flocano
      @Flocano Год назад +1

      @@kejaffzi4121Oh ne

    • @luigiistcrazy
      @luigiistcrazy Год назад

      @@kejaffzi4121 Der Witz passt hier jetzt nicht soooo gut rein 😅

    • @Ceramic_Discs
      @Ceramic_Discs Год назад +1

      @@kejaffzi4121 ehrenmann 😂

  • @CornFlakesPC
    @CornFlakesPC Год назад +32

    10:20 - Nächstes Video: RTX 4070 mit 2x 8 Pin Steckern ausgestattet und getestet

  • @Servicehans
    @Servicehans Год назад +85

    Die Messung des Idle Stromverbrauchs finde ich sehr wichtig. Das kannst du bei künftigen reviews (auch cpu) ruhig beibehalten ;)

    • @proxis9980
      @proxis9980 Год назад

      die sind halt so krass abhängig vom treiber und deinen windows einstellungen ich glaub so richtig was rbingen tun die nich....auch wenns natürlich nice is aber die werden crazy flott outdated sein

  • @DarkSorrowDark_Sorrow
    @DarkSorrowDark_Sorrow Год назад +43

    Tolles Video genau solche Reviews und Vergleiche wo auch die Karten zerlegt werden liebe ich, einfach on Top :)

    • @schortkramer4405
      @schortkramer4405 Год назад

      ja, und er denkt an die Umwelt bzgl. Stromverbrauch. noch wichtiger im Sommer, wenn die 4070 weniger Abwärme erzeugt.

  • @Duk3.
    @Duk3. Год назад +8

    Wie immer sehr Informativ!

  • @t0oNiCe4YoU
    @t0oNiCe4YoU Год назад +1

    Vielen, vielen Dank, Roman. Du rundest mit diesem Video alle bereits vorhandenen Reviews vollumfänglich ab. Damit meine ich u.a. Themen wie z.B. dem Stromverbrauch im Vergleich. Klasse!

  • @NoName-zf6nr
    @NoName-zf6nr Год назад +16

    Gucke seit einem Tag 4070-Videos. Dies ist das erste mit brauchbaren Noise Samples. Video-Qualität wie gewohnt, danke!

  • @mimon6706
    @mimon6706 Год назад +28

    Fast 3080 Leistung zu fast 3080 Preisen.
    Toll, 2,5 Jahre Stillstand.

    • @urkent4463
      @urkent4463 Год назад +1

      2080ti Niveau mit halbsoviel Watt. sie meinen Innovation und Fortschritt 👍

    • @keine_ahnung_wie_der_heisst
      @keine_ahnung_wie_der_heisst Год назад +2

      @@urkent4463 halbsoviel? 2080 ti hat 250w tdp, die karte zieht 200

    • @urkent4463
      @urkent4463 Год назад +1

      @@keine_ahnung_wie_der_heisst meine strix hat locker 280 gezogen und meine jetzige 4070ti 165

    • @mimon6706
      @mimon6706 Год назад +1

      @@urkent4463 Nur wenn man immer stärker beschnittene Karten als Innovation und immer höhere Preise als Fortschritt ansieht.

    • @urkent4463
      @urkent4463 Год назад +1

      @@mimon6706 kann beschnitten sein wie sie will wenn sie wqhd die fps liefert und in 4K nicht und Nvidia die so auf den Markt bringt. Verlangen kann ein Unternehmen was es will . . . und wenn die für high FPS-4K zwei Karten im Angebot haben . . . nagut. Und wenn's die Karten sind die's aktuell gibt - umso besser. Geile Stücke. 2080ti - damals 1650,- 4090 custom Model - 1650,- oder mehr.
      geil oder ?
      besser als selbst entwerfen, bauen und löten.
      Und wenn sie meinen nvidia geht mit ihren Mittelklasse (o.ä.) Karten noch nicht mit der Zeit . . .
      also ich bin selbst beschnitten . . . auch Jahre schon . . . und happy
      Also gibt wirklich schlimmeres.
      Muss mal meine 4070ti mal bei 4k+ mit Pico 4 probieren . . . Werde w.o.h.l kaum gegen die Rentner 3080 tauschen. Um Himmels willen hoffentlich nimmer mehr

  • @droidlupus
    @droidlupus Год назад

    Ich fand das Detail des Stromverbrauchs auch super. Gerne wieder. Top Video

  • @20NBA01
    @20NBA01 Год назад +2

    Danke, dass du die Geldersparniss erwähnt hast und mit einem schönen Beispiel verdeutlicht hast. Bei anderen Reviews wurd zwar auch die Effizienz angesprochen aber keiner hat so den Strompreis berechnet wie du.

    • @schortkramer4405
      @schortkramer4405 Год назад

      gilt auch nur für Deutschland. schon in Österreich kannst mit der Angabe nix anfangen. wir haben den weltweit höchsten strompreis, dafür aber immerhin auch den Dreckigsten in Westeuropa

  • @renemasri
    @renemasri Год назад

    jedes Video ein Genus

    • @ianhawkins4979
      @ianhawkins4979 Год назад +1

      Welches denn? Und wie sieht das mit Kasus und Numerus aus? 😄

  • @GregorMima
    @GregorMima Год назад +18

    Ah the good old days als ich meinen 333er Celeron auf 600Mhz gejagt habe ... Das war OC. 😁

    • @trex70
      @trex70 Год назад +2

      Gab es da keinen Turbo Button mehr? 😁 Wie bei meinem 486 DX 66. Übertakten ganz einfach gemacht.

    • @itsTyrion
      @itsTyrion Год назад +3

      Und ich meine 750Ti auf 1420 MHz
      (Referenz war 1014 Standard und 1058 boost)

    • @quitsch939
      @quitsch939 Год назад +4

      @@trex70 Der Turbo Button hat die Taktfrequenz aber nicht erhöht, sondern reduziert. Bei meinem ersten PC, ein AMD 486 DX4 100 wurde von 100 MHz auf 66 MHz reduziert.

    • @wormaus-mixed
      @wormaus-mixed Год назад +2

      Beim 486-er war der "Turbo-Button" nur noch Schmuck und Spielerei.

    • @quitsch939
      @quitsch939 Год назад +3

      @@wormaus-mixed Nein der hatte durchaus seinen Sinn.
      Das runtertakten hatte den Grund, das viele Programme damals so schnell liefen, wie der Takt es Prozessors. Bei alten Spielen war das besonders störend. Mein Onkel hatte z. B. ein altes Flugzeug-Kampf Spiel, das auf seinem 286er mit 33 MHz normal lief, bei mir war es aber dreimal so schnell, also unspielbar. Daher konnte man den Takt mit dem Turbo-Knopf meist um ca. 1/3 reduzieren, um "alte" Software mit neuen Prozessoren kompatibel zu machen.

  • @Mullemaus578
    @Mullemaus578 Год назад

    vielen Dank für das ausführliche Video, 👍

  • @cyberhaube
    @cyberhaube Год назад +2

    Ich finde es klasse, dass mal eine Gainward-Karte irgendwo getestet wird. Da mich diese sehr anspricht. Reviews zur Pheonix und Phantom sind auf RUclips gefühlt sehr rar. Daher: danke für deinen Ersteindruck. 👍

  • @SaschaHa
    @SaschaHa Год назад +67

    9:48 - Interessant finde ich, dass es scheinbar noch zwei freie Plätze für zusätzliche Speicherbausteine gibt, womit man bei dessen Nutzung auf 256 bit mit 16 GB kommen würde. Sofern man identische Speicherbausteine irgendwo kaufen kann und es - falls nötig - entsprechende "Schablonen" zum drauflöten gibt, wäre es mal interessant, ob man damit die Karte aufrüsten kann oder die Bausteine ohne Funktion bleiben. Nimmst du die Herausforderung an? :D

    • @julianB93
      @julianB93 Год назад +1

      Wäre schon interessant zu erfahren was damit ist. Es war vor ein paar Monaten geleakt worden, dass die 4070 mit einer 16gb Speicherkonfiguration auf den Markt kommen sollte, wurde jedoch nicht bestätigt.

    • @XXXXL25
      @XXXXL25 Год назад +2

      Es gab doch Mal jemanden, der auf eine 2070 mehr RAM gelötet hat. Das ganze lief sehr instabil

    • @k0nst017
      @k0nst017 Год назад +6

      Man braucht dafür mehr als nur so einen Speicherbaustein/e. widerstände, Kondensatoren, Spannungsteiler... Das wird sicherlich nicht so einfach umsetzbar sein, falls es überhaupt geht. Das Auflöten dürfte da noch das einfachste sein.

    • @whohan779
      @whohan779 Год назад

      @@XXXXL25 Entweder ist das Sarkasmus oder nicht deckungsgleich mit der Geschichte die ich gefunden habe: "NVIDIA never did release a 16GB version of the 2070, so this card is truly one of a kind. After some careful scouring of the internet, the GDDR6 chips were procured and carefully soldered on with a hot air gun. A few resistors had to be moved to accommodate the new RAM chips. During power-on, [VIK-on] saw all 16 GB enumerate and was able to run some stress tests. Unfortunately, the card wasn’t stable and started having black screen issues and wonky clocks.". 🤨

    • @whohan779
      @whohan779 Год назад +3

      Meistens ist es nur möglich Bausteine zu tauschen, neu aufzulöten dürfte nichts bringen, da Nvidia die schlichtweg intern nicht verbindet, sprich die Lötstellen sind nur da, weil das Board eben auch für 16 GB Karten wie die 4080 verwendet wird & so billiger ist ("mehr ist weniger" oder so).

  • @Winimarik
    @Winimarik Год назад +4

    Tolles Video. Danke für die ausführlichen Tests.
    Einziger Kaufgrund für die 40er Karten ist deren Effizienz. Bei der 4070 kommt noch die RT Leistung dazu. Bedenkt man das man für den selben Preis ne 6950xt bekommt. Die verbraucht mehr... Leistet aber auch mehr und hat mehr vram... FSR 3.0 wird's auch für die alte AMD Generation geben. Man zahlt also wiedermal nur für frame Generation und mehr RT Power nen saftigen Aufpreis bzw bekommt fürs selbe Geld weniger Raster Leistung und vram... DAS sind die "Nvidia Sachen".
    Der Vorwurf den ich Nvidia hier mache ist klar die Preis treiberei... AMD und Intel werden sich da anpassen. Und wir User haben dann den immer teurer werdenden Salat.
    Das gesamte bisherige 40er lineup gehört mindestens 100€ günstiger. In der UVP... Schaut man sich die Preise an wird's dann wohl bei round about 450-500€ für ne 4060 werden. Und egal wieviel Leistung diese karte dann gegenüber einer Karte aus der 1080p ära hat, das ist zu teuer.
    Ich bin eigentlich ein sehr neutraler Hardware bekloppter. Ich feiere neue Technologien. Wenn sie funktionieren. Egal von welchem Hersteller.
    Aber mit RT und den von Nvidia dazu gelieferten Features Werd ich nicht warm. Der Aufpreis ist nicht gerechtfertigt und ohne KI sampling funktioniert's einfach nicht.
    Die einzigen paar Pluspunkte die Nvidia hat. Ist die Effizienz der 40er Karten. Das finde ich schon sehr geil. Aber solangsam verliert mich Nvidia. Würde aktuell bis auf die 4090 keine Nvidia Karte empfehlen. Und die 4090 auch nur wenn's um absoulut höchste Ansprüche geht.

  • @Kommentierer
    @Kommentierer Год назад +34

    Irgendwie will man sich anscheinend nicht die Mühe machen attraktive Karten zum Aufrüsten anzubieten.
    Wenn ich an die letzten Generationen denke, dann hat das 70er-Modell gleichziehen können zum Flaggschiff der Vorgeneration. Die 4070 erreicht jetzt nur die 3080. Und das bei einem vermutlich gleichen Preis.
    Verbraucht zwar weniger und hat endlich den VRAM, den der 3080 von Anfang an mindestens zugestanden hätte, trotzdem fühlt es sich so an, als wenn man immer weniger für immer mehr Geld bieten will.

    • @Ruhrpottpatriot
      @Ruhrpottpatriot Год назад +1

      Das stimmt so nicht ganz. Das Flaggschiff ist seit der 30er Serie die xx90. Da kommt die 4070 halt nun nicht ganz ran. Auch sonst war es so, dass die nächste Generation der 70er meistens immer mit der Vorgänger 80er mithalten konnte. In der Hinsicht hat sich halt, mit Ausnahme des Sprungs von 20er zu 30er Serie, nichts geändert.

    • @UltraLord5850
      @UltraLord5850 Год назад +10

      ​@@Ruhrpottpatriotda hat sich massiv etwas geändert! Zur Zeiten der GTX 200er bis 900er Serie war da ein viel größerer Sprung gewesen. Habe ich das 70er Modell gekaut, dann war das 70er Modell zum einem nur 15 bis 20 Prozent langsamer als das Topmodell derselben Generation. Und zum anderem deutlich schneller als das Topmodell der vorherigen Generation.
      Und was bekomme ich heute? Die 4070 ist ein unterer Mittelklasse Chip: 1/3 der Transistoren des Topmodells und nicht mal halb so schnell, aber dafür trotzdem maßlos überteuert. Nvidia verarscht seine Kunden aktuell nach Strich und Faden.

    • @michaelburnham4293
      @michaelburnham4293 Год назад +10

      Die NVIDIA Abzocke nimmt kein Ende. Jetzt versucht man hier quasi eine 4060 als 4070 zu verkaufen. Deswegen hat die eauch nur die Leistung einer 3080. Wäre es eine echte 4070, dann wäre sie deutlich schneller als eine 3080.
      Wir fassen zusammen: NVIDIA verkauft eine Karte mit der Leistung einer 3080 von vor vier Jahren. Die 3080 wurde damals direkt von NVIDIA für 699 € angeboten. Jetzt will man für diese umdeklarierte 4060 doch tatsächlich 659 €. Wer hier jetzt zuschlägt kann eigentlich nur Hansi Hirnschiss heißen. Kauft auf keinen Fall diese Karte zu dem Preis!

    • @Kommentierer
      @Kommentierer Год назад +1

      @@Ruhrpottpatriot Selbst dann müsste man mit der 3080 Ti vergleichen. Tun wir aber nicht, es reicht nur für die normale kleine 3080.

    • @Ruhrpottpatriot
      @Ruhrpottpatriot Год назад +1

      @@UltraLord5850 Die Anzahl der Transistoren ist schon lange kein zuverlässiger Indikator für Geschwindigkeit mehr, insbesondere wenn Parallelisierung und Vektorisierung im Spiel sind.
      Und bevor mir jemand den Sticker "NVDIA Fanboy" antackert: Bräuchte ich CUDA nicht für meine Arbeit, hätte ich schon längst eine AMD Karte.

  • @philippbeckonert1678
    @philippbeckonert1678 Год назад +56

    : Die Sache mit der Leistungsaufnahme finde ich vollkommen richtig angebracht. Ich fänds gut, wenn darauf mehr Leute eingehen würden. Man kann dann auch mal rechnen ab wann sich eine Neuanschaffung lohnen würde. Igor gibt auch immer gute Reviews ab zum Stromverbrauch.

    • @Mike-oz4cv
      @Mike-oz4cv Год назад +2

      Ich finds irgendwie traurig das es beim Stromverbrauch immer nur um Geld geht und der Aspekt mit den CO2 Emissionen und anderen Externalitäten komplett außer Acht gelassen wird. Bei ca. 350g CO2e pro kWh in Deutschland kommt da nämlich auch einiges zusammen. Da sind wir schnell mal auf 300kg CO2 pro Jahr nur für den Spielerechner+Bildschirm.

    • @philippbeckonert1678
      @philippbeckonert1678 Год назад

      @@Mike-oz4cv : Ich sehe was Du meinst und Du hast da auch vollkommen Recht. Das spielt bei mir auch eine Rolle. CO2 soll ja aber irgendwann aus der Rechnung rausfallen, wohingegen der Preis eher hoch bleiben wird. Aber es bleibt abzuwarten.

    • @Sora-xm5xe
      @Sora-xm5xe Год назад

      @@philippbeckonert1678
      Komplett rausfallen werden wir niemals miterleben.
      Selbst bei 100% erneuerbaren Energie(Wo von wir sowieso garantiert noch mindestens 25-30Jahre entfernt sind), muss man noch die Herstellung von Anlagen, Stromnetz und die Instandhaltung mit einbeziehen und da dort auch viel aus dem Ausland kommt und bis dort CO2 neutral produziert und Ressourcen abgebaut werden und sämtliche Laster, Flugzeuge und Schiffe CO2 sind fortbewegen...
      Natürlich hast du mit deiner Aussage Recht, aber selbst bis nur der produzierte Strom CO2 neutral wird, wird schon viel zu lange dauern^^

    • @Hammersmash3dFace
      @Hammersmash3dFace Год назад

      Das ist zwar absolut super aber wie wir bei den Energiepreisen einfach abgezockt werden sollte eher voran stehen. Wenn ich noch mehr spare, kann ich fast mein Hobby aufgeben. Währenddessen bei denen die es sich weiter locker leisten können es schlicht egal ist. Der Energiepreis spaltet nur weiter die Gesellschaft ohne Nutzen für die Umwelt.

    • @Mike-oz4cv
      @Mike-oz4cv Год назад

      @@Hammersmash3dFace Die gestiegenen Energiepreise des letzten Jahres haben so effektiv zu weniger Verbrauch geführt wie nix anderes davor.

  • @nukacookie4755
    @nukacookie4755 Год назад

    Immer direkt den Daumen hoch. Hier wurde ich noch nie enttäuscht und deswegen ein fettes Danke für deinen Content 🙂

  • @RickAnd_M0rty
    @RickAnd_M0rty Год назад +2

    Tolles Video :) Ich habe mich mal gefragt was wäre, wenn die Platine der Founders Edition mal so verädert wird, das man Komponenten der I-Chill übernimmt auf die Founders Edition. Also Die ganzen Spannungswandeler etc. austauschen. Ist das theoretisch möglich und welche Karte hat hochwertigere Komonenten verbaut?

  • @26DeislerFCB
    @26DeislerFCB Год назад

    top das du die Leistungsaufnahme ansprichst

  • @gucky4717
    @gucky4717 Год назад +12

    Also hoffe das es noch in nächster Zeit 4070 Modelle unter 200mm länger auf dem Markt schaffen, also so wie ein paar 3060Ti Modelle. Ich will so eine für meinen 5L PC.
    Die Gainward scheint möglicherweise eine solche Variante zu bekommen, zumindest wäre das kleine PCB und die 8-Pin ein Hinweis darauf.

    • @TrelLyX
      @TrelLyX Год назад

      Asus z.b. hat schon "2 Lüfter" design angekündigt

  • @TheDirtyone84
    @TheDirtyone84 Год назад +2

    Danke Roman, endlich erwähnt mal ein Reviewer die Stromkostenersparnis gegenüber älteren Generationen. Ich Habe heute eine MSI 4070 Ventus 3x gekauft.

  • @Dreamnought
    @Dreamnought Год назад

    On Point 👌
    Hätte gerne mehr Infos zu den Phasen gehabt (volle Bestückung die selben LR22/Phasen Modelle?)

  • @Wombat19
    @Wombat19 5 месяцев назад

    2:00 Das ist gut durchdacht mit dem stecker, weil der 12v hipower anschluss eine gewisse länge bis zur biegung braucht damit er nicht abfackelt und dadurch dass der stecker so weit hinten ist hat man einen längeren weg bis zur biegung.

  • @larsfreiheit8185
    @larsfreiheit8185 Год назад

    4:45 eine sehr gut gemachte Pause...

  • @BS-eh1zf
    @BS-eh1zf Год назад +2

    Mit den kleinen Platinen müssten ja eigentlich mit custom Wasserkühlungen interessante SFF Builds drinn sein

  • @EuloSounds
    @EuloSounds Год назад +1

    2:09 Da werden die Kabel gleich mitgekühlt. ;)

  • @LeoDDJ
    @LeoDDJ Год назад

    Top review und mal wieder 100% on point mit der Kritik!
    Auch super, dass du das mit der Effizienz ansprichst. Das hat mir gestern generell durch die Bank ziemlich gefehlt, das macht insb. heutzutage schon einiges aus und sollte nicht komplett vernachlässigt werden imo.

  • @FlyingPandaDev
    @FlyingPandaDev Год назад +1

    Finde die Timestamps besonders gut. ;)

  • @tommihommi1
    @tommihommi1 Год назад +72

    früher oder später wird Nvidia wohl komplett auf Boardpartner-Karten verzichten, falls ihnen nicht vorher schon alle Partner abspringen

    • @mpz_prod
      @mpz_prod Год назад +2

      Wie war das nochmal mit 3dfx?

    • @KalatSaar
      @KalatSaar Год назад +1

      warum sollten die auf Boardpartner verzichten ? die FE modelle werden ständig nur angekündigt .. meist mit gerade noch annehmbaren Preisen ... sind aber so gut wie nie verfügbar ...

    • @-Qonqueror-
      @-Qonqueror- Год назад +12

      @@KalatSaar Weil Nvidia die Boardpartner zwingt einen gewissen Anteil der Karten zum UVP anzubieten wo die dann halt null dran verdienen. EVGA ist nicht ohne Grund als boardpartner ausgestiegen.

    • @KalatSaar
      @KalatSaar Год назад

      @@-Qonqueror- das mag zwar irgendwo auf dem Papier stehen , aber ich hab seit der 30er Reihe keine Karte zum UVP in irgendeinem Shop gesehen ... jedenfalls nicht ohne den zusatz : zur Zeit nicht verfügbar !! Eine 3080 hatte auf jeden Fall keine 1800.- Als uvp

    • @12Cortana
      @12Cortana Год назад +1

      Sehe ich ähnlich. Nvidia hat wohl großes Interesse in Zukunft möglichst viele eigene Karten zu verkaufen. Nur das erklärt mir das Verhalten.

  • @andy86tdi11
    @andy86tdi11 Год назад

    Gutes Video

  • @MAREK_161
    @MAREK_161 Год назад

    Hallo Roman. Wie immer tolles Video! Wieso hast Du Dich bei 3:28 dazu entschieden, den min. Wert der Grafik auf 0 zu setzen? Das Diagramm würde doch viel mehr Informationen vermitteln, wenn Du zwischen 3000 und 2500 MHz darstellst.

  • @Tempel_Craft
    @Tempel_Craft Год назад +2

    Du hast auch das mit dem zeigen der Phoenix Karte der rgb Beleuchtung vergessen 😅

  • @kappilino
    @kappilino 9 месяцев назад +1

    Für mich ist die Founders Edition das rundeste Produkt. Super verarbeitet, leise und kein allzu ausladender Kühler.

  • @Pootch17
    @Pootch17 Год назад +4

    Wird bald ein Problem werden zukünftige Karten in normale Midi Gehäuse einzubauen, vor allem wenn vorne schon ein Radiator einer AIO hängt. Nächste Generation dann 500cm lang und Quadslot standard? Oder mit jeder neuen GPU ein neues Gehäuse?

    • @quitsch939
      @quitsch939 Год назад +1

      Man kann ja auch, wie man das bei Autos schon kennt, 2 Gehäuse hintereinander zusammen schweißen und ein Stretch-Case machen.

  • @stefanb.988
    @stefanb.988 Год назад

    Was mich interessieren würde kann man diese Karten moden indem man die leeren Phasen Plätze bestückt ?

  • @davidbrueggemann1
    @davidbrueggemann1 Год назад +1

    Moin, kann mir wer verraten welche dicken an Wärmeleitpads in einer 4090 strix oc verbaut sind

  • @autotuneistschwul2379
    @autotuneistschwul2379 Год назад

    Feier dich da du ne 2080 mit rein nimmst

  • @he1go2lik3it
    @he1go2lik3it Год назад

    Ist auch die 4070ti ichill ähnlich gut bestückt, im Vergleich zu den anderen Modellen? Lässt sich somit pauschalisieren, dass Inno3d besser, vollwertiger herstellt?

  • @renegranit240
    @renegranit240 Год назад

    Gutes video wie immer

    • @renegranit240
      @renegranit240 Год назад

      @abee ceebee ohha ich hab das mal gemacht bei CPU aber graka stell ich mir kompliziert vor... Kann ich die selbe paste verwenden. Es ist eine 3070 die jetzt ziemlich genau vor 2 Jahren gekauft wurde weil Garantie im April weg war

  • @1SaG
    @1SaG 8 месяцев назад

    Weil ich ein RGB-Depp bin, und mir die 4070Ti-Karten allesamt zu teuer waren, wurde es bei mir die Gigabyte 4070 Gaming OC. Der Kühler ist monströs groß für den verbauten Chip, hält die Karte thermisch aber sowas von im Zaum... Nur in Torture-Tests kann sie mal auf dem Hotspot die 80°C-Mauer knacken. RAM und GPU-Temps liegen beim Gaming in 1440p generell so zwischen 50 und 60°C. Idle-Verbrauch ist ebenfalls ziemlich bescheiden... 3 bis 4 Watt sind keine Seltenheit ... vielleicht auch weil die Karte selbst im Gaming häufig die Lüfter abschaltet (Standard-Lüfterkurve), und dann auch nur das GB-Logo beleuchtet ist. Die Lüfter LEDs sind nur dann aktiv wenn die Lüfter auch laufen.
    Das Ganze übrigens mit manuellem OC auf dem Chip und auf dem VRAM - maximal boostet die Karte so bis knapp unter 3000 MHz (~2970), und das VRAM ist mit +1000 MHz übertaktet.
    Bissl Augenwischerei ist das Power-Limit, das bei der Karte auf um die 300W angehoben werden kann (143% max, IIRC). Beim Gaming in 1440p zieht sie sich allerdings selten mehr als 220, 225W und einzig in Furmark habe ich bislang Leistungsspitzen von knapp über 250W gesehen.
    Alles in Allem eine wirklich feine Karte, allerdings immer noch deutlich zu teuer. Ich hatte "Glück" und das Ding während eines Flash-Sales für um die €630 ergattert - was meiner Meinung nach für die gebotene Leistung aber immer noch zu viel ist.

  • @VandorNew
    @VandorNew 11 месяцев назад

    Findet man eigentlich irgendwo eine Liste, welche Karte wie viele Spannungswandler hat? Bzw. welche voll bestückt ist?

  • @marvinjager7444
    @marvinjager7444 Год назад +5

    Für mich ist keine der 3 Karten der Sieger. Der wahre Sieger der 4070 er karten währe die jenige mit 2 mal 8 pin Strom anschluss. Dann eignet Sie sich erst wirklich zum aufrüsten. Kaum jemand der aufrüstet möchte bei einer neuen karte erstmal ein neues Stromkabel oder neues Netzteil kaufen, was unnötige Kosten sind.

    • @quitsch939
      @quitsch939 Год назад +2

      Es gibt doch n Adapterkabel, wenn dein Netzteil diesen komischen neuen Stecker nicht hat. Da macht man dann den 2x 8 Pin dran und den Adapter in die GraKa.

  • @anwa1973
    @anwa1973 Год назад

    Mit Idle-Leistung und Einbezug der Stromkosten. 👍 Mit nIedrigerem Powerlimit (worauf alle 40er nVidia Karten sehr gut ansprechen) kann sich die 4070 gegenüber der 3080 schon nach einem Jahr lohnen.

  • @Lenni0310
    @Lenni0310 Год назад

    @der8auer Gibt es denn auch noch ein Video wo die Karten wirklich zu OC Karten werden? Vom Kühldesign sollte da ja noch was gehen wenn das Powerlimit nicht so niedrig gesetzt ist.

  • @Nefiwolf
    @Nefiwolf Год назад +5

    und jetzt bitte 2x 8Pin drauf löten und testen. ^^ Wäre zumindest sehr interessant, ab die wirklich komplett angebunden sind oder ab das nur Überreste einer Idee sind.
    Ansonsten mal wieder sehr informatives Video.

  • @cyrillweber298
    @cyrillweber298 Год назад

    Wieso takten Spannungswandler nicht in einer nicht höhrbaren Frequenz?

  • @sarvij9870
    @sarvij9870 Год назад +8

    Danke, dass du explizit über den Stromverbrauch erwähnst. Gefühlt überall wird empfohlen die 6950xt oder o.ä. zu kaufen. Ich habe die Karte gekauft, weil sie grob die Leistung einer RTX 3080 erreicht bei geringerem Verbrauch.
    Tolles Video.

    • @MHWGamer
      @MHWGamer Год назад +1

      wo haste denn die Infos bzgl. Leistung her? eine 6800xt ist schon gleich schnell oder schneller als eine 3080. Meintest du 3090?

    • @waldowaldo1980
      @waldowaldo1980 Год назад

      Er meinte damit 4070 ist mit raytrasinc genau so schnell wie 6950xt....nur verbraucht die 150 Watt... wohingegen die xt 320 haben will
      Ganz egal wie man es sich schön redet...die 6000 AMD im high end Bereich ist immer die schlechtere Wahl..also seit heute wohl gemerkt

    • @MHWGamer
      @MHWGamer Год назад +3

      @@waldowaldo1980 raxtracing könnte mir aktuell immer noch nicht egaler sein. Die 15 Spiele, wobei sich da nur bei 5 was richtig ändert.
      teurer mit weniger echte Performance - was man in jedem Spiel merkt - und weniger Vram, scheint mir nicht so ein besonderer Deal zu sein
      (fang bloß nicht an es mit dlss "schön'-zureden)

    • @waldowaldo1980
      @waldowaldo1980 Год назад +1

      @@MHWGamer 🤣🤣😂...der dlss Spruch war gut...ich wollte gerade anfangen
      Sicher reine rohleistung ist eine 6950xt schneller...nur verbraucht die ne Menge Strom....ich finde wirklich dlss 3.0 ist schon ein nützliches Future für die nächste Jahre,falls native Leistung nicht mehr ausreicht...ich mein 2026 zocks du mit maximal 65 FPS...und haust dlss rein und plötzlich hast du 120....das ist dann aber schon eine andere Liga in wqhd @144hz

    • @schortkramer4405
      @schortkramer4405 Год назад

      @@waldowaldo1980 DLSS fand ich schon immer geil. bis raytracing mal das tut, wie es gedacht war, muss noch viel Programmierarbeit geleistet werden und ob man es bis dahin schon begraben hat ist die Frage.

  • @Radeon85
    @Radeon85 Год назад

    Gibt's schon Infos zum Vergleich für die 4060?

  • @sallysbananenrepublik3740
    @sallysbananenrepublik3740 Год назад

    Inno3D ,,Eichel", Untertitel sind pures Gold😂

  • @Zonkorator
    @Zonkorator Год назад +1

    Kannst du aus einer solchen effizienten GPU nichtmal eine singleslot graka bauen oder ein ähnliches Format wie die Asus GTX 970 Mini damals ,mit einem PT von 60-70%. Wenn das so weiter geht sehen wir dann bald wieder passiv gekühlte Versuche? Ala Rtx 4050/4060 passiv..

  • @samuelb.107
    @samuelb.107 Год назад +4

    Immer schön zu sehen das wenigstens einer den stromverbrauch mit in betracht zeiht das fehlt bei den meisens US reviews kompelt.

  • @itscoldcoldwinter
    @itscoldcoldwinter Год назад

    hi what is the best place to byt gpus in germany

  • @OlifeatTommy
    @OlifeatTommy Год назад +1

    7:25 und DLSS 3.0 finde ich auch die theoretischen 50€ wert

  • @McSnakeRene
    @McSnakeRene Год назад

    Ich hätte mal ne Frage! Was ist eine gesunde Temperatur bei Arbeitsspeicher ? Das wäre mal echt interessant

  • @eYelessoO
    @eYelessoO Год назад +6

    Danke, auf das Review habe ich schon auf Vorgestern gewartet xD
    Wieso die Custom Modelle nach Release erst gereviewt werden dürfen, sagt doch jetzt alles.
    Die Leute Stürzen sich um Punkt 15 uhr auf alle Verfügbaren 4070 Modelle und sehen direkt, oh OC version, die ist sicher schneller, aber hätte man vorher das Review dazu gelesen, hätte das sicher jeder vom Kauf abgehalten und einfach eine non OC geholt. 4-5% sind wirklich sehr happisch für den Aufpreis von fast 100€ bei manchen Modellen.
    Ich hab das gefühl, Nvidia gehts nur noch darum alles so gut so wie möglich zuvertuschen, um den Meisten Umsatz zuerzielen.
    Es ist wirklich Traurig, Nvidia steht heutzutage nie besser da und verlangt immer mehr, für immer weniger.
    Klar ist die Effizienz toll, aber hätte man zumindest auf 16GB aufrüsten können.
    Passt auf, die 4060 kommt dann mit 16 GB, aber mit so einen abgespackten Chip, das sich das aufs Gaming dann auch wieder nicht lohnt.
    Ich verstehe es einfach nicht mehr was das soll und wieso man immer weiter Nvidia den Aufpreis zahlt, die entwickeln sich langsame immer mehr zu Apple.
    Zusatz:
    Ja DLSS 3 und bessere Raytrace Performence ist toll, aber kein Argument für überteuerte Preise, dass sind Nebenprodukte, die jetzt bei jeder Grafikkarte dabei sind. Man sollte hier immer auf die Rohleistung ausgehen, da auch nicht jedes Spiel diese Features Unterstützt.
    Besonders die Künstlichen erzeugten Zwischenframes um die FPS zuverdoppeln, klingt auf den Papier ja toll und sieht bei der Umsetzung auch smother aus, aber sobald der Vram voll ist oder die FPS bei unter 15 FPS sinken, kann selbst das keine Hilfe mehr sein. Mit Downsampling zusammen ja, aber man spürt aktuell noch, das die Grafik dadurch leidet.

    • @Che5ter23
      @Che5ter23 Год назад

      Die können mich alle....bin zurück auf hochwertige 25 Zoll Monitore /1080p. Bildtechnisch schlagen die nach meiner Erfahrung jeden 27Zoll /2K Monitor im mittleren Preissegment bis 600 €. In Kombi mit meiner TUF6800XT bin ich für die nächste Zeit absolut im sicheren Hafen.

  • @Alvin-Seville_NBG
    @Alvin-Seville_NBG Год назад

    mich würde mal interessieren wie sich die RTX karten ab der RTX30 Serie verhalten an einem 16:9 Full-HD 144hz monitor beim Rendern & Gaming??? weil die ja so viel ich weis glaub eher für 4K Ausgelegt sein sollen🤔oder ob man da Zwangshaft ein 4K Monitor bräuchte für wenn einem Full-HD an der Auflösung ausreicht.

    • @SuperiorToiletTissue
      @SuperiorToiletTissue Год назад

      Keiner hindert dich daran, die Karte an einem 1080p Panel zu verwenden, du verschwendest höchstens etwas potenzielle Rechenleistung, weil du die Karte nicht komplett ausgelastet bekommst. Es ist auch egal, welchen Monitor du benutzt, wenn du Videos renderst. Relevant sind die Ausgabeparameter (Auflösung, Bildrate, Bitrate).

  • @floriandilewski8321
    @floriandilewski8321 Год назад +1

    Was haben der Held der Steine und der8auer gemeinsam? Probleme mit Stickern. :D

  • @super-booster4775
    @super-booster4775 Год назад

    Cooles Video Roman, ich wäre Dir sehr verbunden wenn Du doch bitte ein Video machen könntest zu den "4070TI OS" Grakas mit ASUS und weiteren Herstellern wie in diesem Video. Mit Ausbau der Backplate usw. Danke und schönes Wochenende, Gruß aus Berlin HSH.

  • @Theodor_B.
    @Theodor_B. Год назад

    die Ichill sieht vom Design her aus wie früher die Karten von Asus, ich lieb das Design. Gainward Phantom ist da momentan am schönsten

  • @hotspotkage7998
    @hotspotkage7998 Год назад +1

    Würde es eigentlich was bringen solche Phasen die nicht hinzugefügt wurden, diese zu ergenzen?

  • @ForboJack
    @ForboJack Год назад +45

    AMD Karten werden echt mit jeden nvidia Release immer attraktiver.

    • @maxmustermann2370
      @maxmustermann2370 Год назад +3

      Sehe ich ähnlich aber man darf nicht vergessen das dies auch nur eine Notlösung ist sofern man unbedingt eine neue Karte braucht.
      Hab noch ne 2080Ti vor dem Release der 3080 für 500€ ersteigert. Weiterhin 0 Gründe auch nur daran zu denken etwas zu investieren. Wenn Intel nicht langsam mal in die Pötte kommt ist der Markt für vernunftorientierte Gamer quasi tot. Adé PC Masterrace.

    • @Fairwild1988
      @Fairwild1988 Год назад +3

      @@maxmustermann2370 hasb ne 3070ti letztes jahr geholt .,.jezt hab ich zuwenig vram -.- Leistung ansonsten top ...werd in 2 jahren auich zu amd wechseln wenn nvidia 1) die preise net senkt und 2) nicht mehr vram verbaut.

    • @Babarian
      @Babarian Год назад +7

      Im Mind⭐Star gibt es in letzter Zeit immer mal zwischendurch die größte AMD Karte der vorherigen Generation (RX 6950 XT) von diversen Herstellern. Zuletzt an Ostern für 649,- 😉

    • @HBerg-jy9ls
      @HBerg-jy9ls Год назад +2

      @@maxmustermann2370 Intel hat schon sehr viel Fortschritt mit der ARC gemacht, aber Treiberoptimierung für eine 3D Beschleunigerkarte, ist halt was anderes als für eine iGPU. Das braucht halt seine Zeit und Intel arbeitet ja auch schon an die 2. Gen der ARC, aber vor 2024, wenn nicht sogar erst 2025, wird die nicht kommen.

    • @HBerg-jy9ls
      @HBerg-jy9ls Год назад

      @@Fairwild1988 Typisch NVidia halt, verlangen Mondpreise und sind dann geizig mit dem VRAM. Ein Schelm wer Böses denkt, dass sie das absichtlich machen, damit du die teueren Modelle kaufst 🙂

  • @optimalsettings
    @optimalsettings Год назад +5

    Das mit der Idle Differenz war doch schon bei der 4090er. FE=ca. 10W, Cutom: 30-40W. Keine Ahnung was die AIB's da falsch machen.

    • @askat1085
      @askat1085 Год назад

      sieht man ja eigentlich beim auseinandernehmen. Mehr Phasen, RGB, mehr Lüfter > Zieht alles Strom. Wenig, aber es läppert sich

    • @optimalsettings
      @optimalsettings Год назад

      @@askat1085 Es betrifft auch billige 4090er ohne RGB und mit wenig Phasen. Z.B. MSI Ventus. Und im Idle sind die Lüfter aus.Das muss ein anderes Problem sein. Evt. behält Nvidia das Geheimnis für sich oder es liegt an der Platine oder am Bios.

    • @GamingchannelLP
      @GamingchannelLP Год назад

      @@optimalsettings Alles, Die Bauweise, das Bios und die Platine.
      Mehr Kerntakt braucht mehr Spannung das braucht mehr Strom, Die FE ist eigentlich immer auf einen Level die Customkarten werden meistens ans Limit übertaktet.
      Die Karten werden aber generell im Standart zu hoch eingestellt was Strom und Spannung angeht, wenn man sieht wie weit man die 4000er Karten im Powertarget und Undervolting begrenzen kann beweist es ja schon.

    • @optimalsettings
      @optimalsettings Год назад

      @@GamingchannelLP die fe ist nicht langsamer getaktet als aib's. Außerdem gehts um den verbrauch im idle. Unter last sind alle gleich.

    • @optimalsettings
      @optimalsettings Год назад

      @@GamingchannelLP die fe ist nicht langsamer getaktet als aib's. Außerdem gehts um den verbrauch im idle. Unter last sind alle gleich.

  • @marcel1463
    @marcel1463 Год назад

    Ich weiß nicht, früher waren die custom Karten irgendwie immer deutlich stärker wie die Referenz. Was ist da nur los bei Gainward, Zotac und co. haben die alle ihre Arbeit verlernt?

  • @HazeBaze
    @HazeBaze Год назад

    Naja Spulenfiepen wird wenn ich mir in wharscheinlich 2 Jahren eine neue Karte kaufe auf jedenfall ein Thema sein, da auch die nächste Karte wieder Custom Wassergekühlt wird. Und meine RTX 3080 Asus Tuf Gaming ist da schon krass mit dabei mit Spulenfiepen. Wenn da drei Lüfter montiert sind hört man das halt nicht.
    Apropo Strompreis, Wenn du so eine Rechnung machst, sag bitte auch dazu mit wie viel Cent pro kW7H du rechnest. Wäre für mich besser zum nachvollziehen und für manche andere auch :)

  • @b1ini
    @b1ini Год назад

    wenn ich die platine so sehe, hoffe ich auf karten im itx format. da tut sich durch die gestiegene leistungsaufnahme die letzten jahre wenig.

  • @mad0nion929
    @mad0nion929 Год назад +5

    Irgendwie komme ich nicht wirklich in Aufrüst Laune, ich habe seit November 2021 eine Rx 6800XT und bisher gibt es keine Karte, deren Aufpreis zum Restwert meiner aktuellen sich im Leistungszuwachs verhältnismäßig attraktiv gestalten würde. Ich spiele aber auch nur in 1440p und max 75 Hz und das anspruchsvollsten Game wäre in meinem Fall Far Cry 6, alles andere schluckt weniger Leistung. 😅

    • @jojosworlds1208
      @jojosworlds1208 Год назад +4

      Da brauchst eh noch nicht aufrüsten bis zur nächsten Generation

    • @keine_ahnung_wie_der_heisst
      @keine_ahnung_wie_der_heisst Год назад +5

      du hast gefühlt die so 6. schnellste karte momentan und die willst schon upgraden wtf

    • @KalimaTV
      @KalimaTV Год назад +2

      Bro habe auch die 6800XT - was willst du da aufrüsten? Die hat genügend Power und VRAM für ne ganze Weile.

  • @ShowXTech
    @ShowXTech Год назад

    Irgendwie kommt mir diese Video so bekannt vor (besonders ab 9:48)

  • @jlmpc8733
    @jlmpc8733 Год назад

    Mit dem Anschluss an der Immo karte ist doch egal, der Stecker geht doch eh nicht richtig rein :P

  • @ganjafield
    @ganjafield Год назад

    2:00 lol, was ist das denn? Das ist ja schon fast Körperverletzung wenn man das Kabel mit dem Finge ab bekommen will. Schön dass du die Inno3D so kritisierst. Das Design ist wirklich an vielen Ecken fragwürdig.

  • @michelschmitz6810
    @michelschmitz6810 Год назад +1

    Hallo Roman, ich habe viele Videos von der Review der 4070 angeschaut. Aber deines ist wieder am besten erklärt. Man merkt dein großes Fachwissen sehr.

  • @Banana-Iphone
    @Banana-Iphone Год назад

    Das mit den Stickern macht Inno3d leider bei allen Modellen so 😬 ich hab die Stickerflut auf meiner 4090 iChill auch und alle sind Warranty Void if removed, damitst auch ja nix runternimmst 🤮

  • @dharkbizkit
    @dharkbizkit Год назад

    die pcbs sind echt kurz. das packt den stromanschluß sehr weit nach vorne. bin ich persönlich kein freund von, weils mir die optik eines grade laufenden kabels ruiniert. denn atm sitzt an meiner karte der anschluss so weit hinten, das ich das kabel grade runterziehen kann und es unten in einem gehäuseauschnitt verschwindet. in dem falle, müsste das kabel dann zwigend schräg laufen.. kleinigkeit und pingelig, ich weiß..

  • @DIYLinda
    @DIYLinda Год назад +2

    06:55 - lichen Dank dir dafür... das ist genau das was ich stets bei den anderen vermisse und dich dafür schätze das du es so auf den Punkt bringst... Ich habe das Gefühl viele satteln das Pferd von Hinten mit der Geldsparerei wo ich mir nur denke wie kann man das so vertreten wenns hinterher eigentlich mehr kostet.... danke das du da anders denkst und es auch sagst

  • @akantor129
    @akantor129 Год назад +1

    Meine aorus1080ti denkt sich einfach nur "GIB MIR MEHR" XD die 4070 ist mal langsam ein Grund zu wechseln gerade auch wegen der Effizienz aber auch, nur wenn er Preis stimmt ansonsten bleibt mein Baby mir noch eine lange Zeit erhalten.

  • @danieltischner2332
    @danieltischner2332 Год назад

    Gerade der moderate Stromverbrauch führt mich immer wieder zur 4070... Ausserdem bin ich ein DLSS3 und RT Opfer :)
    Ne RX wäre von der Leistung her an sich besser, aber die verbrauchen einfach deutlich mehr Strom. Ich zocke halt einfach zu viel da macht das schon was aus im Jahr. Und wenn ich meine Karte versetze und etwas drauf lege wäre der Preis nicht mehr so das Problem. Schwere Entscheidung ist das leider... Würde die Karte 550€ kosten dann würde ich nicht überlegen.
    Aber cooles Video, danke.

  • @volkerrode4980
    @volkerrode4980 Год назад

    Typo in Slide @ Minute 4:00 "Pheonix" !

  • @samuelfussinger283
    @samuelfussinger283 Год назад

    Ich habe mal eine Frage vielleicht kann mir ja hier jemand noch eine Idee bringen. Ich habe eine 3070 ti von MSI, soweit funktioniert auch alles. Nur Valorant chrashed durchgängig schon beim starten (alte GPU Vega 56 funktioniert problemlos), selbst bei einem neuen cleanen windows install. Habe ein ähnliches problem bei JaysTwoCents gesehen. Driver und alles ist die neuste Version

  • @timba271
    @timba271 Год назад +4

    Ich bin nach wie vor sprachlos wie teuer es derzeit ist upzugraden, meine 1080 kommt so langsam an ihre grenzen aber selbst für 400€ bekomme ich nur marginal bessere Leistung :(

  • @letsrocknet
    @letsrocknet Год назад +9

    Ich warte auf die kleineren RX Modelle. Einfach weil ich Nvidia kein Geld nachschmeißen will. Meine Hoffnungen liegen auf der 7800 oder 7700... Preistechnisch Wette ich, dass AMD aber genauso gierig auf unsere Scheine sein wird.

    • @waldowaldo1980
      @waldowaldo1980 Год назад

      Was AMD momentan mit ryzen CPUs und am5 Platform abzieht....dagegen ist Nvidia und Intel Weisenknaben

    • @mimon6706
      @mimon6706 Год назад +1

      AMD bietet mit der 6800XT ja jetzt schon eine bessere Alternative zur 4070.
      660€ für eine langsamere Karte mit weniger Speicher sind ein schlechter Witz.

  • @Maik2325
    @Maik2325 Год назад

    Das mit der NDA hätten die sich echt Sparen können, aber was soll man dazu noch sagen.
    Zu den Unterschieden, finde ich dann doch schon groß. Die FE Version ist zwar Deutlich kleiner, hat da aber nur 2 Lüfter dran.
    Selbst wenn man das Power Target bzw. Untervoltet werden dies FE karten immer 10grad Wärmer sein.
    Ich bevorzuge dann doch lieber mit 3 großen Lüftern und eine Gute Wärmeabfur und dafür sind sie auch ziemlich leise.
    Setzt man nun das Power Target runter bzw. Untervoltet man sie, ist das Spulenfieben komplett weg und trotzdem unhörbar bei gleicher Leistung aber wie die FE aber deutlich Kälter.

  • @ThirdLife86
    @ThirdLife86 Год назад +1

    Zusätzlich zum Verbrauch kommen dann halt auch AV1 decode/encode oder Features wie DLSS3 FG. Bevor ich HEUTE also ne 3080 kaufe wäre eine 4070 sicher die bessere Wahl. Teuer ja, aber wenn schon teuer dann auch alles mitnehmen was geht.

  • @daxtertricks
    @daxtertricks Год назад +2

    Meddl Loide

  • @merkel_user
    @merkel_user Год назад +1

    Ich hab eine 2060 und fange mit sim racing an. Ich glaub jetzt werde ich upgraden.

  • @schortkramer4405
    @schortkramer4405 Год назад

    geil, dass du jetzt auch Spulenfiepen testest, aber dafür wären mind 240 hertz schon besser, weil das angeblich bei high fps verstärkt auftritt.

  • @dvr1337
    @dvr1337 Год назад +2

    Ich versteh es trotzdem nicht so ganz wieso ich früher NIE spulenfiepen hatte bei keiner highend Karte

    • @Anderten1989
      @Anderten1989 Год назад +2

      Andere Leistungsaufnahme, geringere Mhz, schlechtere Kühlung (warme Spulen sind leiser), viel geringere FPS. Aber ja vielleicht auch vermeintlich bessere Komponenten.

  • @karlheinz5384
    @karlheinz5384 Год назад

    Ich habe die 3080 OC die hat ja ca 2000MHZ Takt die 4070 hat ca 700mhz Takt mehr und ist nur minimal schneller bzw gleich schnell?
    Sollte die nicht um einiges mehr Leistung bringen?

    • @OCX600RR
      @OCX600RR Год назад

      Eine Grafikkarte hat viel mehr zu bieten als nur die Frequenz der Kerne. Die 3080 10 GB hat 8704 CUDA-Kerne, 272 TMUs und 96 ROPs. Der 4070 hat nur 5888 CUDA-Kerne, 184 TMUs und 64 ROPs.

  • @rubindublone5932
    @rubindublone5932 Год назад

    3,8w im idle?? Meine 3060ti zieht mit 2 qhd 165 (bzw einer 144hz) Monitoren 50-60w

  • @rubindublone5932
    @rubindublone5932 Год назад

    Keine timestamps?

  • @manuelthallinger7297
    @manuelthallinger7297 Год назад

    Vor allem dabei bleibts ja nicht, wenn du dann eine von den Sparsammeren 3D-Vcache CPUs hast die teilweise die hälfte vom Intel Äquivalent schlucken bist dann schnell mal bei 150 im Jahr :D

  • @coffeelake5568
    @coffeelake5568 Год назад

    Früher waren 40mhz viel😅. Muss man schon warten mit dem heftigen Ergebnis 😅Ja kannst sagen die Karten sind Leistungtechnisch gleich. Aber der Kühler ist natürlich schon ein gewaltiger Unterschied 😮

  • @drechenlard6491
    @drechenlard6491 Год назад

    alter warum ist die fe so winzig? habe mir ne strix 4070ti gekauft und dafür ein extra gehäuse gebraucht :D

  • @orni2490
    @orni2490 Год назад

    spulenfieben bei meiner 1080Ti ist die Hölle so was von laut
    würde es Sinn machen jetzt auf ne 4070Ti zu wechseln? oder warten bis die Preise mal fallen sollten

    • @oliverbecker3443
      @oliverbecker3443 Год назад

      Hast du es mit Undervolting versucht? Dadurch konnte ich bei meiner 6900 XT das Spulenfiepen beseitigen.

  • @xMinifutzi
    @xMinifutzi Год назад

    Optisch finde ich die FE immer noch sehr nice. Aber warum gab es keine 4070 ti FE?

    • @Julien_RL
      @Julien_RL Год назад

      Ich schätze mal, weil die 4070 ti eigentlich eine 4080 12 GB sein sollte. Das haben die dann umgeworfen und eine 4070 ti draus gemacht.

  • @Jonnyamykiller
    @Jonnyamykiller Год назад +2

    Was würde denn PAssieren, wenn man bei der FE die fehlenden Phasen bestücken würde? BZW was haben die denn für ein Sinn? Und ich seh schon nächstes Projekt: "RTX4070 mit 2X 8 Pjn Anschluss im Test" xD

    • @GamingchannelLP
      @GamingchannelLP Год назад

      Ganz einfach als dieses PCB geplant wurde hat man sich die Option der 8 Pin Anschlüsse offen gelassen für den Fall das man den neuen Stecker nicht verbauen will aus Gründen.
      Es hat immer irgendwas mit Geld zu tun bei sowas.

  • @TurricanNP
    @TurricanNP Год назад

    Sind 3 Lüfter-Modele immer leiser als 2 Lüfter-Modele?

    • @kumaashiatoai
      @kumaashiatoai Год назад

      Sollte so sein, zumindest denke ich das.

  • @Hellsfoul
    @Hellsfoul Год назад

    Nachdem die 4070 powerlimitiert ist, bin ich schon auf den Shuntmod gespannt :-D

  • @timgoeppert
    @timgoeppert Год назад

    Wieso sind für die kleinen Platinen immer so ausladende kühler nötig... Früher ging das doch auch.

  • @juffma
    @juffma Год назад +5

    Ganz ehrlich, ich warte auf die Einstiegs Karten. Zur Zeit nutze ich eine GTX 980 FE und ich brauche zwar langsam mehr Leistung aber nicht für den Preis, ich warte entweder auf die 4050 oder die neue Arc Gen

    • @karateschnitzel1337
      @karateschnitzel1337 Год назад

      die rtx 4050 soll nur 6 gb vram bekommen denn lieber doch die rtx 4060 die soll 8 gb vram haben

    • @juffma
      @juffma Год назад

      @@karateschnitzel1337 kann ich mir wahrscheinlich bei den Preisen nur nicht leisten, ich will halt einfach keine 500€ für eine gpu ausgeben. Auch wenn es stimmt das 6gb langsam wenig sind

    • @Fairwild1988
      @Fairwild1988 Год назад

      @@karateschnitzel1337 8gb is deutlich zu wenig jezt schon ...traurig das -.-

    • @nickschwenderling7914
      @nickschwenderling7914 Год назад

      Ich bin noch zufrieden mit meiner GTX 970

    • @karateschnitzel1337
      @karateschnitzel1337 Год назад

      @@Fairwild1988 ich habe gerade eine GTX 1070 und bin zufrieden auf fhd aber ich möchte dieses Jahr auf wqhd wechseln da werde ich mir die rtx 4070 holen