Warum Intel immer besser wird! | Arc A770 16 GB im Nachtest

Поделиться
HTML-код
  • Опубликовано: 1 июл 2024
  • Warum Intel immer besser wird! | Arc A770 16 GB im Nachtest
    ▶ Bei unseren neuesten Benchmarks staunten wir nicht schlecht: Keine Grafikfehler, keine Leistungsprobleme - im Gegenteil, Intels GPU-Topmodell Arc A770 16GB macht eine bessere Figur denn je. Einen aktuellen Überblick inklusive Prognose für den Nachfolger Battlemage bekommt ihr im Video.
    PCGH-Artikel zum Video-Beitrag:
    ▶ Arc A770 16GB im Nachtest: www.pcgh.de/aid,1436321
    [Werbung]
    Stürze dich jetzt in actiongeladene strategische Schlachten auf hoher See und schließe dich Millionen anderer Spieler in World of Warships an!
    Jetzt World of Warships kostenlos spielen! www.pcgames.de/wows23_bumper_out
    Timestamps:
    0:00 Intro
    0:35 Bei Intel tut sich was
    1:49 Arc A770 16GB Specs
    3:55 Spiele-Benchmarks Rasterizing
    8:04 Spiele-Benchmarks Raytracing
    9:48 Früher war alles schwächer!
    11:08 Synthie vs. Realität: 3DMark Timespy
    11:59 Synthie vs. Realität: 3DMark Port Royal
    13:11 Leistungsaufnahme + Energieeffizienz
    15:36 Preis/Leistung
    17:20 Ausblick auf Battlemage (Arc-B-Serie)
    Die neuesten
    ▶ Gaming-Monitore*: amzn.to/2ttcJiW
    ▶ Gaming-Headsets*: amzn.to/2sPKQQx
    ▶ Gaming-Tastaturen*: amzn.to/2sPD9d6
    ▶ Gaming-Mäuse*: amzn.to/2tPCgVJ
    ▶ Gaming-Mainboards*: amzn.to/2sPprH8
    PC Games Hardware:
    ▶ Mehr News bei PCGH: http:/www.pcgh.de/news
    ▶ Helft uns mit Amazon-Käufen*: amzn.to/2sPzv2w
    ▶ PCGH Webseite: www.pcgh.de
    ▶ PCGH @ Discord: / discord
    ▶ PCGH @ Facebook: / pcgameshardware
    ▶ PCGH @ Twitter: / pcgh_redaktion
    ▶ PCGH @ Instagram: / pcgh.de
    ▶ PCGH @ RUclips: / pcgameshardware
    ▶ Frag PCGH per Mail: post@pcgh.de
    (*) Affiliate-Links haben wir mit einem Sternchen gekennzeichnet. Wir erhalten für einen Kauf über unseren Link eine kleine Provision und können so die kostenlosen Videos teilweise mit diesen Einnahmen finanzieren. Für den User entstehen hierbei keine Kosten.
    #pcgh #gpu #intelarc
  • НаукаНаука

Комментарии • 181

  • @pcgh
    @pcgh  6 месяцев назад +106

    Wer freut sich auch wie Raff auf Battlemage? 🧙‍♂

    • @troeteimarsch
      @troeteimarsch 6 месяцев назад

      Gute Besserung :* :)

    • @nord2t_
      @nord2t_ 6 месяцев назад

      trotzdem kommt intel nicht an nvidia ran, ray tracing suckt derbe bei intel

    • @matthiasredler5760
      @matthiasredler5760 6 месяцев назад +2

      @@nord2t_ Solange bis sie es werden. Markentreue in allen Ehren aber wenns in der Summer besser wird langts ja auch. Vielleicht will Intel auch nicht in den High Ende Markt 🤔

    • @matthiasredler5760
      @matthiasredler5760 6 месяцев назад

      Gibts schon irgendwelche Specs in der Vorschau für Battlemage?

    • @masterluckyluke
      @masterluckyluke 6 месяцев назад +2

      Würde mich sehr freuen, wenn Intel den Markt etwas aufmischen könnte.

  • @Nybelungen
    @Nybelungen 6 месяцев назад +18

    Guter Test wie immer.
    Ich hatte vor 7 Monaten die Wahl zwischen die Arc oder eine gebrauchte RX6900 XT ( 390 Euro )
    Ich müsste also nicht lang überlegen.
    Nun sieht Intel was AMD leisten müsste, um so weit zu kommen ( CPU und GPU )
    Was schön ist, Intel zeigt gute Arbeit was Treiber betrifft und es ist mir auch bewusst dass Intel erstmal testet um bald fuß zu fassen.
    Ich wünsche aber dass Intel bald im Mittelfeld (WQHD )irgendwann mitspielt damit der markt dementsprechend mehr Auswahl zu Verfügung stellt.
    Bis dahin, beobachte ich wie Intel sich entwickelt und warum auch nicht auf die nächste Generation umzusteigen.
    Auf jeden fall, bei mir, ist alles offen so lang der Preis stimmt denn ich bezahle mit Sicherheit kein 800 Euro für eine Grafikkarte um 160 fps zu haben im Wqhd !

  • @krauterhexer
    @krauterhexer 6 месяцев назад +8

    Ich hab eine ARC A750 LE , und bin sehr zufrieden damit. War eigentlich nur mal zum testen in meinem Streaming&Rendering PC, und war sehr überrascht von der Treiberentwicklung und Leistung. Wenn dann nächstes Jahr die Battlemage Karten kommen, werd ich mir sicher eine B770 holen. Einzig was ich hoffe, dass sie den Leerlauf Verbrauch noch besser in den Griff bekommen, da ist sie doch recht hoch.

  • @maganius
    @maganius 6 месяцев назад +5

    Ich hab die A770 damals gekauft und bis vor ca. 1 Monat im betrieb gehabt. Ein wirklich tolle Karte, optisch wunderschön (Hab die Sonderedition mit 16 GB), Leistung topp. Einzig der Stromverbrauch in Idle war mir persönlich ein Dorn im Auge. Hab sie jetzt getauscht gegen eine 7800XT (aus Gründen), aber in ihrem Preissegment ist die A770 wirklich eine gute Karte. Und ich kann nur hoffen das sich Intel hier als neuer Player festsetzen kann.

  • @jimboblaminat
    @jimboblaminat 6 месяцев назад +4

    Hab mir im Oktober die A770 16GB für knapp über 300€ holen können. Es freut mich sehr zu sehen, dass es eine so starke Verbesserung gibt. Auch wenn ich mich ehrlich gesagt noch über Fehler bei einigen Programmen aufrege.

  • @morcjul
    @morcjul 6 месяцев назад +3

    Raff wie immer sehr informiert und sympathisch 👍

  • @mba6044
    @mba6044 6 месяцев назад

    Sehr informatives Video. Aber so wie es damals war, dass man die Karten auch in Aktion sieht wäre auch mal wieder schön. Guten Rutsch!

  • @dasRockewolf
    @dasRockewolf 5 месяцев назад +2

    Ich hab eine Arc A770 limited 16GB. Hab sie jetzt zirka 8 Monate. Ich freue mich jedes mal wenn es unten blinkt und da steht, neuer Treiber vorhanden. Immer wieder einen Zuwachs an Leistung. Ich bin sehr zufrieden mit der Karte. Sie läuft ruhig und alle Titel spiele ich auf WQHD hoch bis ultra. Beispiel Forza Motorsport läuft auf WQHD ( Raytracing auf dem Auto ) mit 70-75 FPS. Das reicht absolut. Freue mich auf die kommenden Treiber und vielleicht noch ein neues Video zu Arc Karten in einem halben Jahr. Die 4070 kann noch geknackt werden :D

  • @chrisw5145
    @chrisw5145 6 месяцев назад +3

    Ich könnte ihm den ganzen Tag zuhören. Ist irgend spannend und beruhigend zugleich :)

  • @Explo-gr1kx
    @Explo-gr1kx 6 месяцев назад

    Wie sieht eigentlich die Performance von Intel GPUs aus, wenn man mit der Karte arbeiten möchte? Also Blender, Adobe-Programme etc. etc.

  • @Monastyre
    @Monastyre 6 месяцев назад +5

    Richtig gut.
    Konkurrenz belebt das Geschäft.
    Für reine Zahlenjäger oder Plug&Play Spieler ist das natürlich Nix. Aber mich erinnert mich das sehr an meine gute alte Kyro2 - 64MB.
    Der Nerd in mir ist schon lange geweckt.

  • @OnlyHans84
    @OnlyHans84 6 месяцев назад +1

    meine A770 LE macht mir schon große Freude. Bin daher gespannt auf den Kampfmagier und habe vorsorglich schon ein paar €uronen bei Seite gelegt. Vielen Dank für euren Nachtest.

  • @chrisw5145
    @chrisw5145 6 месяцев назад

    #FragPCGH: Wie nahe läuft die 7800XT am Effizienz-Sweetspot? Überlege sie in ein Mini-itx Gehäuse einzubauen.

  • @TMTM_81
    @TMTM_81 5 месяцев назад +2

    Richtig angenehm Dir zu zuhören

  • @amiganer681130
    @amiganer681130 6 месяцев назад +1

    Gibt es auch Treiber unter Linux?

  • @Veptis
    @Veptis 6 месяцев назад

    Ich habe meine A750 seit November 2022 und war theoretisch einer der ersten Besitzer in Deutschland. Allerdings war es auch teilweise echt schwierig. Immernoch gilt die Faustregel: nur jeden zweiten Treiber und immer erst eine Woche warten damit man größere Probleme umgeht.
    Ipex ist aber immernoch schwierig und sehr langsam. Auch kann ich mit 8GB kaum was anfangen. Ich habe immernoch keine Spaß in spielen wie GTA Online order CS2. Auch kann Star Citizen gar nicht richtig models rendern.
    Da ich keine guten Produkte sehe, wird die A750 auch als stop gap in meinem nächsten System verweilen, bis etwas nutzbares auftaucht.

  • @lorsheckmolseh3345
    @lorsheckmolseh3345 6 месяцев назад

    Das Problem des hohen idle-Verbrauchs verschwindet oder wird stark reduziert, wenn man die Grafikausgabe mittels Optimus über iGPU und HDMI auf dem Mainboard aktiviert. Die fast identische Mobilversion der 770er ohne eigene Ausgabe zieht nur wenige Watt im Leerlauf.

  • @andired3415
    @andired3415 6 месяцев назад

    Könnt ihr auch mal bitte einen Nachtest bei dem Intel NUC12SNKi72, der hat ja auch eine 16gb ARC A770m drin.

  • @frankreichfranzosen
    @frankreichfranzosen 2 месяца назад

    Sehr angenehme Vortragsweise

  • @xyantes
    @xyantes 6 месяцев назад

    Ich habe die Intel Arc A770 16GB OC in der Acer Befrost Variante und bin damit sehr zufrieden. Ursprünglich wollte ich sie eig. nicht mal einsetzen, sondern INTEL damit supporten, weil ich hoffe, dass sie nicht direkt wieder aufhören. Inzwischen, nach den ganzen Treiberupdates, nutze ich sie in einem PC zum spielen z.B. Baldurs Gate 3 mit hohen Settings.

  • @Lotus967
    @Lotus967 6 месяцев назад +1

    Die ARC A770 nutz ich selbst und kann nicht mal meckern die ist sogar flotter als meine AMD mit 12 GB und beide hab ich eingestellt das die die kein limit am strom usw haben ( die amd ist im anderen PC, verbaut alles von amd, bis auf Grafikkarten).

  • @alexslf3132
    @alexslf3132 6 месяцев назад +2

    Wird interessant, Konkurrenz belebt das Geschäft. Viel Erfolg für Intel.

  • @merlinboss509
    @merlinboss509 6 месяцев назад

    Warum eigentlich kein low budget gaming pc mit 13600k bzw 14600k und Intel ark 770?

  • @Nikioko
    @Nikioko 6 месяцев назад +4

    Intel Arc wird vielleicht in ein paar Jahren etwas sein, aber derzeit sind die noch in der Findungsphase. Ich würde also die nächste Generation abwarten.

    • @AlexanderWagner264
      @AlexanderWagner264 6 месяцев назад +1

      Nächste wird scheppern vram politik stimmt schonmal

  • @the100ways6
    @the100ways6 6 месяцев назад

    konkurrenz ist immer gut und wir als konsumenten, haben mehr davon. ich denke battlemarge wird ziemlich stark werden, die treiber scheinen bis dahin gut zu sein, und werden nochmals preislich angreifen, das könnte die generation werden, vorallem mit intels frame generation

  • @hw5866
    @hw5866 5 месяцев назад

    Klasse Video.

  • @FINNdeischgut
    @FINNdeischgut 6 месяцев назад +2

    Ich freue mich mega auf die neuen Intek Grafikkarten.
    Ich hoffe wirklich extrem, dass Intel gute Preis/Leistungs Karten rausbringt, was Marketing technisch auch die Beste Option für die Zukunft wäre, weil die Leute müssen ja erst mal die Karten kaufen, damit Intel sich beweisen kann und die einzige Option wäre ein so gutes Preis-Leistungsverhältnis, dass den Leuten die "Angst" vor Neuem egal wird und die Karten trotzdem kaufen.
    Die zweite Option wäre natürlich eine Intel Grafikkarte, die in sämtlichen Tests die Leistung der RTX 4090/5090 (Je nachdem welche zu dem Zeitpunkt die Top Grafikkarte ist) übertrifft, aber das wird nicht geschehen, deswegen muss Intel erst mal auf große Gewinne durch den Verkauf verzichten um sich zu etablieren.
    Und da profitieren natürlich die Kunden, also wir, von.
    Wenn Intel eine andere Entscheidung trifft und versucht preislich mit Nvidia zu konkurrieren, werden sie gnadenlos verlieren und das gesamte Geld für die Entwicklung, wurde in die Tonne geschmissen, weil niemand so blöd wäre sich eine Grafikkarte von einem komplett neuen Hersteller (in dem Sektor) zu kaufen, die weder preislich, noch bei den Features Vorteile bietet.
    Preislich mit AMD zu konkurrieren, könnte funktionieren, wenn die Raytracing Leistung weiterhin besser als bei AMD bleibt und Preis und Raster Leistung vergleichbar sind.
    Dann müsste man halt abwägen, ob man lieber die ausgereiften Produkte von AMD nimmt oder lieber die bessere Raytracing Leistung, aber dann gegebenfalls ab und zu mit Problemen zu kämpfen hat.
    Natürlich sind AMDs Treiber und Software auch nicht fehlerfrei, aber man weiß zumindest was man bekommt.
    Wäre schön, wenn Intel weiterhin bei einem breiten Speicherinterface bleiben würde und in jeder Karte genug Speicher verbauen würde.

  • @midibenni
    @midibenni 6 месяцев назад

    Performen die ARC Karten auf einen Intel Board + Intel CPU genauso gut wie auf einen AMD Board ?

    • @antispackftw2675
      @antispackftw2675 6 месяцев назад

      Jo. Es muss nur ReBAR verfügbar sein.

  • @MaRio-lh1qv
    @MaRio-lh1qv 6 месяцев назад +3

    Also ich find's mega cool und hoffe, dass Intel echt Fuß fassen kann, im Grafikkartensektor 😀 Könnten "echte" Alternativen zu Nvidia werden :)

  • @crowATlinux
    @crowATlinux 6 месяцев назад +1

    Fließen die Optimierungen auch in den Linux Treiber ein oder ist das wieder so ein Windows only Ding?

    • @OraOraOra
      @OraOraOra 6 месяцев назад

      Würde mich auch mal interessieren ...
      Aber Intel hat doch ihre eigene Linux Distro "Clear Linux"

    • @crowATlinux
      @crowATlinux 6 месяцев назад

      @@OraOraOra Ja aber die Dirstro hat ja erst mal nichts mit den Kernel / Mesa Treiber zu tun, da hat Intel ja quasi keinen Finger drauf. Ich habe leider nur eine A380 als reine Capture Card. Mich würde es ja schon ggf. reitzen in der nächsten Generation eine Intel Arc Karte einzubauen, aber was bringt es wenn es dann keine guten Linux Gaming Treiber gibt.

    • @OraOraOra
      @OraOraOra 6 месяцев назад

      @@crowATlinux Gut.. du hast recht, das hat damit nichts zutun, ich dachte einfach nur, weil Intel seine Finger auch teilweise in Linux hat, könnte das was gutes bedeuten ...
      Ja mich reizen die Arc Karten auch. Ich freue mich auf jeden Fall auf die nächste Gen. Ich hoffe einfach, dass Intel etwas Fokus auf Linux legt. Damit gewinnen sie bei mir und vielen anderen auf jeden Fall Sympathiepunkte. Aber diese Gen ist mir leider noch zu unsicher ...

    • @crowATlinux
      @crowATlinux 6 месяцев назад

      @OraOraOra Intel muss ja zwangsläufig wegen des Server-Marktes auf Linux setzen. Die meisten Server laufen halt unter Linux und nicht Windows. Von daher hast du schon recht mit den Finger im Linux was uns Linuxer auch im Desktop Bereich hilft.
      Ich habe bisher nur ein 8 Monat altes Video gesehen, wo man die Arc Karten unter Linux Gaming getestet hat. Da war die Arc Karte noch deutlich unter der Windows Performance. Aber leider keine aktuellen.
      Aber mal sehen was da noch kommt, aktuell bin ich mit der AMD 7900XTX noch zufrieden.

    • @OraOraOra
      @OraOraOra 6 месяцев назад

      @@crowATlinux Jap, warten wir mal ab.
      7900XTX ist schon ein feines Teil, habe momentan eine 6950 XT, gepaart mit dem 5800x3D. Momentan nutze ich openSUSE Tumbleweed. Hab auch schon Nobara getestet, welches mir auch sehr gefallen hat. (Bin noch nicht so lange auf Linux unterwegs und dualboote momentan noch mit Win11)
      Welche Distro nutzt du eig?

  • @svengehler4600
    @svengehler4600 6 месяцев назад

    Ich hab da auf jeden Fall eine Frage zum Thema ARC.
    In meiner Tischlerei erstelle ich für meine Kunden gerenderte Bilder von Möbeln Räumen und Küchen, damit man sich das besser vorstellen kann. Aktuell rendert das mein i5 noch, aber ich möchte 2024 mir einen neuen Rechner zulegen. Alles komplett neu höchstwahrscheinlich i7 14700K und 64 GB Arbeitsspeicher. Ich habe immer viele Anwedungen paralell offen das schafft mein aktuelles System einfach kaum noch.
    In Zukunft werde ich über meine Graka rendern und eine Quadro ist mir zu teuer bzw Preis Leistung stimmt nicht. Eine RTX 5000 16 GB kostet aktuell ca 1700 - 2000€. Das können die normalen Gamingkarten heutzutage genauso zum 1/4 Preis.
    Nun zur Frage ARC oder was anderes?
    Kann die ARC 770 16 GB diese Renderaufgaben? Mich spricht vorallem der große 16 GB Videospeicher an der wird auch beim Render immer ausgelasstet sein.
    Danke für die Antwort.
    Übrigens super Videos immer schön gemacht

    • @coreleon
      @coreleon 6 месяцев назад +1

      Huhu, also was von Bekannten höre ist die Arc für sowas ein ziemliches Monster und die nutzen auch YT gerne für das Rendern. Die Quadro Karten sind ja nun auch nicht mehr so aktuell und in der Firma ziehen unsere test Geräte mit 4080 und Studio Treibern die Quadro Karten einfach ab. ABER letztere sind besser wenn richtig massiv workload drauf kippst, sprich die mal eine Woche auf 100% vor sich hin rendern. Das ist bei uns dann aber schon selten und geht da um 3D Modelle von Großmaschinen und hängt auch davon ab welche Software man nutzt, denn einige Anwendungen sind da ziemlich eigen was Treiber Unterstützung angeht und da bist dann wieder bei Nvidia, wobei da auch Gaming Karten mit Studio Treibern nutzen kannst, die sind dann auch zertifiziert für so alles was derzeit Marktüblich ist an Software. Bei Arc wäre ich mir nicht so sicher ob z.B. Inventor damit überhaupt läuft.

    • @svengehler4600
      @svengehler4600 6 месяцев назад

      @@coreleon Danke für die Antwort und den Tipp mit den Treibern. Ich weis das die Treiber mit den Spielen abgestimmt sein müssen aber das trifft ja auf CAD und Rendersoftware genauso zu. Da ist die Frage ob Intel diese Anwendungen überhaupt auf dem Schirm hat. Bei Nvidia weiß ich das es funktioniert.
      Übrigens ich muss nicht ständig rendern, das ist immer nur Projektbezogen.

    • @tiefensucht
      @tiefensucht 22 дня назад

      @@svengehler4600 Für das Rendern von Einzelbildern braucht man eigentlich nicht die Leistung der Grafikkarte. Den Rechner mal 5 Minuten eine Szene rendern zu lassen ist ja kein Weltuntergang.

  • @jetzt_gibts_beef1155
    @jetzt_gibts_beef1155 6 месяцев назад +1

    Ich finds sau cool das die Karten so gut performen. Endlich ein neuer guter Player auf dem Markt der die anderen Geldgeier - hoffentlich - mal dazu zwingt ihre Mondpreise zu reduzieren.

    • @saschapurner9579
      @saschapurner9579 6 месяцев назад

      Haha, auch wenn ich viele dieser Karten kaufe, ist es immer noch Intel von wem wir hier reden.^^ Die haben uns ja lange Gezeigt, was Gier anrichtet.^^

  • @KptnM0rg3n
    @KptnM0rg3n 6 месяцев назад +15

    Ich bin mit meiner BiFrost Arc A770 16gb voll zufrieden 😁 der Verbrauch ist mir egal, das ist ein Gaming PC und läuft nicht so oft im idle, meine PS5 hat ausserdem den gleichen verbrauch ✌️

    • @prapsschnalinen6536
      @prapsschnalinen6536 6 месяцев назад +2

      Dito, mag auch meine

    • @timschalau8425
      @timschalau8425 6 месяцев назад +1

      ahhh genau meine denke^^. hab nach langem vergleichen der modelle ebenfallf die bifrost gekauft. und wenn bei intel alles klappt wird die nächstes jahr gegen eine battlemage getauscht *g*

    • @KptnM0rg3n
      @KptnM0rg3n 6 месяцев назад +1

      @@timschalau8425 bei mir auch, am besten auch ne BiFrost 🤭

    • @EmiroS19xx
      @EmiroS19xx 6 месяцев назад +1

      Sagt mal Leute auf wie viel Grad erhitzt sich eure Bifrost unter Last bei max GPU Temp Einstellung von 90 Grad?

    • @KptnM0rg3n
      @KptnM0rg3n 6 месяцев назад

      @@EmiroS19xx es kommt drauf an. Ich hab die Verstärkung auf 50, Offset 25-50 mV (bin ich noch am Testen) Leistung 252 Watt, Temperaturgrenze 90C.
      Wenn ich die Lüfter auf Automatisch hab, wird se recht schnell heiß und bliebt so auf 85C. Wenn ich die Lüfter selber einstelle und schon vorher auf 100% gehe dann bleibt se so auf ~70C

  • @danielhastreiter6068
    @danielhastreiter6068 2 месяца назад

    Hallo zusammen,
    kann mir jemand zwecks ReBar helfen? Habe die arcA770 16GB und ein Aorus B550 elitve v2. Leider bekommen ich das mit dem ReBar im Bios nicht hin. Wenn ich die Einstellungen wie in vielen Videos ändere und speicher fährt danach der Rechner nicht hoch sondern landet immer wieder im BIOS. Danke Leute vorab für die Hilfe

    • @tiefensucht
      @tiefensucht 22 дня назад

      Das Problem habe ich mit einer nVidia, ebenfalls mit einem Board von Gigabyte.

  • @fidibus67
    @fidibus67 6 месяцев назад

    Habe eine BiFrost A770 16GB noch auf B450 mit 5700X, bin zufrieden.👍 Ist mit jedem Treiberupdate immer besser geworden. Stromverbrauch mit 32 Zoll u. Win11 arbeiten 120-140W, das geht.

  • @AnonymerTraum
    @AnonymerTraum 5 месяцев назад

    in blender ist sie leider viel viel langsamer als die 4060 auch in davinci ist die nvidie etwas vorne

  • @jurgens.9029
    @jurgens.9029 6 месяцев назад

    Und ich dachte schon 3dfx würde wieder in den GPU Markt einsteigen bei der schönen Kaffetasse 😅

  • @MA2412net
    @MA2412net 6 месяцев назад

    Intel ist auf einem guten Weg und Konkurrenz belebt das Geschäft.
    Für mich persönlich ist die Leistungsaufnahme im Desktop-Betrieb aber noch ein KO-Kriterium, mein Rechner läuft täglich viele Stunden und die meiste Zeit davon ist Office-Arbeit/Internet/Videos, Spiele nehmen prozentuell nicht so viel Zeit ein, somit wäre eine Leistungsaufnahme möglichst unter 10 Watt schon wünschenswert, vielleicht schaffen sie das ja mit einer künftigen Generation.
    Mit meiner Radeon RX6700XT komme ich aber sowieso noch eine Weile aus.

  • @Keldarahs
    @Keldarahs 6 месяцев назад

    Bin mal gespannt, wie es in drei Jahren ausschaut.

  • @LillyBlond
    @LillyBlond 5 месяцев назад

    #FragPCGH Mich würde ja interessieren wie die ARC Karten bei Farming Simulator performt bevor ich mir die Karte kaufen würde. Ich habe zZ nur eine 1050Ti und ganz ehrlich, mit "Grafikmatsche" zu spielen, macht nicht wirklich viel Spaß. Vielleicht könntet ihr das Spiel mal mit in eure Test einpflegen. Ich denke das würde auch andere FS-Gamer interessieren, weil das Spiel kommt ja so in gar keinen GraKa Tests vor. Lieben Dank PCGH

  • @sveagle
    @sveagle 4 месяца назад

    Habe die Arc A770 mit 16GB mit einem Ryzen 7 5800X und 128GB Arbeitsspeicher (Auslagerungsdatei deaktiviert).
    Mit dem System spiele ich aktuell Starfield in höchster Einstellung Ultra, läuft absolut flüssig.
    Die ARC A770 ist hier zu 95% Ausgelastet.

  • @svenf5888
    @svenf5888 6 месяцев назад

    Super Test, aber in schwierigem Umfeld. Die 7600 kostet aktuell ab 266€. Damit lassen sich viele der Abstriche mitnehmen. Die 4060 Ti 16GB ist weiterhin frech und teuer und war nicht umsonst eine der schlechtesten Karten als sie rauskam bzgl P/L. Jetzt gibt's die A770 16GB ab 311€, gut. Aber für knapp 20€ mehr bekommt man eine 6700XT, die um einiges stärker ist. RT hier als Verkaufsargument zu bringen, naja.

  • @preacher3d801
    @preacher3d801 6 месяцев назад

    Ich weiß ich bin da nun etwas euphorisch aber ich wünsche mir wirklich kleines Preisleistungswunder bei den kommenden Battlemage Karten. Intel tendiert schon seit Anfang an ihre preise massive zu überziehen. Wäre also mal wieder zeit für ein "9700 pro" wunder. Eine Karte die so heftig in die Mittelklasse einschlägt das Nvidia ins schwitzen kommt.

  • @user-zi1ip2tj8f
    @user-zi1ip2tj8f 6 месяцев назад

    Also, Asrock B450 Steel Legend, MSI Tomahawk B450/ B550 und Asus B550 ROG Strix sind kompatibel mit der ARC. Bei mir frisst die A770 LE maximal 28 Watt im Idle. Das beste ergebnis hat man mit Asus, da läuft die Karte teils nur mit 8- 15 Watt. Und zu den Preisen, da die A770 LE 16GB nicht mehr gebaut wird, gehen die Preise auf ebay gerade ziemlich rauf, teils schon über 500€... ^^

    • @f_d_corner
      @f_d_corner 6 месяцев назад

      Kannst du mir verraten wie du das gemacht hast? Habe auch de LE mit 16GB, bei mir immer 42W im Idle. Ich nutze die Karte auf einem Gigabyte H510M-H mit einem i5-11400 (RBAR natürlich an). Ich bekomme das (übrigens sehr schöne) Ding nicht unter 40W. Auch spannend für die, die es interessiert, man kann jede LED Einzel ansteuern - Jede!

    • @user-zi1ip2tj8f
      @user-zi1ip2tj8f 6 месяцев назад

      @@f_d_corner Da gibt es sogar ne Anleitung von intel für. Auf dem ASUS muss man im APM den ASMP Modus auf S4+S5 stellen und unter Windows in den Energie Optionen PCI Express auf maximales Energiesparen stellen. Musst du nach " arc a770 energiesparmodus im idle aktivieren" und auf den Golem Link clicken, PCGH lässt keine Links zu... -.-

  • @Schrotti
    @Schrotti 6 месяцев назад +1

    Meine ARC770 direkt von Intel als Limited Edition werkelt im Zweit PC und ich bin echt überrascht, was die kleine an Leistung zeigt.
    Auch die nächste Generation wird blind gekauft.

  • @daviddelucasruiz
    @daviddelucasruiz 6 месяцев назад

    Guten Tag, ich grüße Sie aus Spanien. Soweit ich weiß, übertrifft Intel Arc A770 16 GB die RTX 3060 Ti und RTX 4060. In einigen zukünftigen Treibern wird es Intel Arc A770 16 GB zwischen 5 % und 7 % übertreffen. Wenn ja, wird es gesetzt auf RTX 3070-Niveau, Grüße

  • @GamerJuli85
    @GamerJuli85 6 месяцев назад +1

    Cool. Intel GPUs bald also vor AMD...Top Video!

  • @robertbauer7018
    @robertbauer7018 6 месяцев назад

    Hab seit kurzem eine Arc A380, gepaart mit einem R7 3700x. Damit Konvertiere ich H.264 Filme in H.265 um. Das System ist sparsamer und 3-4x schneller als ein R9 5900x System. Im IDLE verbraucht der Rechner gerade mal 32 Watt und unter Last ca. 105 Watt pro Stunde. Die Quallität und der Speicherverbrauch ist nahezu identisch zum R9 5900x System. Ich bin gespannt was die neue Grafikkartenreihe bringt!

  • @Junky1425
    @Junky1425 6 месяцев назад

    Wie schaut der Linux Support aus, leider findet man dazu nicht wirklich viele Infos von News portalen, wie bei euch. Weil die dort ja mal fast nicht nutzbar waren.
    Außerdem, wie läuft die Karte bei Simulatoren, wie Gazebo, Carla, Airsim, etc. Dort hat ja Nvidia aktuell sehr die Nase vorne und ich kaufe halt ungern eine Karte, wo man hierzu nicht wirklich werte findet.

  • @Explo-gr1kx
    @Explo-gr1kx 6 месяцев назад

    Also wenn der Treiber in großen Teilen stimmt bei Battlemage und sie mit VRAM nicht geizen, dann schaue ich mal, ob es sich lohnt meine 3070 in Rente zu schicken.

  • @lorsheckmolseh3345
    @lorsheckmolseh3345 6 месяцев назад +1

    Wer Strom sparen will und einen Schnapper machen, sollte den Intel NUC12 Serpent Canyon mit einer a770m/16GB/117W TDP und 12700H 14-Kerner-Barebone für 700€ im Westentaschenformat ins Auge fassen.

  • @daisyduck8593
    @daisyduck8593 5 месяцев назад

    Wer auf so ne Karte setzt geht halt auch ein Risiko ein. Wenn Intel weiterhin damit am Markt bleibt kann es sich wirklich lohnen. Da durch die Teiber die Karte 2an Wert" gewinnt. Sollte sich jeddoch Intel entscheiden mit DGPUs aufzuhören, sitzt man auf etwas was in Zukunft wenig unterstütz wird. Bei NVIDIA oder AMD hat man weniger Risiko in dieser Hinsicht...

  • @Denniz69
    @Denniz69 6 месяцев назад +1

    Wenn diese bei PCIE 3.0 Systemen gut laufen würden hätte ich mir eine Arc zum testen geholt.
    Aber nachdem Win 11 ja ab 2025 herschend ist kann ich dann 2 ältere Systeme entsorgen die sogar The Finals schaffen... Und das ist ja CPU intensiv😐

    • @RFLCPTR
      @RFLCPTR 6 месяцев назад

      Man kann die absurden CPU Anforderungen von Windows 11 leicht umgehen

    • @masterluckyluke
      @masterluckyluke 6 месяцев назад +1

      @@RFLCPTR Absurd? 1GHz ist jetzt schon absurd? Alle CPUs seit 2017, also Alles was 6 Jahre alt ist, läuft problemlos. Was älter ist, braucht auch kein Win11, Win10 tuts da genau so. Ich installier auf nem PC von 2005 ja auch WinXP und auf einem von 1998 Win98. Wenn man das Neueste vom Neuesten haben will, braucht man eben halbwegs aktuelle Hardware. Da reicht aber auch ne 60 Euro CPU.^^

    • @RFLCPTR
      @RFLCPTR 6 месяцев назад

      @@masterluckyluke Was für ein dummer Kommentar.

  • @system64738
    @system64738 6 месяцев назад

    Auffällig: auch die Arc A580 spielt ganz gut mit. Aktuell für 188 EUR. Vermutlich für Full HD Gaming ok.

  • @Ecoxiss
    @Ecoxiss 5 месяцев назад

    Fine es toll das Intel sehr wahrscheinlich über die Zeit Nvidia ablösen wird in vielen Belangen. Leider hab ich ein älteres Mainboard (B450) und würde wahrscheinlich ein großen Leistungsverlust haben wenn ich eine Intel Karte nehme wegen Rebar

  • @colentrix
    @colentrix 6 месяцев назад

    Hoffe intel kommt wieder zu den großen der GPUs. Sind aber auf einem guten Weg.

  • @stephanseidel6967
    @stephanseidel6967 6 месяцев назад

    13:24 …aber WENN man seinen PC gemäß Intel-Workaround einstellen kann, braucht die Karte im Idle auf meinem Z690-Board nur noch 10 - 16 Watt. Warum gehst Du darüber so schnell hinweg, als wäre das nicht möglich?

    • @SmokeMastaP
      @SmokeMastaP 6 месяцев назад

      Weil das kein Otto-Normal-User tut. Die verstellen da nichts, erst recht nicht im BIOS. Die vertrauen darauf das alles richtig eingestellt ist vom Hersteller, was man als Kunde durchaus erwarten kann.
      Ich meine das sind auch die Leute, die garantiert nicht die ganze Zeit gucken wie viel Strom das Gerät gerade verbraucht.

    • @stephanseidel6967
      @stephanseidel6967 6 месяцев назад

      @@SmokeMastaP die Leute, von denen Du sprichst, bauen auch keine ARC-Grafikkarte selber in einen PC ein. Wer selbst ein Gehäuse aufschraubt und Hardware einbaut, dem kann man auch ein paar Einstellungen im BIOS zutrauen. Intel verwendet hier neue Stromspar-Techniken, mit denen ein niedriger Idle-Verbrauch möglich ist. Ältere oder einfache Boards bieten diese Techniken nicht an, und User, die es könnten, schalten es nicht ein. Aber Intel hat’s verbockt - finde den Fehler.

    • @SmokeMastaP
      @SmokeMastaP 6 месяцев назад

      @@stephanseidel6967 Es gab/gibt schon ein paar Fertig-PCs mit ARC. Ist ja nicht so das nur die großen GPUs damit Probleme haben. Ist ja leider Architektur bedingt.
      Ein Test testet ja gewöhnlich alles Out-of-the-Box, deshalb finde ich es legitim das es hier nicht angeschnitten wird. Es gibt eben verschiedene Herangehensweisen an einen Produkttest.
      Aber gut Raff hätte es zumindest in einem Nebensatz erwähnen können, den Punkt gebe ich dir.

  • @joeblackisback1
    @joeblackisback1 6 месяцев назад

    Finde immer wieder N1 das ihr so oft auf den Idle Verbrauch der Grakas eingeht. Ich hatte mir vor 1 Jahr eine XFX RX 7900 XT gekauft gehabt die hatte im Idle 4k@120 Hz 80 - 100 Watt Stromverbrauch, dass war mir zu viel, habe mir dann aufgrund von Testberichten vor 6 Monaten eine MSI Suprime X 4080 gekauft, da diese ja im Idle nur 12-20 Watt nehmen soll.
    Bei mir aber am LG C2 - 42 Zoll, 40 - 60 Watt zog. Was meiner Meinung nach immer noch viel zu viel ist. Wie gesagt wir sprechen hier vom Idle Verbrauch.
    Da ich aber ein einen kleinen Monk in mir habe der immer wieder zu AMD geht, habe ich mir dann vor einem Monat wieder eine RX 7900 geholt dieses mal aber eine XTX. Da auch hier immer wieder berichtet wurde die Treiber sind besser weniger Stromverbrauch usw. Das neue Teil eine Sapphire Nitro+ zieht im Idle aber auch 50-60 Watt aus der Steckdose.
    Fände es gut wenn es für Grafikkarten auch Effizienz Auszeichnungen im Idle geben würde, ähnlich wie bei Netzteilen. Strom ist Teuer in D und wird 2024 nochmal viel teurer.

  • @mullewap6670
    @mullewap6670 4 месяца назад

    8 gb 4060 mit 16 GB arc zu vergleichen ist aber auch ein Vergleich. Das passt ja nicht mal vom Speicherinterface zusammen. 128 zu 256 bit.

  • @lukaradtke1991
    @lukaradtke1991 6 месяцев назад +1

    Ein hoher Idle-Verbrauch ist für mich leider Tabu, deshalb kommt weder ARC noch 4060 in Frage und ich bleibe vorerst bei RX 6600. Könnte aber bald ein Upgrade gebrauchen für zB Alan Wake 2

  • @Xeco8000
    @Xeco8000 3 месяца назад

    Dachte ich habe mein RUclips auf 2x Geschwindigkeit. Ganz schwierig anzuschauen... Auch ist die Arc schon seit 6 Monaten Tod. Eine 3060 RTX mit 16GB habe ich für 200€ neu bekommen...

  • @jigglypuff4227
    @jigglypuff4227 6 месяцев назад

    Genial, jetzt kann man ohne nachzudenken dann zu einer Arc Karte greifen, sofern man jetzt nicht ein wirkliches nischen Game zockt.

  • @dennissachse799
    @dennissachse799 6 месяцев назад

    War mir für ein Bastelobjekt immer etwas zu viel Geld, ich mag aber die Karte und wie Intel da rangeht.
    Werde mich bestimmt noch ärgern, die Karte nicht gekauft zu haben.

  • @TheCeroc
    @TheCeroc 6 месяцев назад

    Gut für den Kunden wenn 3 Hersteller GPU Chips verkaufen.
    Aber die Zukunft gehört den IPUs.
    Die Preis Leistung des Steamdeck zeigt wohin die Reise gehen kann, bei lächerlicher geringer Leistungsaufnahme.

  • @svenkretschmer5592
    @svenkretschmer5592 6 месяцев назад

    Zwischen 200 und 600 Euro gibt es aktuell viele ganz gute Karten nicht jede hat 16 GB Vram braucht 225 Watt und kommt von Intel oder Nvidia.Die Oberen 10.000 er mal aussen vor.

  • @teabagNBG
    @teabagNBG 6 месяцев назад

    ich hab mir ne 4060 vor kurzen geholt.. ich bin eigentlnich nur wegen dem formfaktor auf 4060 gegangen weil es einfach nix anderes in klein gab... mittlerweile bin ich aber soweit das ich zurück auf einen kleinen midi tower switche... bin am überlegen ob ich die 4060 zurück senden soll... hinzukokmmt ich hab noch 1080 p am laufen und will eigentlich auf 4k upgraden... glaube da wird die 4060 rausgeschmissenes geld sein...

    • @FoRk-One
      @FoRk-One 6 месяцев назад +1

      Die Karte ist grundsätzlich ziemlich mies von der P/L. Für 4K, minimum 4070 besser TI oder 7800XT/6900XT und aufwärts. Sinn machen da schon 7900er und 4080/90, wenn man gute native FPS möchte.

    • @silvio6377
      @silvio6377 6 месяцев назад

      Ich spiele in 4k mit der 4060 ti 16gb. Mit DLSS Q lässt sich eigentlich alles recht ordentlich spielen, zB hohe Einstellungen in Hogwarts und Cyberpunk. Teilweise ist auch zwischen Dlss q und nativ für mich kein Unterschied zu erkennen. Mit der normalen 4060 wirst du vermutlich Dlss wohl aber Richtung performance verschieben müssen um ordentliche FPS zu bekommen und da werden die Spiele schon recht deutlich hässlicher. Lohnt sich wohl nicht wenn du aktuelle Spiele spielen willst.

    • @FoRk-One
      @FoRk-One 6 месяцев назад

      @@silvio6377 Deshalb sagte ich ja, für natives gaming. Dlss/FSR sind für einige Spiele gut geeignet für andere weniger, darf man nicht vergessen.

  • @waldmensch2010
    @waldmensch2010 6 месяцев назад

    Ich bin zufrieden mit meiner 750 von Intel

  • @65Costap
    @65Costap 6 месяцев назад

    Ich habe mal spaßeshalber bei Alternate nachgeschaut.
    Eine A770 lieferbar für 379,00 .
    GeForce 4600 für 299,00.
    AMD 7600 für 295,00.
    Zu dem Kurs ist die Intel völlig uninteressant und sicher auch kein Preisbrecher.
    Falls Intel die Preisgestaltung bei Battlemage beibehält , werden wenige daran interessiert sein zu einem neuen Hersteller zu wechseln.

    • @EmiroS19xx
      @EmiroS19xx 6 месяцев назад

      Vor paar Tagen lag der Preis für eine Bifrost bei 299 Euro oder eine gebrauchte für 240 erwerben und Spaß haben

    • @65Costap
      @65Costap 6 месяцев назад

      @@EmiroS19xx Hab jetzt mal bei Mindfactory geschaut.
      Auch nur ein Modell lieferbar von Asrock für 369,- Euro.
      Gebraucht kann ich auch eine 2070 Super für 200,- kaufen die eher noch schneller ist.
      Wie gesagt, für den üblichen Straßenpreis überhaupt kein Deal.

    • @EmiroS19xx
      @EmiroS19xx 6 месяцев назад

      @@65Costap bevor ich eine 2070 super hole dann lieber doch eine Arc mit 16 GB. Und wenn man gut handelt dann bekommt man die auch unter 250 Euro. Aber dennoch muss ich sagen dass ich von der Leistung überrascht bin als Gelegenheitszocker.

    • @65Costap
      @65Costap 6 месяцев назад

      @@EmiroS19xx Die Leistungsentwicklung durch die Treiberupdates sind auch wirklich Positiv zu betrachten.
      Allerdings muss Intel doch deutlich den Preis drücken, im Vergleich zu gleich starken Karten, um interessant für die Masse zu werden.

  • @waringham
    @waringham 6 месяцев назад

    Die Arc ist für mich noch mindestens 2 Generation taboo. Wenn Spiele wegen einem Treiber nicht starten.... erinnert mich das an die schlimmsten Amdzeiten.Das durchzumachen, reicht einmal.

  • @marcoklecker
    @marcoklecker 3 месяца назад

    AMD Grafikkarten haben zurzeit ein noch besseres Preis-Leistungs-Verhältnis

  • @uzaahr
    @uzaahr 6 месяцев назад +1

    Hey gutes Video, bitte nicht falsch oder doof verstehen: Was würdest du davon halten für 2024 einen Sprachkurs für Schausteller/Radio/Podcast zu machen? Kenne keinen aber findet man sicher online. Hab das Gefühl du sprichst derbe undeutlich - was schade ist.

  • @DrPGnitz
    @DrPGnitz 6 месяцев назад

    Für mich waren der Stromverbrauch und die Treiber das K.O. für die Intel Karten. Das eingesparte Geld beim Kauf zahle ich nachher doppelt beim Strom und muss mich noch mit den Treibern rumärgern. Raytracing Leistung ist in der Preisklasse eh nur Theorie, ausser man ist mit 30 fps zufrieden. Trotzdem bin ich froh das Bewegung in den Markt kommt.

  • @benyomovod6904
    @benyomovod6904 6 месяцев назад

    Intel hat ja genug Luft nach oben

  • @xantrillja
    @xantrillja 5 месяцев назад

    Nö, meine Intel nimmt "nur" 29 Watt im Idle. Trotzdem zuviel

  • @at3tb
    @at3tb 6 месяцев назад

    Komplet Intel oder AMD System Bauen :) Leider ist bei den ARC der IDLE Verbrauch zu Viel ! Da braucht ja das ganze System wenniger in Idle wie die Grafikarte. Schade

  • @DaBrain2578
    @DaBrain2578 6 месяцев назад

    Intel muss nur noch schneller in Blender werden. Dann kaufe ich auch zwei Karten. :)

  • @kerkilabro4361
    @kerkilabro4361 6 месяцев назад

    Nicht ein Wort zu VR-Gaming.

  • @coreleon
    @coreleon 6 месяцев назад

    Hab die Anfang des Jahres mal zum Übergang gekauft und... puh ist so heiter bis wolkig gewesen. Die hat halt bisweilen echt gruselige Macken gehabt und da wird das schnell bastelig und da muss man halt schon bock drauf haben. Hab einer Freundin einen neuen PC zusammengebaut und da auch erst überlegt die zu verbauen (hab nun eine 7900 xtx drin) oder eine 4060 und da muss ich sagen das bei der 4060 gelandet sind. Nvidia ist bei Leuten die halt so quasi 0 Ahnung haben einfach besser, schmeiß das Ding in Tower und läuft. Bei vielen Spielen hat man mit den Arc Karten halt echt eine Menge Probleme und ja wurde dann halt auch mal schneller oder langsamer gepacht aber kann ich keinem empfehlen der praktisch 0 Ahnung von PCs hat.
    Hoffe mal das die dann in der übernächsten Generation so gut geworden sind das die eine echte Alternative darstellen, dann gehen hoffentlich auch die Preise mal wieder runter.

  • @xslamdownx102
    @xslamdownx102 6 месяцев назад

    Leider nicht Mal für fhd zu gebrauchen
    Wir sind nicht mehr in 2004, 60fps ist schon seit Ewigkeiten kein ziel mehr.
    80 sollte das absolute Minimum sein, besser 120

    • @blabla7310
      @blabla7310 6 месяцев назад

      Das muss auch die CPU erstmal schaffen. Bei vielen Titeln kacken sich ältere Chips ein überhaupt die 60 FPS zu halten. Und wo wir bei 2004 sind - da war man froh bei Spielen wie FarCry die 30 FPS zu halten und das mit Hardware aus dem oberen Regal.

  • @dudenukem1594
    @dudenukem1594 6 месяцев назад

    meh.

  • @MK-xc9to
    @MK-xc9to 6 месяцев назад

    Warum die 6800 XT immer besser wird ... , weil sie mit AFMF = Treiberbasierte Frame Generation bei fast allen Spielen die FPS nahezu verdoppeln kann , AFMF macht nicht überall Sinn , aber es bleiben trotzdem genug Games übrig . Aus 65 FPS mit RT in 1440p werden dann plötzlich 110-120 FPS . Der größte Teil der Kinderkrankheiten bei AFMF ist mittlerweile beseitigt und es ist ein Feature das NV oder Intel nicht hat , bei NV muß FG im Game integriert sein und auch nur die RTX 4000 GPUs unterstützen dann FG .

  • @PapaOki
    @PapaOki 6 месяцев назад

    Bei unseren Budget Builds bauen wir lieber wieder AMD oder NVIDIA , wir hatten schon bei der Installation Probleme auf älteren Plattformen. Dabei wären die Intel gerade bei solchen Systemen interessant gewesen.

    • @H1zN
      @H1zN 6 месяцев назад

      Ist es nicht so, dass die Intelkarte Re-Bar zwingend benötigen? Was der Einsatz auf älterne Plattformen unmöglich macht?

    • @PapaOki
      @PapaOki 6 месяцев назад

      Nun wir hatten China Boards mit B85 Chipset und Xeon 2670 V3. Die Installation erinnert an Tücken wie zu Jumper IRQ Settings Anno Dazumal.
      Noch nie habe ich mehrere Stunden gebraucht um eine Grafikkarte zum Laufen zu bringen. Letztendlich hatte die Karte dann passable funktioniert.

    • @Kompijuta
      @Kompijuta 6 месяцев назад

      Also sorry ich bin System Ingenieur und mach seit über 20 Jahren alles mögliche…. Von GPU Cluster bis LTO library hinunter bis zum Furz Client…
      Wenn man sich wundert dass irgendwo irgendwann Inkompatibilitäten entstehen und dazu anscheinend noch auf irgendwelche OEM-Boards - bei einem neuen Produkt und dann meint es liegt am neuem Produkt - den darf man noch nicht mal als Bastler bezeichnen 😂

    • @PapaOki
      @PapaOki 6 месяцев назад

      @@Kompijuta Das ist natürlich sehr einleuchtend, dass INTEL mit seinem eigenen alten Chipset Probleme hat. Dafür bauen ja AMD und NVIDIA Grafikkarten, die auf diesen Boards sofort laufen. Getestet: mit uralten AMD ATI Fire Pro, ATI 3450 als auch RX 580, RX5700 und RX 6800XT. Bei NVIDIA Quadro FX370, Quadro K2200, GTX 960, GTX 1650 und 1660, RTX 3060TI uvm..
      Aber wie ich ja herausgefunden hatte, muss man nur die richtige Reihenfolge einhalten - erst Windows mit den Standardtreibern, dann den ARC Treiber und dann die Chipsettreiber.
      Der maximale Zeitaufwand damals entstand dadurch dass der INTEL Treiber die Spirale des Todes anwarf und nie mehr zu stoppen war, auch nicht im abgesicherten Modus. Einzig eine Neusintallation des kompletten Systems half.
      Wenn man das aber alles beachtet läuft die ARC A380 schneller als eine GTX1650 und kostet sogar noch 30 Euro weniger.

    • @Kompijuta
      @Kompijuta 6 месяцев назад

      Du hast keine Ahnung was es bedeutet für ein Unternehmen zum „Markteinstieg“ eine derartige Rückwärtskompatibelität bei einem Consumer Produkt zu garantieren so wie du sie forderst - ein wirtschaftlicher Alptraum. Die Nachfrage für ein solches Szenario ist bedeutungslos und fernab jeglicher Vernunft.

  • @Serandi
    @Serandi 6 месяцев назад

    Gut für Retro Gamer! Mehr aber auch nicht 😃☝🏻

    • @morcjul
      @morcjul 6 месяцев назад +2

      Wieso Retro? Die Karte ist auch sehr gut in Raytracing. Die AMD Karten sind für Retro (Rasterizing) Gamer

  • @CornGer
    @CornGer 6 месяцев назад

    Ich verstehe den ist vergleich einfach nicht.
    Ja das ist die leistung die du bekommst in spielen aktuell wenn ein spiel einfach nur auf GTX läuft.
    Das was er mist ist schon richtig. Die frage ist ist das das best möglichst. Ist das wirklich das maximum. Oder liegt das einfach nur an den spielen die einfach konsolen freundlich und nach GTX verfahren optimiert werden.
    Ich finde es krass das kein spiel freundlich optimiert wird oder unterstützung hat.
    Wie schon oft gesagt ich finde das man durch gtx nutzung nicht rtx bekommt oder gut nurzen kann.
    Bei arc ist das problem das sie auch nur gtx nutzen. Aber mit ki kann man so viel machen und es war auch ganz anders gedacht.
    Ich frage mich wie schlecht es ist das es keine ki games gibt. Die shader daten reduzieren so das 16gb einfach nicht nötig ist.
    Ich finde es auch sehr fraglich auf so veralte technologie zu setzen. Die einfach immer durch mehr daten mehr energie verbracht.
    Das ist als würde ich sagen alles ist gut wie es schon immer wahr und weiter mit verbrenner fahren. Obwohl es eine bessere und geilere technologie gibt. Wird diese einfach nicht genutzt oder eingepflegt.
    Ich verstehe nicht das euer geld das ihr in karten investiert einfach nix wert ist.
    Es ist geil was intel geschafft hat keine frage. Aber das ist das absolute minimum und eher ein bonus als die Revolution.
    Würde intel es richtig machen würde ki das gtx spiel einlesen und auf rtx oder den ki standard hoch stufen. Aber das geht nicht weil windows einfach kein hirn hat. Kein hirn bekommt und somit ist das was man in rtx ausgibt einfach zu teuer.
    Es ist lustig das meine 2080 im grunde genau die arc 770 ist. Wenn man sie übertaktet.
    Warum soll ich mir eine karte kaufen die aus heutiger sicht im grunde zu langsam ist.
    Ja ich würde wenn ich heute ein pc kaufen würde mit zur übergang bis zu windows 12. Die arc kaufen. Als eine Ultra schlechte AMD oder eine noch teurere Nvidia. Mit der nur die standard gtx module heute möglich und genutzt werden für die ki. Aber das ist nicht das was nvidia vorgestellt hat was mit den karten maximal möglich ist.
    Man kann nicht testen was nicht genutzt wird. Und so lange die render basis shader ist und nur mit cuda möglich ist. Wird man nie due ware power seiner karte sehen. Ich sehe sie nicht mit meiner 2080 die alles in 70-80 fps schafft.
    Nein weil man die games nicht weiter entwiklt hat. Ist die komplette ausgangs lage schlecht. Und spiele brachen downgrads oder nutzen nur die amd basis vulkan. Keiner nutzt vulkan um damit es ki freundlich und sein spiel auf die neue ebene zu bringen.
    Das problem bei spielen wie hokwarts. Das sie am bus limit kratzen. Nicht mehr daten übertragen bekommen.
    Zusätzlich beschneidet man sogar karten mit nur x8 pci-e. Ich sehe das als verschlechterung an. Weil man einfach nicht das beste aus der hardware holt. So umwelt technisch müll produziert. Ich frage mich warum.
    Warum finden das alle so geil aufgrund von schlechter nutzung. Weiter eine technologie zu unterstützen die man so nicht bekommt.
    Was ist rtx sagt mir das und macht ein Aufklärungs video. Warum nur gtx möglich ist und nicht die echtzeitberechnung so wie schon mit der 2080 vorgestellt. Warum kann ich nicht sagen ich will das spiel auf ki basis starten.
    Sondern nur gtx die bei 8gb karten einfach den ram füllen. Die lössung ist doch da. Die muss doch nur genutzt werden vom spiel.
    Aber mir sagt jeder test das es keine rtx weiterentwiklung mehr gibt. Weil alle eh nur gtx nutzen.
    Die frage ist in wie weit intel mit ki die karte noch verbessern kann. Die müssen weg von der gtx. Und zur ki simulation über gehen das was nvidia auch nicht geschaft hat. Zu mindest scheint es nvidia egal zu sein was wir endkunden nutzen. Bekommen oder unser geld aus geben.
    Es ist krass wie tod rtx ist. Aber keiner versteht warum man das nicht bekommt.
    Ich finde die aufgabe eines magazins ist es zu zeigen was der kunde kauft und was er bekommt. Das macht ihr mit den test schön. Aber viel wichtiger ist das was er bezahlt und nicht bekommt.
    Weil windows und game hersteller es lieben gtx zu benutzen. Weil sie es kennen muss das doch nicht immer der standard bleiben.
    Ich finde ihr sogt dafür mit den test. Das sich einfach nix ändert. Das karten wie die 4090. Heute benötigt werden. Leider nutzt selbst die karte nicht mal ihr volles portezial aus.
    Das ist schade. Das man nur das testet was man als allgemein gleich ansehen tut. Das ist gtx.
    Aber keiner will das weil ganz klar nvidia den tun angibt. Aber weil amd nur gtx kann und die wollen nicht sich ändern oder verbessern. Weil ja 60 fps für den konzern das mass aller dinge ist. Weil die konsole die schon veraltet kamm. Sonder müll ist. Weil keine ai kerne oder über usb auch nicht nachrüstbar gemacht wird.
    Ist die grund basis für alle modernen karten einfach immer noch die steinzeit.
    Geil ist wenn ich das nutzen kann und auch bekomme wo für man bezahlt.
    Ich finde es auch krass das starfied einfach der dlss 3.5 support für die 2000 serie nicht ermöglicht. Das sollte als kunden frechheit und ein besser dastehen der konsolen gewertet werden. Was nicht okay ist.
    Ich war so enteuscht als ich xbox cloud getestet habe. Ich dachte die konsole ist auf dem stand der 2080. Nein 1080 triffst eher.
    Man bekommt nur schrott müll und es wird mit was beworben was software technisch in spielen einfach nicht da ist. Das ist doch schlecht.
    Schlecht für den kunden.
    Schlecht für die technologie.
    Schlecht für die umwelt weil der energie hunger krank ist.
    Schade das man gtx immer noch so preist als gebe es nur den müll.
    Ich würde gerne mal ein video sehen wie karten was berechnen wo und wie.
    Ich glaube dann versteht ihr was das problem ist.
    Win10 läuft aus und rtx ist eine win10 technologie und selbst win11 kann das nicht nutzen.
    Ultra dumm das rtx ki und alle Möglichkeiten so software abhänig ist. Hardware ist egal.
    Die software setzt das was die hardware kann um. Und die ist einfach noch in gtx hängen geblieben.

    • @Kompijuta
      @Kompijuta 6 месяцев назад +2

      Schreib deine Leidenschaft in einem Forum - so lange Kommentare sprengen den Rahmen das es quasi keiner liest. Nicht böse gemeint.

    • @reinerZufall3042
      @reinerZufall3042 6 месяцев назад +1

      Alter...liest keine Sau. Dazu noch die fehlende Zeichensetzung.

    • @Kompijuta
      @Kompijuta 6 месяцев назад

      Ja ich habs kurz überflogen und es macht echt keinen Spaß zu lesen. Wer selbst keinen Anspruch auf die Vermittlung seines Inhalts hat wieso sollten andere Zeit fürs Lesen in Anspruch nehmen.

    • @CornGer
      @CornGer 6 месяцев назад

      der ist auch nicht für nnormale nutzer gedacht sondern rein an das magazin gerichtet. ich sage nur das test nicht immer die ware natur zeigen oder immer die ware möglichkeit zeigen. nur eine halbe und für den kunden nicht gute warheit weil dinge verschwigen werden oder halb einfach keinen mehr wert bringt.
      das ist wie die frage verbrenner oder E-auto.
      man muss schon alles geigen und das geht bei grafikkarten nicht weil es nicht ein game gibt das RTX nutzen tut. . da fragt sich halt wie gut intels bemühungen sind was altes zu optimiren als einfach es simulieren zu lassen.
      spätestens wenn KI in windows möglich ist fängt intel wieder bei null an und das ist das was schade ist.
      zukunft ist unbestimmt und eifach nur übel was KI und alles damit zusammen hängt.
      weil der PC viel zu oft die CPU nutzt als andere lössungen braucht man heute 6Ghz PC. nicht weil die spiele krasser oder anspruchsvoller geworden sind. sondern weil man mehr daten übertragen tut die nicht nötig sind.
      es ist einfacher die kapazität zu erhöhen als die software anzupassen und das mal richtig zu stellen. wie eine klare trennung von RTX und GTX. weil das nicht klar ist. ist die lage so wie sie ist. schlecht. weil der kunde bekommt weniger obwohl er mehr bekommen müsste. und RTX stagniert im grafik karten bereich . warum ist das so. ???

  • @altesmoped2879
    @altesmoped2879 6 месяцев назад

    Noch ein paar Treiber und die A770 schlägt die RTX 4090 😂

  • @proesterchen
    @proesterchen 6 месяцев назад +4

    "Wird besser," und trotzdem kann man sie niemandem mit gutem Gewissen empfehlen.

    • @Serandi
      @Serandi 6 месяцев назад

      Ist so 😂

    • @KptnM0rg3n
      @KptnM0rg3n 6 месяцев назад +4

      Ich bin mit meiner BiFrost Arc A770 16gb voll zu frieden, ich kann se zum zocken empfehlen. ✌️

    • @TheSpeedbones
      @TheSpeedbones 6 месяцев назад

      @@KptnM0rg3n Wenn man nichts besseres kennt kein wunder xD

    • @hellraver.
      @hellraver. 6 месяцев назад

      @@TheSpeedbonesWenn man nicht die Klappe halten kann, einfach mal Ahnung haben :D

    • @KptnM0rg3n
      @KptnM0rg3n 6 месяцев назад +2

      @@TheSpeedbones naja ich habe schon ne 3Dfx Vodoo 3 gehabt und das war das non Plusultra damals 😉 ach übrigens, ich hatte vor meiner Arc a770 eine RTX 3080. Natürlich kenne ich "was besseres" aber das "beste" ist einfach nur langweilig.

  • @nivea878
    @nivea878 6 месяцев назад

    wen interessiert raytracing😂

  • @Felixosbourne
    @Felixosbourne 6 месяцев назад

    12:20 guck dir das bitte nochmal an ^^ du sagst da die a770 mit 16gb und zu sehen ist die 8 gb. @raff

  • @matzes2350
    @matzes2350 6 месяцев назад +3

    Also hab ich jetzt die Wahl zwischen A770 und RTX 4060TI 8GB.
    Die Geforce ist im Schnitt 10% Schneller, verbraucht bis zu 50% weniger Strom (Auch Desktop) und kostet 100€ mehr.
    Nvidia hat auch durchgehend die besseren Treiber weil ausgereift.
    Die A770 zieht bei 3440x1400 und 144herz mit RUclips auch mal gerne 88 Watt aus der Dose. AMD lässt grüßen.
    Also steht ja wohl außer Frage was man sich kauft. Die Intel hat 16GB juhu - Nvidia ja auch mit der Geforce wenn man will. Dann nehme die 60€ Aufpreis dafür gerne entgegen.
    Ich muss im Gegensatz zu vielen anderen hier muss ich mein Strom selbst zahlen.
    Die Intel Karten sind für OEM PCs bei Amazon oder Netto die richtigen Karten. Man erwartet da nicht viel und bekommt ein bisschen mehr als Onboard Grafik.
    Für mich fühlt sich das wie ein Werbevideo an, oder das Raff die Schnautze voll hin und wieder von Nvidia und Amd hat ^^

    • @GT-bc6eu
      @GT-bc6eu 6 месяцев назад +3

      Was bringen 10% mehr Leistung wenn die Grafikkarte bei den neuen Spielen durch fehlenden VRam ausgebremst wird. Bei mir läuft die Arc a770 seit vier Monaten einwandfrei, spiele 3-4 Stunden je Woche. Der Stromverbrauch ist mir also egal.

    • @matzes2350
      @matzes2350 6 месяцев назад

      @@GT-bc6eu Ja die meisten Menschen Spielen mehr als 4 Stunden die WOCHE. Solltest du die ganze Zeit mit Intel auf dem Desktop wuseln, macht er recht der bis zu 200% mehr Stromverbrauch im Idle keinen Sinn bei dir, je nach Hertz Zahl.

    • @OraOraOra
      @OraOraOra 6 месяцев назад +1

      Mittlerweile muss ich sagen, ich jubel für Intel, auch wenn ich ein Full AMD Setup habe, aber Intel ist quasi gezwungen, die damalige AMD Schiene zu fahren, sprich: preis/leistung mit viel VRAM. Leider hat sich AMD in der Hinsicht mittlerweile auch verschlechtert ...
      Ist deine Entscheidung, aber Intel scheint sich echt sehr gut um Ihre GPUs zu kümmern. Mir wäre es ehrlich gesagt zu unsicher.
      Wow du zahlst Strom?

  • @tomekdargiewicz6397
    @tomekdargiewicz6397 6 месяцев назад +1

    Warum Intel immer besser wird! ? weil intel die schwehsten karten baut kan sich intel nur bessern .

  • @Kinderzahnspange
    @Kinderzahnspange 6 месяцев назад +1

    Intel wird immer besser ja. Aaaaaaaaaaber nicht solange Spiele Neu sind. Bis da treiber die gut funktionieren nachgereicht werden ist ein Spiel schon oft nichtmal mehr aktuell.

    • @waldemarbernhardt4043
      @waldemarbernhardt4043 6 месяцев назад

      Gute Spiele spielt man oft 8-10Jahre noch als Beispiel.
      GTA V, Witcher 3 usw...
      Ja Fallout 4 war mal gut ist aber von der Grafik nicht mehr Aktuell... Da die Grafik noch von 2008 war von Fallout 3...
      Sobald ARC 770 ihre 16GB so entfaltet wie AMD oder sogar Nvidia wird sie dann fast genau So kosten.
      Wenn ich nur 300,-Budget hätte würde ich sie kaufen und auf etwas Glück hoffen

    • @Kinderzahnspange
      @Kinderzahnspange 6 месяцев назад

      @@waldemarbernhardt4043 Es spricht keiner davon das man nicht gute Spiele auch in X Jahren noch spielen könnte eher davon das wenn irgndwas neues herauskommt wo man ab und zu ja doch mal sagt da hab ich Bock drauf die Intel Karten einen einfach derbe Oft einen Strich durch die Rechnung machen weil die Meisten Spiele direkt zu Release einfach unspielbar sind.

    • @coreleon
      @coreleon 6 месяцев назад

      @@Kinderzahnspange this, hatte die auch getestet und hui... also was man da an zeit versenken kann um neue Games mal überhaupt zum starten zu bekommen ist schon gruselig. Dabei komm ich aus der IT Ecke und bin ja durchaus für so Zeug zu haben aber auf dauer nervt einen das nur noch und wer da nur so rudimentär Ahnung von PCs hat der wird da echt verzweifeln. Die ist halt nicht nur ein wenig zickig, sondern so richtig und wir sind da noch über dem was ATI Anfang der 2000er an Macken hatte. Da musst schon echt bock drauf haben.

  • @KingArthusSs
    @KingArthusSs 6 месяцев назад +1

    WoW die A770 ist garnicht mal so gut ^^

  • @mullewap6670
    @mullewap6670 6 месяцев назад +1

    Was soll ich mit full HD? Was soll dieses Werbevideo überhaupt. Ich lass mir sowas doch nicht andrehen. Geht's noch?

    • @Kompijuta
      @Kompijuta 6 месяцев назад +7

      Mimimimi….😂