Is x86 dead? Mac Studio vs. Windows PC

Поделиться
HTML-код
  • Опубликовано: 12 сен 2024

Комментарии • 401

  • @MaikR-so9st
    @MaikR-so9st 2 года назад +12

    Super Interessant, was die ARM Prozessoren mittlerweile leisten. Aber iergendwie ist dass wie Äpfel mit Fenstern vergleichen 😉

    • @annabellho7541
      @annabellho7541 2 года назад +2

      Es fehlt noch Pinguin

    • @Electra1038
      @Electra1038 2 года назад +1

      Pinguin gibt’s für M1….

    • @FusslDerEchte
      @FusslDerEchte 25 дней назад

      äpfel mit fenster, den muss ich mir merken 🤣

  • @seppoz8828
    @seppoz8828 2 года назад +45

    Ich kenne viele Leute, die mit leistungsstarken Windowsmaschinen oft nur surfen, Videos schauen oder Mails schreiben. Es ist ein Wahnsinn, wie viel Strom da verschwendet wird. Wenn Arm nur ein Bruchteil benötigt, dazu leise und bei Laptops akkuschonend ist, dann hoffe ich sehr, dass wir davon mehr sehen, nicht nur von Apple.

    • @christianhdot1490
      @christianhdot1490 2 года назад +1

      Da hast du Recht. Es gibt nur wenig Anwendungsfälle für X86.

    • @nyambe
      @nyambe 2 года назад +1

      Völlig einverstanden! Ich möchte einen richtigen Computer in der Größe einer Pralinenschachtel. Leise und kraftvoll. Warum nicht?

    • @hesspet
      @hesspet 2 года назад +3

      @@nyambe Nimm ein Raspi. Der reicht vollkommen. Passt locker mit einer kleinen Festplatte in eine Pralinenschachtel. Je nach Definition ist das auch ein "richtiger" Computer :-) SCNR :-)

    • @CrassSpektakel
      @CrassSpektakel 2 года назад +2

      @@hesspet Mein PC ist sechs Jahre alt und braucht Idle 4 Watt. Das ist weniger als ein Mac. Legt er los ist er flotter als der schnellste M1. Und braucht pro Leistung immer noch weniger Strom als ein M1.

    • @nesyta1749
      @nesyta1749 2 года назад +1

      Also ich selbe habe Leistungsstarke PC und ich tu entweder Internet Surfen, paar Spiele Zocken oder mache eigene Projekte wie Programmieren oder Musik Produzieren.

  • @jorgmuhlhans3065
    @jorgmuhlhans3065 2 года назад +6

    Sehr cooler Test! Wer mit dem Lautheitsmaß nichts anfangen kann: 1,5 sone ist etwa 8 Mal so laut wie 0,2 sone (Verdopplung des Werts = Verdopplung der subjektiv wahrgenommenen Lautheit).

    • @besserschreiben9481
      @besserschreiben9481 2 года назад

      Das heißt „achtmal“, unreformiert ist noch „8mal“ möglich.

  • @pizzakarton468
    @pizzakarton468 2 года назад +1

    geile attitude vom host, und schönes passendes editing dazu :)

  • @janilone1388
    @janilone1388 2 года назад +1

    Vielen lieben Dank für euer Video. Hab es von Sekunde 1 an genoßen. Sehr informativ und auch total gut veranschaulicht!
    Frage: Du bist kurz auf Blender eingegangen. Kann man dem Mac Studio den Umgang mit 3D Basteleien oder auch z.B. Unity zutrauen?
    Viele liebe Grüße,
    Jan

    • @ct3003
      @ct3003  2 года назад

      Unity läuft sogar auf M1-Notebooks schon ganz ok.

  • @jurgenmarkus1345
    @jurgenmarkus1345 2 года назад +2

    Apple M1 Erfahrung: Docker läuft mehr schlecht als recht...fast alle wichtigen images basieren auf x86 und die emulation ist einfach nur langsam. Wichtige frameworks fuer DeepLearning (tensorflow, pyTorch) laufen nicht auf dem M1....Fuer Entwickler meiner Meinung bedingt produktiv einsetzbar, aber sonst tolle Maschinen...

    • @derallli1
      @derallli1 2 года назад +1

      Dem kann ich nur zustimmen, als Entwickler kann man aktuell alleine mit dem M1 nicht wirklich arbeiten. Schon gar nicht im Team mit anderen Entwicklern, die mit ihren x86 Maschinen volle Kompatibilität genießen. Wird leider viel zu wenig erwähnt, alle wollen heutzutage nur noch Videos schneiden...

    • @jurgenmarkus1345
      @jurgenmarkus1345 2 года назад

      @@derallli1 ja, video schneiden ist wohl der hauptanwendungszweck für professionelles arbeiten bei vielen youtubern. Anwendungsfälle von Ingenieuren (coding, machine learning, cad, Simulationen, matlab, etc.) sind wohl überflüssig...

  • @martinmense3483
    @martinmense3483 2 года назад +2

    Super Video und sehr informativ. Danke

  • @zorro315754442
    @zorro315754442 2 года назад +2

    Ich dacht Apple macht selber schon genug Werbung für ihre Produkte. Ich will die neuen Produkte von Apple auch gar nicht schlecht reden, im Gegenteil ich bin sogar sehr interessiert daran zu erfahren, ob Apple Silicone (oder ARM) nun wirklich der klassischen x86-Architektur das Wasser reichen kann, aber von den bisherigen Tests und Benchmarks (nicht ausschließlich von heise) bin ich eher enttäuscht: Apple hält seine Werbeversprechen und die neuen Macs sind gut für diesen ganzen Multimediakram von Bildbearbeitung über Videoschnitt und Rendern bis hin zu Sounddesign. Soweit so gut. Dafür ist das Apple Silicone maßgeschneidert und es freut mich, dass es in diesen Bereichen nun so potente Hardware gibt. Ähnlich wie in den 80ern/90ern Spielekonsolen für dediziertes Spielen von Computerspielen aufkamen, kommt nun also ein dediziertes System für diesen speziellen Bereich, den ich zuvor 'Multimedikram' nannte auf.
    Was mir aber der klassische PC gegenüber Spielekonsolen gibt, ist ein multi-purpose Gerät. Angefangen beim Betriebssystem, welches ich auf der Hardware installiere über verschiedene Anwednungsbereiche von Textverarbeitung über Programmierung bis hin zum Multimediakram oder auch Gaming: mit der klassischen x86-Architektur kann ich all das hinreichend gut. Ggf muss man sich einzelne Komponenenten wie z.B. eine potente GPU nachrüsten, aber dann kann ich EIN EINZIGES Gerät für alles nutzen und zwar ohne viel Aufwand. Ich habe z.B. verschiedene SSDs, die klemm ich dann einfach ans Mainboard und schon habe ich ein komplett neues System aber die Hardware kann ebenso für das Perfekte Heimkinoerlebnis sorgen, wie zum Gamen dienen oder für Linux-Versuche herhalten.
    Um zu sagen, ob die neuen Apple Produkte eine wirkliche Alternative zu x86 darstellen müsste man vor allem die nicht von Apple beworbenen Bereiche im Vergleich zu x86 testen. Apple hat da perse schon mal einen gewaltigen Nachteil, nämlich dass ihre Geräte weitestgehend nicht modular sind. Wenn in 3-5 Jahren deutlich wird, dass die RAM-Kapazität nicht mehr ausreichend für zeitgemäße Aufgaben ist, ist man gezwungen ein komplett neues Gerät zu kaufen, selbst wenn die PRozessorpower noch mehr als ausreichend ist. Beim klassischen Tower kann ich nach 3 Jahren günstig den RAM verdoppeln oder die Festplattenkapazität aufstocken. Trotzdem soll das nicht das k.o.-Kriterium gegen Apple-Hardware sein, aber dafür müssten die echt mal liefern und zwar ganz genau auch in den Bereichen abseits von Multimediakram. Leider hab ich bis jetzt keinen Test gefunden, der dies behandelt. Und auch die Wahl des OS müsste für mich offener sein. Ich bezahle schließlich die Hardware, damit ist es meine HArdware und ich sollte selbst entscheiden dürfen, ob ich lieber Linux auf dem Apple silicone laufen lasse. Auf den goldenen Käfig vom MacOS hab ich nämlich keinen Bock.
    @Keno: macht doch bitte mal einen Allroundtest oder besser noch: testet explizit die Bereiche, die mit Apple eher kritisch sind. 08/15-Tests zu den neuen Macs gibt es wahrlich schon genug! Wenigstens mal Linux auf der HW installieren wäre schon was, womit man sich von den ganzen anderen reviews abheben könnte!

    • @ct3003
      @ct3003  2 года назад +1

      Wir bleiben definitiv am Thema dran. Was meinst du denn genau mit "nicht von Apple beworbenen Bereichen"?

    • @zorro315754442
      @zorro315754442 2 года назад

      @@ct3003 Sehr cool, dass ihr antwortet! Also zum einem meine ich mit den "nicht von Apple beworbenen Bereichen" die Wahl des Betriebsystems. Hatte ich zuvor ja bereits erwähnt. Mit Asahi Linux gibts es auch bereits praktische Bestrebungen Linux auf dem M1 zum Laufen zu bringen. Allerdings lässt sich damit (bisher) noch nicht die gesamte HW nutzen; z.B. einige Anschlüsse der neuen Macs können damit nicht oder nicht mit der unter MacOS möglichen Datentransferrate genutzt werden (z.B. anstatt USB3 und Displayport, kann man dieselbe Buchse nur für USB2 nutzen).
      Ein anderer großer Punkt ist Virtualisierung. Bei 20 Kernen oder mehr schreit die HW förmlich danach als Hypervisor genutz zu werden, denn sind wir mal ehrlich: Wer braucht im täglichen Gebrauch schon so viele Kerne (okay, vlt wieder der Bereich Multimediakram). Für mich viel relevanter ist die Möglichkeit mehrere VMs gleichzeitig laufen zu lassen, was zudem auch die Sicherheit erhöhen kann. Ich nutze z.B. Windows nur noch, wenn ich durch die Arbeit gezwungen bin MS Office zu nutzen. Dafür reichen aber locker zwei Kerne, ist ja nur ein bisschen Word und PowerPoint und einfache Excel-Tabellen. Wenn ich wirklich mal ins Apple-Universum vordringen will, dann mach ich das auch lieber in einer VM, so werden meine persönlichen Daten nicht tangiert. Kann man das neuste MacOS überhaupt ohne Online-Konto (also Apple ID) nutzen?
      Für mich ist das immer mit einem unguten Gefühl verbunden, wenn ich für die einfachsten Dinge, wie z.B. Zugriff auf KOSTENLOSE Apps schon meine Adresse und Kontoverbindung hinterlegen soll. Muss das wirklich sein? Über Linux und VMs kann ich dann wenigstens ein bisschen meiner Privatsphäre wahren. Solange der neue Mac ohne MacOS und ohne meine Kontaktdaten nur ein extrem teurer Briefbeschwerer ist, bleibe ich lieber beim altbewährten x86er. Dabei habt ihr die Vorteile z.B. in Bezug auf Effizienz und Energieverbrauch ja schön hervorgehoben.
      Macht doch mal ein Video darüber, ob man auch ohne den Zwang seine persönlichen Daten offenzulegen von der neuen Technologie profitieren kann. Es muss ja noch nicht mal zwingend Apple Silicone sein (obwohl diese HW schon sehr attraktiv aussieht).
      BTW: Wenn ihr denkt "Windows und MacOS sind doch bestimmt unbedenklich; wenn persönliche Daten ausgelesen und irgendwohin übermittelt werden, dann erst durch unsichere Software von anderen Anbietern", muss ich euch enttäuschen. Ich habe im Frühjahr 2020 ausschließlich von zu Hause gearbeitet (wie sehr viele Menschen zu dieser Zeit) und selbst im Sommer 2021, wo ich zuletzt ausgiebig mit Windows auf einer dedizierten Maschine gearbeitet habe, habe ich in meinem Netzwerk zwischen 30 und 35% der DNS-Anfragen mit dem Pi-Hole blockiert. Zum Vergleich: Wenn ich kein Windows nutze, sind es nur 5 bis 8% und dieser Vergleich verschärft sich nochmal dadurch, dass ich unter Windows hauptsächlich Office und Zoom genutz habe, ansonst mit meinen anderern Geräten aber viel im Netz surfe und z.B. eure Videos konsumiere oder in verschiedensten Foren unterwegs bin. Ich fürchte Apple ist ungefähr ähnlich interessiert an den Nutzerdaten und daher überwiegt bei mir das Bedürfnis nach Privatsphäre und Freiheit die Neugier auf die neue, effiziente Hardware.
      Windows schreibt in den AGBs, welchen man beim Installieren des Betriebssystems zustimmen muss sogar ganz kess, dass ALLE Tastatureingaben zur Verbesserung der Nutzererfahrung an MS übermittelt werden können. Ich finde da sollte man sich zweimal überlegen, ob man in Zukunft noch Online Banking auf einem Windowsrechner macht. Ich glaube zwar nicht, dass sich Bill Gates die Zugangsdaten schnappt um sich selbst Geld von fremden Konten zu überweisen, aber Datenlecks oder Hacks wie jüngst durch Lapsus$ führen immer wieder vor Augen, wie schnell sensible Daten in die falschen Hände geraten können und dass selbst die Big Player (MS, Apple, etc.) kein sicheres Mittel zum Schutz davor haben.

  • @thegoodbyecitizens
    @thegoodbyecitizens 2 года назад +2

    Sehr informativer Test! Würdest du beim Kauf des Mac Studio 32gb für ausreichend sehen, oder doch lieber 64gb RAM nehmen,? Soll für Videoschnitt mit Final Cut/imovie und Musikproduktionen mit Ableton Live sein.

    • @franciswahl6005
      @franciswahl6005 Год назад

      ich habe die 32 GB Version , be Audio auf jeden Fall ausreichend bei Video mit größeren Projekten mir 4K und aufwärts besser 64 . Viel Spaß.

  • @nyambe
    @nyambe 2 года назад +5

    Very good points. Current software is designed with x86 in mind. As soon as big developers start creating software specifically for low wattage GPU computers, x86 will be in trouble.

    • @mjmoonbow
      @mjmoonbow 2 года назад +4

      Die Herstellung der Hardware kostet sehr viel Energie, wenn ich diese nun nach 3 Jahren verschrotten muss, weil ich weder die Hardware aufrüsten kann, noch auf ein aktuelles OS upgraden kann. Hier ist also eine komplett neue Hardware fällig. Von den Apps brauchen wir glaube ich nicht zu reden.
      Das x86 System hingegen kann auf vielfache Weise auf den aktuellen Stand gebracht werden.

    • @nyambe
      @nyambe 2 года назад +2

      @@mjmoonbow x86 verbraucht jetzt mehr Strom, aber es ist immer noch dasselbe wie vor 10 Jahren. Der Vorteil von x86 ist auch seine Einschränkung. Die Maschinen, die 1000 W zum Betrieb benötigen, werden in Zukunft nicht mehr passen.

    • @nyambe
      @nyambe 2 года назад

      google translate, I don't speak german lol

    • @hosnkrocha
      @hosnkrocha 2 года назад +1

      @@nyambe He does have a point though. My colleague has a 5 year old Macbook Pro. No more updates of the operating system, he can basically throw it out because XCode works on current OS only.
      On my 15 year old Dell laptop on the other hand Windows 10 runs smoothly and I can develop Windows, Linux or Android software without problems.

    • @nyambe
      @nyambe 2 года назад

      @@hosnkrocha A lot has happened since 2008. Imagine using a 15 year old phone today. It's not a good thing that you are still using that. Intel has highjacked PC innovation. We will see rapid progress soon because of the competition. BTW. you can't put windows 11 2021 Computers either.

  • @Marc_We
    @Marc_We 7 месяцев назад

    Super Video und ein spannendes Thema. Mal sehen wo die Reise da noch hin geht.

  • @fredfeuerstein3328
    @fredfeuerstein3328 2 года назад +2

    Interessantes Video, danke dafür.

  • @christophbaumgartner6129
    @christophbaumgartner6129 2 года назад +1

    Danke! Ohne Gebummel, Hingehalte, Zeitschinderei - getroffen!

  • @kayhofmaier942
    @kayhofmaier942 2 года назад

    das war mal EEENDLICH EIN GEILES VIDO!! perfekt genau das alles wollte ich hören und sehen .. super abbo is da ! daumen hoch weiter so

  • @taalibalexander891
    @taalibalexander891 2 года назад +2

    Sie vergleichen AMD-Technologie der letzten Generation mit aktueller Technologie von Apple. Ein richtiger Benchmark wäre ein Nvida 3090 und ein AMD 5900x

  • @Logansix
    @Logansix 2 года назад +2

    Fail: 3:00 - die "sehr gute" NVMe hat max. 3500 MB/s. Jetzt schau dir mal die Benchmarks von der internen SSD des Studios an. 6000 bis 7000 MB/s. Man bekommt für das Geld also auch mehr Leistung. Zudem wird der RAM im M1 auch für die Grafik genutzt, weshalb er sau schnell sein muss. Also pack die lahme 970 Evo Plus wieder weg, das sind Äpfel und Birnen…

    • @F1a3L3s7E
      @F1a3L3s7E 2 года назад +1

      Eine 980 mit der selben Leistung kostet aber auch nur ~ 280-300 €.

  • @davjande
    @davjande 2 года назад

    Danke für das aufschlussreiche Video.

  • @Photoshop240117
    @Photoshop240117 2 года назад +5

    den x86 Rechner hatte ich mir seinerzeit auch gebaut und die Leistung ist bis heute für mich ausreichend. Aus Gründen der Nachhaltigkeit werden ich ihn auch weiterhin nutzen. Meine Tendenz ist eher von Apple weg, als noch mehr Geräte zu erwerben. Beim Stromverbrauch hat Keno leider einen Punkt. Die nächste Kiste muss trotzdem noch etwas warten .. schon aus Prinzip.

  • @MiBru80
    @MiBru80 Год назад

    Vielen Dank für das hervorragende Video. Seit einer Woche bin ich am recherchieren, welches System für mich für Videoschnittanwendungen am besten ist. Habe Daten verglichen und und, alles sehr zwitraubend. Ich habe mir auch zwei Videos hier auf RUclips angeschaut, darunter dieses hier von c't 3003. Jetzt weiß ich, dass der Mac Studio M1 Max genau der Richtige für mich ist. Also, dafür ein Like und abonniert 👍

  • @RAW_photography
    @RAW_photography 2 года назад +1

    Hallo tolles Video. Gibt es eigentlich eine Angabe von seitens Apple die diese Leistung des Mac Studio für gewisse Anzahl von Betriebsstunden garantieren? Die iPhones mit ARM Chip werden Jährlich erneuert können dann schneller und besser etc. Diese Roadmap jährlich was neues ist mit der Nachhaltigkeit nicht vereinbar. Grüße 👋🏻

  • @baronimo
    @baronimo 2 года назад +1

    Das sind mal sehr beeindruckende Werte!
    Der nächste Klapprechner steht bei mir bald an. Bei den Werten überlege ich dann doch noch mindestens solange zu warten, bis diese Arm-Prozzesoren in größerer Auswahl zu Verfügung stehen.
    Danke c't3oo3 für diese Nachricht.

    • @HolgerN
      @HolgerN 2 года назад +1

      Trotz des Erfolgs der Apple M1 Chips wird es noch einige Jahre dauern bis ARM-SoCs in den wichtigen Produktlinien von HP, Lenovo, Dell etc. zu finden sein werden. Man macht nichts "falsch", wenn man sich jetzt ein aktuelles x86 Notebook kauft.

    • @baronimo
      @baronimo 2 года назад

      @@HolgerN hab gerade mal geschaut. Wenn man mit unter 15" Displaygröße zurecht kommt, gibt es da schon die ersten Modelle, auch von HP, Lenovo ... aber Dell fehlt noch.
      Bei Geizhals kann man sich explizit Modelle vorstellen lassen, die mit ARM-Prozessoren ausgerüstet sind.

  • @Testralon
    @Testralon 2 года назад +1

    Wenn Macs jetzt noch einigermaßen fürs Zocken zu gebrauchen wären (Treiber und so), würde ich komplett umsteigen.

  • @charley2070
    @charley2070 2 года назад +4

    Mich würde so dringend mal ein ein DAW Vergleich interessieren. Alle checken die Video und Gamingleistung, aber nie vergleicht mal die Audioleistung :(

    • @thefynn
      @thefynn 2 года назад

      Ich weiß jetzt nicht wie es mit FL Studio oder so aussieht, aber mit Logic pro rennen die M1 Macs allem anderen davon.

    • @kobi-kobsen
      @kobi-kobsen Год назад

      Gibt doch 1mio Videos genau zu deinem Thema.

    • @charley2070
      @charley2070 Год назад

      @@kobi-kobsen echt? Dann zeigt mir RUclips von den 1 Mio nur 4 an, von denen 3 kacke sind.

  • @paulmeier6050
    @paulmeier6050 Год назад

    Geniales Video! Genau den Vergleich hab ich auf YT gesucht!

  • @RobbeSeolh
    @RobbeSeolh 2 года назад +4

    9:07 das ist eigentlich komplett krank, das es immer noch 65 FPS trotz Emulation hat.

    • @ct3003
      @ct3003  2 года назад +2

      Und der Mac Studio mit M1 Ultra hatte sogar 96 FPS.

  • @narratotgaming6076
    @narratotgaming6076 2 года назад +1

    Wie gut, dass immer Äpfel und Birnen verglichen werden … der Vergleich zu alles bis 5950x sollte der Mach mini, bzw. Der kleinste MAc Studio sein. Alles darüber ist preislich in einer sinnvollen Austattung mit einer Threadripper Workstation zu vergleichen … Was ist daher die Aussage dieses Videos? Das man Äpfel nicht mit Birnen vergleichen kann?

  • @SpliffRidah
    @SpliffRidah 2 года назад +9

    Intel und AMD haben kein Problem solange Apple ihre irrwitzige Preis Politik beibehält.
    Nicht jeder will 2300 € für einen Rechner hinlegen und wenn ich sehe was die Nachrüst Komponenten bei Apple kosten...
    Nee, lass ma

    • @adi-xk1sv
      @adi-xk1sv 2 года назад +2

      Das Air kostet doch nu 950 Euro . Zeig mir eine Laptop mit dieser Leistung und Batterielaufzeit.

  • @heinzherbert1706
    @heinzherbert1706 2 года назад +1

    Hm, einen brandneuen High-End-Rechner (kleinste Konfig ab 2300 €) mit einem drei Jahren Mittelklasse-PC (ja auch damals gab es schnelleres - 16-Kerner, 2080 Ti) zu vergleichen hat schon was. Habt ihr vor drei Jahren den Keno-PC auch mit einem drei Jahre alten Mac verglichen, der halb so teuer war? Aktuelle x86-Technik und Zubehör wie eine RTX 3090 schaffen in dem Blender-Benchmark übrigens so 2800 Punkte. Ist der M1 jetzt auch tot?

    • @olafschluter706
      @olafschluter706 2 года назад +2

      Kostenpunkt für meinen letzten Spiele-PC (2021): 3500 Euro. Wobei allein die RTX 3090 ca 70% des Preises ausgemacht hat, Grafikkarten kriegt man ja zur Zeit nur noch gegen ihr Gewicht in Gold (Platin?). Klar ist der performanter bei der Grafik als selbst ein M1 Ultra mit voll ausgebauter GPU (mein erster Spiele-PC, bei dem der Grafikbenchmark eines AAA-Titels - Ghost Recon Breakpoint - in 4k/HDR/Ultra die GPU nicht zu 100% auslastet). Aber wenn Keno jetzt den für die Rendertests genommen hätte, wären die Ergebnisse bereits im Vergleich mit dem M1 Max die gleichen gewesen. Der PC zieht bei Vollast mehr als 500 Watt aus der Steckdose und verbraucht Idle mehr als der M1 Max unter Vollast. Weil weder Intel noch AMD bereits bei 5 nm angekommen sind, können die Leistung aus ihren CPUs nur dadurch rauskitzeln, dass sie bei der Leistungsaufnahme ans thermische Limit gehen, um die Taktraten möglichst hoch zu schrauben. Ein Mac Studio mit gleichem RAM (32 GB) und SSD-Ausbau (1 TB) wie dieser Spiele-PC wäre im übrigen günstiger (mit m1 MAX 32 GPU-Kerne: knapp 2800 Euro). Aber als Arbeitspferd im Home Office für SW-Entwicklung reicht mir bereits ein mini M1. Den gibts ab 700 Euro.
      Wenn die bei Intel und AMD auch mal so kompakt fertigen können, erwarte ich, dass auch der Leistungshunger der x86-CPUs abnimmt.
      Weniger Stromverbrauch heisst: längere Notebooklaufzeiten ohne Notwendigkeit, die CPUs zu drosseln, mehr Laufruhe auf dem Desktop und in Rechenzentren Einsparungen bei der Stromrechnung und dem Aufwand für die Klimatisierung, die dann auch noch mal Strom kostet. Es ist gut, dass das Rennen um Effizienz eröffnet ist.

    • @CrassSpektakel
      @CrassSpektakel 2 года назад +1

      @@olafschluter706 Nö, Grafikkarten sind seit Dezember um 60-70% gefallen. Ein Spezl hat sich gerade eine Geforce 3080Ti für 1000 Euro bestellt, ich warte noch, derzeit fallen GPUs pro Woche um 10%. Ich denke bis Sommer sind wir DEUTLICH unter UVP. Ich denke bis Juli kostet die 3080Ti unter 700 Euro. Dann werde ich wohl zuschlagen.

    • @olafschluter706
      @olafschluter706 2 года назад +1

      @@CrassSpektakel Ja, das ist gut, aber die Lage sah halt Anfang 2021 ganz anders aus. Aber ich wollte damals unbedingt einen Spiele-PC, der in der Lage ist, eine HP Reverb G2 kompromisslos zu versorgen.
      Doch selbst unter normalen Umständen muss man bereits einen M1 mit einer benchmarkmäßig vergleichbaren CPU + 1060 GPU vergleichen. Wo man einen M1 Max mit 32-Core GPU grafikkartenmässig zu verorten hat, ist nicht ganz klar, allerdings sind >60 fps für Shadow of the Tomb Raider, dass überall immer noch als GPU-Benchmark herhält, bei maximalen Einstellungen und 4k schon ne Hausnummer - anders als die High-End-Karten der Wintel-Welt ist der ja noch nicht mal im Hinblick auf Spiele gebaut. Ein Mac ist keine Spieleplattform, mangels verfügbarer SW und wohl auch, weil Gamer wie ich sich ihre Wintel-Boxen kompromisslos selbst zusammenstellen, da passt das Geschäftsmodell und Produktangebot von Apple überhaupt nicht. Es gibt aber Spiele, die selbst schon auf einem M1 ziemlich gut laufen, bspw. die von Paradox Interactive, Surviving Mars oder Europa Universalis (coole Spiele btw.) Rosetta 2 ist allerdings ziemlich performant, der x64-Emulator von Windows on ARM ist da deutlich langsamer (weil verschiedene Konzepte, Rosetta übersetzt x64-Code in ARM, Windows emuliert einen x64-Prozessor auf ARM, und hier gewinnt mal ganz deutlich das Rosetta-Konzept) deswegen kann man auch ein Intel-Mac-Spiel nehmen, um die GPU-Performance eines M1x zu testen und man kann Rosetta da auch nicht als Entschuldigung nehmen. Eine RTX 3090 bringt hier etwas mehr Performance, bis zu 80fps, sagt das Internet, ich kenne das Spiel und habe das auf dem aktuellen PC nicht mehr gespielt, kann also nur zitieren. Ich sehe das recht gelassen, weil der mini M1, den ich habe, für SW-Entwicklung genutzt wird. Da hat er die Performance eines Intel-PCs mit vergleichbarem CPU-Benchmark und kostet auch nicht mehr als der, was seine GPU kann, kann mir wurscht sein (die ist bei Shadow of the Tomb Raider nicht wirklich toll, da habe ich das aus Neugier mal ausprobiert). Weil macOS obendrein unixoid ist, taugt er auch zur SW-Entwicklung besser als Windows. Alle wichtigen SW-Entwicklungstools stammen aus der Unix-Welt. Und an macOS kommt man eh nicht vorbei, wenn man SW für iPhones schreibt, das ist sein Vorteil gegenüber Linux. Weil das in den letzten Jahren zu meinen Aufgaben hinzugekommen ist, musste eh ein macOS-Rechner her.
      Als der Macbook Pro mit M1 Max präsentiert wurde, habe ich mal den Vergleichsrechner Razor Advanced 15, das Gaming-Notebook-Flagschiff von Razor, aufgerufen, das leistungsmäßig am ehesten equivalent ist. Bei gleichem RAM und SSD-Ausbau kamen ein Macbook Pro 16 und dieses Notebook beide auf ca. 3500 Euro. Apple ist nicht wirklich teuer. Die verkaufen halt bloss immer Hardware im Premium-Segment, da, wo bei Autos BMW, Mercedes oder Audi sind. Und damit in den oberen Preisklassen,. Der mini ist da die Ausnahme (der 24 Zoll iMac und das Macbook Air im Prinzip auch noch). Die sind preis/leistungsmäßig vergleichbar mit der Intel-Welt für Normal-Sterbliche, und haben ihre Vorteile nicht bei der Performance, sondern bei der Energieeffizienz (was mehr Akkulaufzeit für Notebooks und mehr Laufruhe für Desktops bedeutet). Wenn es den mini nicht gäbe, wäre meine Entscheidung für einen macOS-Rechner wohl auch anders ausgefallen, ich hätte mir dann privat keinen angeschafft, denn ausser dem mini pur habe ich nichts gebraucht, alles andere, Monitor, Sound, Kamera, Tastatur, Maus, war ja alles schon da. Jetzt hängt der mini als 2. PC am Monitor, der auch einen KVM Switch hat, und auch noch den Vorgänger-PC versorgt. Den ich aber, seit ich den mini habe, kaum noch nutze (eigentlich nur noch, um Daten auf den mini zu übertragen, die bisher nur auf dem PC waren). Ich hatte mir vorher bereits eine Zeitlang damit beholfen, einen Hackintosh zu betreiben (was allerdings absehbar keine Option mehr sein wird wegen dem Umstieg auf Apple Silicon, das geht vielleicht noch ein paar Jahre). (War) Die günstigste Lösung für macOS, wenn man die Hardware sowieso schon hat. Ja, ist richtig, fürs Gamen gebe ich wesentlich schmerzfreier Geld aus, habe ich ja erzählt :) Das ist halt mein Hobby. Da bin ich eher in Gefahr, wieder mehr als 2K für einen Wintel-Rechner auszugeben (der Spiele-PC war mit Abstand der teuerste PC, den ich je angeschafft habe, normalerweise habe ich mir immer ein Budget von 1500 Euro gegönnt), als mir ein Mac Studio anzuschaffen. Fürs Arbeiten brauche ich so viel Power nicht. Nicht für meine Zwecke da.
      Allerdings hatten mich meine Hackintosh-Erfahrungen auch davon überzeugt, dass macOS gar nicht so schlecht ist zum Erledigen typischer Home-PC-Aufgaben, wie z.B. scannen und verschicken eines Steuerbescheids an den Steuerberater . Deutlich besser als Windows und Linux zickt da mitunter auch mehr. Ich brauche auch weder MS Word noch OpenOffice, um die paar Briefe zu schreiben, die im Jahr anfallen, da kommt mir die Funktionsvielfalt dieser Office-Pakete eher in die Quere. Für solche Zwecke sind die Office-Tools, die mit macOS mitkommen, genau richtig. Und Keynote ist deutlich besser als Powerpoint oder sein OpenOffice Pendant Das kann ich als jemand, der auch als Berater unterwegs ist, mit Grund sagen.

  • @Sockeye404
    @Sockeye404 2 года назад +1

    Bist du dir sicher, dass du hier nicht Äpfel mit Birnen vergleichst? Gerade beim Rendering sind die "verdrahteten" Encoder der Schlüssel für gute Performance. Möglicherweise solltest du den mal gegen einen 12900k laufen lassen? Aber dazu gibt's ja auch schon genügend Videos :-)

  • @l.bagusch1186
    @l.bagusch1186 2 года назад +5

    Sehr Interessant was die Leistung und der Stromverbrauch betrifft, aber leider sind die MACs ganz schön teuer und wenn Nachfolgekosten enstehen durch ein behebbaren technischen Schaden muss man wieder tief in die Tasche greifen.
    Bei Apple ist fast alles überteuert.
    Aber für Leute die finanziell gut ausgestattet sind, ist das allemal eine sehr gute Empfehlung !

    • @narratotgaming6076
      @narratotgaming6076 2 года назад +1

      Daher ist dieser Vergleich nutzlos, jemand der sich einen Mac Studio anschaut, sollte auch immer einen 32 Kern Threadripper Pro in Betracht ziehen (kosten sind bei Sinnvolen Specs ähnlich)

    • @Pregidth
      @Pregidth 2 года назад +2

      Nach meiner Erfahrung (Mac Admin) gehen die Macs äußerst selten hops. Und wenn dann kann man mit iFixit selbst Hand anlegen.

    • @dkastra26
      @dkastra26 Год назад +1

      Naja einen Mac verkaufe ich noch ewig für gutes Geld. Einen Windows pc eher nicht. Mein Nachbar hat sich jetzt noch ein MacBook Pro aus 2016 gekauft für 600€ und das Ding rennt.

    • @l.bagusch1186
      @l.bagusch1186 Год назад

      @@dkastra26
      Für 600 € hat ihr Nachbar ein gutes Schnäppchen gemacht.
      Und Windows PCs verlieren schnell an Wert.
      Das liegt an der Masse die hergestellt wird.

  • @gamingthunder6305
    @gamingthunder6305 2 года назад +4

    arm als x86 ersatz nur wenn die CPU gesockelt kommt und der pc standard offen und erweiterbar bleibt.

    • @BGlevelextreme
      @BGlevelextreme 2 года назад

      Genau das wird sicherlich nicht passieren! Das wäre mir die Effizienz auch nicht wert.

    • @gamingthunder6305
      @gamingthunder6305 2 года назад

      @@BGlevelextreme da bin ich mir eben nich so sicher. selbst die open source arm alternativen sind alle verloetet und der trend electornische fuss fesseln zu intigrieren ist kaum von der hand zu weisen.
      man wird sehen was die zukunft bringt. mehr leistung bei gerringerem strom verbrauch ist auf jedenfall wuenschenswert. der trend bei den actuellen GPUs ist ja schon total verueckt.
      PS. sorry for my bad German.

    • @lukass8506
      @lukass8506 2 года назад

      @@gamingthunder6305 Es gibt jetzt schon viele ARM CPUs, die gesockelt werden. Halt im Serverbereich.

  • @hazeforallheu3103
    @hazeforallheu3103 2 года назад +5

    Bin mal gespannt wie sich das alles weiterentwickelt mit der Arm Architektur, Apple hat sehr schön bewiesen was jetzt schon machbar ist im Vergleich zur energieeffizienz, ist halt schade das noch keine Spiele wirklich unter Mac OS laufen... aber eventuell ändert es sich ja noch bzw Windows zieht fix nach (:

    • @hesspet
      @hesspet 2 года назад +1

      Was mache ich mit meiner Windows Altsoftware? :-) Ich denke das wird der Haupthemmschuh sein. Ich habe eine große Spielebibliothek, vor der bestimmt die meisten Firmen kein Interesse haben sollten nativ für den Arm einen Port zu machen. Ähnliches dürfte sich auch bei extrem vielen Altanwendungen in der Windowswelt abspielen. Also fern ab von den Bettkantenusern im normalen Geschäftsbereich.

    • @baronimo
      @baronimo 2 года назад

      @@hesspet mit etwas Glück wird es dafür vielleicht einen Emulator geben?

    • @karlknapp2798
      @karlknapp2798 2 года назад +2

      @@hesspet Ich habe mit Apple in den 90ern den Umstieg von Motorola- auf PowerPC-Architektur mitgemacht, dann 10 Jahre später den Umstieg von PowerPC auf Intel und jetzt steht der Umstieg auf ARM an. Davor habe ich überhaupt keine Angst, denn die alte Software läuft ja noch ein paar Jahre. Viel schmerzhafter war der Umstieg von MacOS9 auf MacOSX und von 32 auf 64 Bit. Da ist mehr Software den Hang runter. Sprich: ein Wechsel der Hardware stellte dank Emulationsschicht kein wirkliches Problem dar. Das bekommt auch Microsoft hin.

    • @hesspet
      @hesspet 2 года назад +1

      @@karlknapp2798 Nö, auf den Emulationszug springe ich nicht mehr auf. Ich habe da zu viele Stunden meines Lebens mit Frickelei verbracht :-) Dafür bin ich einfach zu alt geworden. Gerade bei Branchensoftware haben mich diese Art von Umstellungen schon viele graue Haare die letzten 30 Jahre gekostet. Große Versprechen und wenn es ernst wurde, hast Du beim Kunden verzweifelt gesessen und einen Patch nach dem anderen durchprobiert um dann irgendwie (meist) zum Erfolg zu kommen.

  • @prodigy_xd
    @prodigy_xd Год назад

    Sehr sympathisch. Abonniert!

  • @diehanfschule
    @diehanfschule 7 месяцев назад

    Ich nutze den M1 im McBook Air als Content Creator, es ist einfach unglaublich effizient in der Videobearbeitung. Preisleistung ohne hin top beim Air !

  • @tomsun3159
    @tomsun3159 2 года назад +1

    Der Leistungsverbrauch der CPU ist ja aktuell das kleinere Problem, Systemverbrauch da spielt die Musik, also Was wird aus der Wand gesaugt, mit Monitor, PC, Zubehör.
    Lautstärke ist da natürlich auch ein Thema.

  • @panografico
    @panografico 2 года назад +1

    Kein Wort zu Windows auf der Maschine? Machst du nochmal ein Video mit einer Windows-Emulation auf ARM?

    • @blank_35m
      @blank_35m 2 года назад

      Kann ich dir auch sagen hab zwar kein m1 ultra aber auf m1 Mac mini lauft Windows echt gut mit parallel Desktop mit arm Windows bekommt es fast die ganze Leistung ab von Gast spiele laufen einige sehr gut neue natürlich nicht so hängt aber auch davon ab ob die Spiele mit arm laufen

    • @ExceptionalWorld
      @ExceptionalWorld 2 года назад +1

      @@blank_35m Müssen erst mal die Entwickler einbauen bzw. integrieren ... Sehe jetzt schon die nächste Remastered Welle auf uns zukommen 😅

    • @blank_35m
      @blank_35m 2 года назад

      @@ExceptionalWorld 🤣 naja wer aber geil wen die Spiele direkt für Mac raus bringen wurden da wurde ich mir so mac bestellen mit dicken gpu auf m1 xD

  • @pcghgs2260
    @pcghgs2260 2 года назад +6

    12:40 Die Leistungsaufnahme von Spiele-PCs sinken nicht, sondern steigen weiter an.
    Total Graphics Power (TGP) von RTX 2080 TI FE: 260W
    TGP von RTX 3090 FE: 350W
    TGP von RTX 3090 TI: 520W (TDP: 450W)
    TGP RTX 4090: 600W

    • @hesspet
      @hesspet 2 года назад +1

      Das wird aber auch Apple nicht ändern. Für diese Art von GPU Power ist, nach meinem Kenntnisstand, kein anderer Weg möglich. Zumindest sehe ich den nicht.

    • @Scanix90
      @Scanix90 2 года назад +1

      @@hesspet das geht schon anders. Problem ist das hier eine ganze Industrie auf einen neuen Standard wechseln müsste. Da hat sie Branche einfach kein Interesse dran. Würde ja die Gewinne schmälern und die Idioten kaufen ja eh alles.

    • @triash
      @triash 2 года назад +1

      Und diese Entwicklung ist absolut lächerlich... Sofern man seine eigene Stromrechnung zahlt. Hab mal rtx 4090 und dazu noch einen schönen fetten Monitor im Dauerbetrieb laufen, da schlackerst du nach einem Jahr mit den Ohren.
      Die Frage die sich MIR beim gamen nach dem chip-shortage gestellt hat: Brauch ich das überhaupt um den drölfigsten COD Ableger zu zocken? Jeden das seine, aber ich mach diesen Mist nicht mehr mit und hänge die Zockerei bis auf weiteres an den Nagel

    • @cristiabc1310
      @cristiabc1310 2 года назад

      Die EU sollte hier ganz klar einschreiten und Hoechstwerte vorschreiben..

  • @sagnetohnename2001
    @sagnetohnename2001 2 года назад +2

    Spannend ... und vor allem geht es wohl in die richtige Richtung. Danke für die Info!

    • @bits-bytes
      @bits-bytes 2 года назад

      Ein 3 Jahre alter PC kann gegen ein aktuelles System von Apple nun mal nicht anstinken. Hier wurden im wahrsten Sinne des Wortes Äpfel mit Birnen verglichen.

    • @sagnetohnename2001
      @sagnetohnename2001 2 года назад

      @@bits-bytes Da hat wohl jemand nicht verstanden, worum es geht ... :-D
      Und nochwas: Warum es immer heißt "Äpfel mit Birnen kann man nicht vergleichen", verstehe ich nicht. Äpfel mag ich sehr gerne, Birnen aber nicht. Warum sollte man das nicht miteinander vergleichen können? Ich kann sogar Äpfel mit Bananen vergleichen. Oder mit Weintrauben. Vergleichen kann man alles. :-P

  • @ralfkieschnick1031
    @ralfkieschnick1031 2 года назад +11

    Bitte vergleiche mit dem ALDI-PC Engineer X20 (1999 €)

  • @Electra1038
    @Electra1038 2 года назад +1

    Man könnte den gleichen Test statt mit dem Studio, auch mit dem 2020iger M1 Mac mini machen der weniger als die Hälfte kostet, Ergebnisse wären wohl verhältnismässigen ähnlich, zumal der Mac mini inzwischen frei von Kinderkrankheiten ist und der Studio noch ein paar hat (Skalierung, Throttling, etc.)

  • @kappilino
    @kappilino 2 года назад

    Bei Blender ist der Vorsprung von Nvidia speziell darauf zurückzuführen das Blender CUDA nutzt, was als proprietäre Nvidia Technik nicht auf dem M1 verfügbar ist aber auch nicht auf AMD Karten. Zudem kann der Mac noch kein Raytracing und die Optimus Technik zum entrauschen läuft auch nur auf einer Nvidia Karte. Der Vergleich ist also nicht ganz verhältnismäßig.
    Ansonsten finde ich es immer noch bemerkenswert was Apple aus dem Stand für einen SoC rausgehauen hat. Der M1 ist erst die erste Desktop Chip Generation auf dieser Basis, mit einer Überarbeitung. Das Watt-Leistungsverhältnis ist wirklich beeindruckend.
    Danke für den gelungenen Test.

  • @TopTierTales-ux4se
    @TopTierTales-ux4se Месяц назад

    Die Tage von x86 scheinen langsam gezählt und es freut mich.

  • @christiankulmann3325
    @christiankulmann3325 2 года назад +2

    Die AMD APUs sind auch schon viel effizienter... M1 vs. APU mit DDR5

  • @korbensc7218
    @korbensc7218 2 года назад +1

    Könnte mir gut vorstellen das nvidia als nächstes was im Bereich ARM SoC für Consumer bringen wird. Auch wenn sie sich ARM nicht einverleiben konnten, verzögert das die Pläne die sie mit ARM haben vermutlich nur etwas.

  • @TheCOF999
    @TheCOF999 2 года назад +9

    Hallo Keno! Richtig interessant wäre ein Vergleich mit Deiner Workstation, die mit Linux läuft. Ob sich die Benchmarkwerte dadurch noch verbessern würden? Mir sind jedenfalls die Apple-Produkte viel zu teuer, auch wenn sie sehr ausgewogen und zuverlässig sein sollen. Und, für das Geld, was ich bei Apple mehr bezahle, kann ich erst mal noch viel Strom mit dem Windowsrechner verbrauchen! ;-) Richtig vom Glauben abgefallen bin ich als ich gesehen habe, was Modifikationen, wie z.B. eine größere SSD kosten sollen. Das ist einfach nur unverschämt und dreist! Auf jeden Fall vielen Dank, für das interessante Video. Mach weiter so. Ich finde Deinen Stil super! Informativ und unterhaltsam, genau die richtige Mischung!

    • @dergummipunkt
      @dergummipunkt 2 года назад +8

      Ich lese immer wieder davon, dass Apple Rechner zu teuer wären. Aber immer wenn ich Leute dann bitte, mal einen vergleichbaren Windows Rechner zu präsentieren, dann wird das wegignoriert. Also z.B. ein Macbook Air kostet in der Windowswelt maximal 100 Euro weniger (gleicher SSD-Platz, gleicher RAM, gleicher Bildschirm etc).

    • @BlackEvildoer
      @BlackEvildoer 2 года назад +3

      @@dergummipunkt Pssst… das darfst du aber nicht so sagen 😉 Im Vergleich zu nem billigem Plaste Windows Rechner sind die schon gar arg teuer…

    • @ct3003
      @ct3003  2 года назад +3

      Premiere Pro gibts leider nicht für Linux...

    • @hesspet
      @hesspet 2 года назад +3

      @@dergummipunkt :-) Und genau das höre ich immer wieder von Apple Missionaren. Nur leider beweisen konnte es mir noch keiner. Vor allem wenn ich einen "kleinen" erweiterbaren Rechner haben wollte. Entweder volle Breitseite oder? Es sind halt Rechner für HighEnd Kunden und da kommt es einfach nicht auf das Geld an - aber wo ist der vernünftige Desktoprechner für den normalen Büroalltag für sagen wir mal unter 1000 Euro. :-) Es kommt immer auf den Blickwinkel an, die wenigsten Anwender dürften eine so geballte Leistung brauchen. P.s.: Ich habe gerade wieder einen kleinen Wohnzimmer "PC" auf ARM Basis aufgebaut. -> Raspi4 :-)) Geht doch... für unter 200€ inkl. Festplatte und Gehäuse. Und die Leistungsaufnahme hält sich wirklich in vernünftigen Grenzen.

    • @__goat__
      @__goat__ 2 года назад +1

      @@dergummipunkt Genau, ich habe noch nie einen Monitorständer unter 1000€ gesehen!!!!! Oder die 850€ Rollen für den Mac, der Gedanke man wurde in der Windows Welt günstigere Rollen finden ist ja völlig absurd!! Die sind schließlich aus Gummi!!!!! GUMMI!!!!! Sowas Hochwertiges gibt es bei Windows PCs doch gar nicht!!!!!
      Aber bitte, stell halt eine Rechnung auf wie viel ein Rechner kostet der vergleichbar mit dem 4600€ M1 Ultra Mac ist. Mein Vorschlag wäre ein Ryzen 5950X mit starker GPU. Wenn man die GPU nicht braucht kann man auch direkt einen Threadripper nehmen. Als Benchmark nehmen wir die Compilezeit des Linux Kernels.

  • @der.Schtefan
    @der.Schtefan 2 года назад

    ProRes wird als Zwischenformat zum Editieren benutzt, man kann in der Ingest-Station gleich als ProRes ingesten, oder wenn man möchte die Previews als ProRes abspeichern und dann weiterverwenden.

  • @smyrgel
    @smyrgel 2 года назад

    Von wegen 'Wünsch der was': Kannst du nicht mal ein oder zwei Videos zum Thema Geforce Now machen? Am Besten einmal für Menschen ohne Mitgliedschaft, die unter anderem Steam nutzen möchten. Und einmal mit Mitgliedschaft, mit Infos darüber, was dass dann bringt und wie die Bedienung geht.
    Ich habe seit Jahren z.B. ein Nvidia Shield, und bekomme da spieletechnisch mal garnix an Haken. Bin aber auch kein Gamer, würde mich aber gerne mal in die Welt begeben. Letzten habe ich ca. 25 Minuten auf einen freien Slot gewartet, um eines der kostenlosen Games zu spielen, wofür ich ja ausch schon registriert sein muss. Endlich an der Reihe, sollte ich mich wieder mit facebook, google oder noch so'n Mist anmelden und bin gescheitert.
    Danke für dein Beiträge. Endlich mal ein verständlicher Motivator 🙂

  • @Electra1038
    @Electra1038 2 года назад +1

    Nicht ganz fair ne eher für heutige Verhältnisse lahme NVMe (5-7 GB/s) zu vergleichen. Eine externe sehr schnelle TB3/4 SSD mit 4 TB kostet ja auch rund 2k € - also von dem her eigentlich gar nicht so schlecht.

    • @pulzzar030
      @pulzzar030 2 года назад

      Naja, ne gute 2TB PCIe4.0 NVME kostet auf dem freien Markt auch nur ca. 260-300€. Warum du jetzt hier mit externen TB SSDs ankommst, versteh ich auch nicht so ganz. Da kosten allein die Cases ja dank TB schon ein Heidengeld.

    • @Galax2000
      @Galax2000 2 года назад

      Eine schnellere ssd macht die cpu in den ganzen Tests nicht wirklich schneller

  • @Corny_SATIRE
    @Corny_SATIRE 2 месяца назад

    cool. endlich ist man nicht mehr abhängig vom hersteller eines betriebssystems und ich kann jederzeit ram und datenträger tauschen oder ergänzen. diese neue "unabhängigkeit" ist MEGA !!! 😮😮😮

  • @menschjanvv2500
    @menschjanvv2500 2 года назад +1

    Man sollte beachten das es nicht rein an der Architektur liegt. Es kommt immer darauf an wie die Software mit der Hardware kommuniziert. Speziell auf die Hardware abgestimmte Software wird immer deutlich besser laufen als Massenware. Ich merke das gerade bei Linux. Auch ein M1 wird scheiße laufen wenn die Software mist ist.

  • @ChemBustaRhymes
    @ChemBustaRhymes 2 года назад +4

    Tolle Hardware, aber leider kann ich einfach keinen Rechner von Apple kaufen. Dazu ist mir Apple einfach zu gierig und die fehlende Möglichkeit, selbst aufzurüsten, ist ein Ausschlusskriterium. Einen kleinen, leisen und stromsparenden Rechner wie den Mac Studio hätte ich nur zu gern. Ich hoffe, dass wir in den nächsten Jahren auch PCs auf ARM-Basis sehen werden.

    • @blank_35m
      @blank_35m 2 года назад

      Einfach beschweren ;) irgendwann müssen die das wieder möglich machen besonders wen in eu das Recht auf selbst Reparatur Pflicht wird da müssen auch Hardware so sein das man sie wechseln kannst

    • @BlackEvildoer
      @BlackEvildoer 2 года назад

      MacMini z.B……

    • @blank_35m
      @blank_35m 2 года назад +1

      @@BlackEvildoer falsch sorry er will aufrüsten können kann man mit denn neueren Mac mini nicht mehr 🤔 glaub seid 2014 wurden die RAM verlötet und ab 2018 auch die ssd oder umgedreht aber jetzt mit 2020 Modell oder 21 Modell kann man es überhaupt nicht mehr leider deswegen hoff ich auf das Gesetz von der eu

    • @hesspet
      @hesspet 2 года назад

      Wenn wir aber mal ganz ehrlich sind und die Nerds und Freaks rausstreichen + berufliche Schnitter und Musiker? Wieviel Rechner werden wirklich über ihren Lebenszyklus aufgerüstet? Jaaa? Eben, nur recht wenige bis gar keine. Dieses Apple Geschäft spielt sich doch eher im HighEnd Bereich ab. Tolle Hardware würde sich für mich für einen reinen Desktop Consumer Rechner im 500-1000€ Sektor bewegen. Da würde Apple Pleite gehen wenn sie diesen Markt bedienen wollen. Ich denke wir werden ARM Geräte sehen, aber nicht von Apple in diesem Segment.

    • @ChemBustaRhymes
      @ChemBustaRhymes 2 года назад +1

      @@hesspet Und dann wären da die vielen Rechner, die von einfachen Anwendern gekauft werden, bei denen man Speicher und SSD nachrüsten muss, weil völlig unbedarft einfach irgendetwas gekauft wurde, dass dann viel zu langsam ist und keine Freude mehr bereitet. RAM und SSDs sind was ich regelmäßig in meinem Umfeld aufrüsten muss. Dass kaum Rechner aufgerüstet werden, halte ich für eine Kühne Behauptung. Es gibt von Apple bereits ARM-Desktop-Rechner für 799, 1029 und 1259 Euro: Den Mac Mini. Warum sollte Apple ausgerechnet an einem Massenmarkt pleite gehen? Wenn überhaupt fahren sie mit den Profigeräten nicht genug ein. Es wird kein Zufall sein, dass es ewig gedauert hat, bis endlich ein neuer Pro vorgestellt wurde, nach dem der "Mülleimer" kein echter Wurf war. Der Pro-Bereich ist, im Vergleich zum iPhone und den 30% Wegzoll im App-Store, nur eine Randerscheinung.

  • @byteingypthon
    @byteingypthon 2 года назад +8

    Es gibt auch Bereiche in denen der Mac Studio leider nicht der beste ist: Programmierung. Durch das Mac OS rund um sorglos und vernagelt Prinzip ist das nämlich relativ nervig(Xcode)

    • @dekjet
      @dekjet 2 года назад +3

      In meinem Umfeld nutzen einige Software-Entwickler MacBooks und die auch zum Arbeiten. Zumindest bei den X68-Geräten gibt es da keine Probleme. Bei M1 hakte es Anfangs noch, aber ich bin ziemlich sicher, dass sich das größtenteils gelegt hat. XCode spielt dabei keine Rolle.

    • @luisrotzoll
      @luisrotzoll 2 года назад

      Was hat denn Xcode damit zu tun? Wenn du z. B. Web oder Backend Development machst, kannst du jedes andere Programm nutzen.

  • @kortaffel
    @kortaffel 2 года назад +2

    Naja, haste denn bei deine Nvidia karte auch den NVenc angemacht oder renderst du das über die CPU?
    Die Apfel Kiste hat fixed function asics drin für ProRes und H264,. Da benutzt du die CPU überhaupt nicht.
    Render doch mal Blackmagic Raw und geb das als AV1 aus, dann merkst du das dein Mac zum Rasperry Pi wird
    Achja, und Geekbench ist ein Apple benchmark. Der ist dafür optimiert... jetzt den zum X86 Vergleich nehmen ist... ähm nur brauchbar wenn du das machst was Apple dir gestattet

    • @ct3003
      @ct3003  2 года назад +2

      Alle unsere Video-Renderingbenchmarks (Macs und Windows-PCs) liefen mit GPU-Unterstützung.
      Warum ist Geekbench ein "Apple-Benchmark"? Wir benutzen den hier auf diesem Channel, weil der auf allen relevanten Mobil- und Desktop-Betriebssystemen läuft und deshalb schön vergleichbar ist (Windows, Linux, macOS, Android, iOS). Was soll Apple "gestatten"?

    • @lukass8506
      @lukass8506 2 года назад

      Geekbench ist kein Apple Benchmark und dazu noch der "fairste" und Aussagekräftigste um verschiedene Architekturen schnell zu vergleichen.

    • @kortaffel
      @kortaffel 2 года назад +1

      @@lukass8506 Wikipedia: "Geekbench is a cross-platform utility for benchmarking the central processing unit of computers. Geekbench began as a benchmark for Mac OS X and Windows[2] and was created by John Poole who ran the now-defunct Geek Patrol website,[3] which reviewed hardware and software designed for Macs, and featured editorials and interviews of interest to the Mac community."

    • @lukass8506
      @lukass8506 2 года назад +1

      @@kortaffel Ändert nichts daran, dass es kein Apple Benchmar ist und nicht besser für Apple Systeme optimiert ist.

  • @V1nc3nt00
    @V1nc3nt00 2 года назад +4

    Muss leider auch gestehen, die M1-Chips sind echt brutal 😂
    Naja, wenigstens müssen sich Intel und Konsorten jetzt Mal richtig anstrengen 😅

    • @hesspet
      @hesspet 2 года назад

      Kann uns doch nur recht sein :-)

  • @trevortee1263
    @trevortee1263 Год назад

    Was nutzt die Hardware, wenn das OS Rotz ist? Habe mich 3 Jahre lang mit MacOS gequält

    • @oliverbecker3443
      @oliverbecker3443 9 месяцев назад +1

      Was hattest du denn für Probleme, und warum dann 3 Jhare Benutzung?

  • @matthias571
    @matthias571 2 года назад +1

    Schönes Video, spannend wohin die Reise geht.

    • @bits-bytes
      @bits-bytes 2 года назад +1

      Ein 3 Jahre alter PC kann gegen ein aktuelles System von Apple nun mal nicht anstinken. Hier wurden im wahrsten Sinne des Wortes Äpfel mit Birnen verglichen.

  • @Hessi
    @Hessi 2 года назад +1

    Das beobachtete ich schon vor ca. drei Jahren. Samsung Gear-360-Kamera-Bilder müssen gerendert werden. Mein i5 4670K Hackintosh mit RX570 drehte komplett am Rad. Alle Lüfter an und die Grafikkarte zeigte 170 Watt im Peak an. Sah in einem Video, dass man das doch bitte auf dem Handy rendern sollte. Also nahm ich mein Xiaomi Redmi Note 5 und ließ rendern. Das war in einem Viertel der Zeit fertig und das Handy wurde nicht mal lauwarm.
    Das war für mich der Zeitpunkt, an dem ich mir dachte, dass das mein letzter x86-Rechner sein wird. Bis heute habe ich den nicht ausgetauscht - auch weil tatsächlich kein Bedarf bestand. Ich habe noch eine m2 nachgerüstet und bin auf Ubuntu geswitcht -sonst nichts mehr. Warte nun auf ARM-Desktops und dann wird es vielleicht wieder ein Hackintosh
    Ich vermisse drei Dinge ganz heftig unter Linux: FCPX, Fotos und Photoshop - okay, Shotwell, Kdenlive und PhotoGimp sind absolut in Ordnung, es ist schlicht die Gewohnheit.
    Bis 1984, zum C64, hatte ich noch „ernsthaft“ auf Konsolen gezockt, dann nicht mehr. Ich war einfach der notorisch übertaktende PC-Gamer. Hat sich echt geändert. Immer wenn man Zocken will, muss man Windows starten. Das macht erst mal ewige Updates und bettelt auch danach noch um Aufmerksamkeit. Neeee, keinen Bock darauf. Merkte, dass ich immer öfter die Xbox benutzte.
    Seit 18 Jahren habe ich privat kein Windows mehr „produktiv“ am Start - und lebe seitdem stressfreier. Selbst ein scheiß Hackintosh ist einfacher zu installieren und zu warten als Windows.

    • @Hessi
      @Hessi 2 года назад

      ​@@TheMinijobber Updates sind Wartung.

  • @ExceptionalWorld
    @ExceptionalWorld 2 года назад +2

    Freu mich schon riesig auf den ersten AMD ARM Prozessor 😃

    • @R-R-R
      @R-R-R 2 года назад

      Ob sie sich dann in ARMD umbenennen?

    • @ExceptionalWorld
      @ExceptionalWorld 2 года назад

      @@R-R-R Glaube ich kaum, da es ja nur die Prozessorarchitektur ist 😁

  • @karstenk.6067
    @karstenk.6067 Год назад +2

    Ich danke dir für deine Videos. Du sprichst locker aus der Hüfte und kommst auf den Punkt. Kann man viel lernen. Ja und Apple wird eh in Zukunft alles überrennen. Wie sage ich immer " Die können es einfach " ! ;)

  • @brainforest88
    @brainforest88 2 года назад +1

    Was macht Intel eigentlich hauptberuflich?

    • @Hessi
      @Hessi 2 года назад

      Bunnypeople nähen, warum?

  • @idcrafter-cgi
    @idcrafter-cgi 2 года назад

    könntest du auf einem M1 Asahi Linux instalieren? Linux ist deutlicher näher an Unix als das schwach auf freebsd kernel basierendes mac os

  • @flatD1
    @flatD1 2 месяца назад

    Nach nun 2 Jahren Apple M auf ARM Basis sind die Qualcomm X Elite gerade dabei, die Intel und AMD CPUs ganz schön unter Druck zu setzen. Und Apple hat mit dem M4 und den künftigen M4 Pro, M4 Max, M4 Ultra und evtl. sogar M4 Extreme ein Paar Pfeile im Köcher, die den X86ern wohl bald den Gar ausmachen werden. Dabei sollte man nicht so sehr auf die aktuellen CPUs bei Intel, AMD, Qualcomm und Apple schauen, sondern auf die extrapolierten Entwicklungssprünge für die Zukunft, also die Rate, mit der neue CPUs schneller und sparsamer werden. Ich sehe für Intel und AMD nur die eine Möglichkeit, ebenfalls auf ARM zu wechseln. Ob das dann RISC V oder eine ganz eigene ARM-Implementierung wird, ist unerheblich. Microsoft setzt mit seinen neuen Surface Laptop 7 und X Elite voll auf Windows on ARM und das wird sich in Zukunft noch verstärken. Da wird die ganze X86-Schiene in's Hintertreffen geraten, zumal Windows on ARM selbst mit den alten X86-Programmen recht gut und schnell funktioniert. Als Apple-User mit diversen ARM-Rechnern sehe ich dem Ganzen genüsslich zu. Ich warte schon auf den großen Paukenschlag, wenn Pat Gelsinger den Umstieg auf ARM verkündet und kurz danach Lisa Su für AMD gas Gleiche Verkündet. ich bin mir sicher, dass das kommen wird.

  • @marcusdunst
    @marcusdunst 2 года назад

    Warum testet ihr mit einem i5 und nicht i7 oder 9?

  • @area28
    @area28 Год назад +1

    Cool, mein nächster Rechner wird ein Mac

  • @ConpoTutorials
    @ConpoTutorials 2 года назад

    Rendern gibt immer schöne Zahlen doch wie ist der gefühlte Workflow auf einem M1 Max?

  • @MarkusMakossa
    @MarkusMakossa 2 года назад

    Wie immer gut 👍✌️👏👍

  • @dkastra26
    @dkastra26 Год назад +1

    Was noch zu kurz kommt. Absolute Stille im Raum bei vollster power. So kann man arbeiten. Selbst mit meiner wakü rödeln immer Lüfter neben mir rum und dann meine kindische rgb Beleuchtung die kein Mensch braucht. Apple ist schon was tolles. Ganz ohne Neid. Noch dazu diese power in einem MacBook Pro und der Akku hält einfach ewig

  • @martinrocket1436
    @martinrocket1436 2 года назад

    Erinnert ihr euch noch an das Toshiba AC100?

  • @friedhelmfeuerstein9111
    @friedhelmfeuerstein9111 2 года назад

    Ist der Geekbench wirklich geeignet X86 CPUs mit dem M1 zu vergleichen? Soweit ich weiß, wird hier nur die Single-Thread Leistung pro Kern gemessen. Was bedeutet, dass beim X86 Prozessor nur ein Teil der Leistung abgerufen wird, weil ein Kern auf zwei Threads aufgeteilt wird wohingegen ein M1 Prozessor nur einen Thread pro Kern besitzt. Das ist in etwa so, als würde man ein Allrad-Auto mit einem Fronttriebler vergleichen indem man die Leistung nur auf der Vorderachse misst.

    • @lukass8506
      @lukass8506 2 года назад

      Geekbench ist der mit Abstand fairste Benchmark zum vergleichen von x86 und ARM Systemen. SMT wird auch genutzt.

    • @friedhelmfeuerstein9111
      @friedhelmfeuerstein9111 2 года назад

      @@lukass8506 Naja, da bin ich mir jetzt nicht so sicher - wie bereits beschrieben. Falls das wirklich so ist - vielleicht ist das in der aktuellen Version der Fall - nehme ich natürlich alles zurück, kein Thema :-) Ich möchte aber noch zusätzlich zu bedenken geben, dass Intel CPUs aktuell noch in 10 nm gefertigt werden und M1 Prozessoren in 5 nm. Das ist natürlich Intels versagen aber es relativiert zumindest die Überlegenheit des M1 Chipdesigns. Für in Stein gemeißelt halte ich die aktuelle Situation indes nicht. In den 90´ern wurde der Power-PC Prozessor bereits als überlegene Architektur gepriesen, daraus wurde nichts. Bis Mitte der 2000´er Jahre hinkte Intel den AMD Prozessoren hinterher bis man die Core 2 Duos lauchnte wodurch sich das Blatt mit einem Schlag gewendet hat. Will sagen: Das Rennen ist weiterhin offen. Auch AMD als zweiter großer X86 Hersteller hat das Potenzial den M1 in die Schranken zu weisen. Letztlich ist X86 eine Schlüsseltechnologie der USA - ARM nicht - der Druck ist derartig hoch, dass man sich die Butter nicht vom Brot nehmen lässt. Klar, Apple ist auch eine amerikanische Company. Und: Hut ab, der M1 ist ein gelungenes Produkt. ARM ist schon seit den 90´ern interessant (Acorn Archimedes). Aber ich halte die Koexistenz für viel wahrscheinlicher als das Aussterben einer der beiden Prozessorlinien.

    • @lukass8506
      @lukass8506 2 года назад

      @@friedhelmfeuerstein9111 Naja, das einzige was man Geekbench vorwerfen könnte ist, dass bei den "Single Core" Tests nur ein einziger Thread genutzt wird (wie bei jedem anderem Benchmark auch, da man als Entwickler gar nicht einfach so nur 2 Threads auf einem Kern laufen lassen kann (Wenn du 2 Threads erzeugst, dann übernimmt das OS ab dem Punkt und würde niemals ohne manuelles Eingreifen in den Scheduler zwei Threads auf einen Kern legen). Aber das ist ein Problem des Names des Benchmarks und nicht zutreffend beim Multicore Benchmark. Das war damals zum Thema geworden, weil jede von Apples aussagen auf die Goldwaage gelegt wird und sie vom schnellsten CPU "Kern" gesprochen haben.
      Wenn du die "echte" Pro Kern nLeistung wissen willst, dann musst du vor dem Starten des Benchmark Programms Variablen setzen, die dem Benchmark vorgeben, dass es nur zwei Threads gebe und zur Laufzeit (vorm starrt des eigentlichen Bencmarks) dann z.B. über eine Schnittstelle zum Scheduler das Ausführen des Programms auf z.B. CPU0 und CPU1 zu limitieren. Dann startest du den "multicore" Benchmark und dann bekommst du deine "echte" Pro Kern Performance. Das ganze ist halt sehr realitätsfern.
      Das mit den nm Angaben ist nicht wiurklich so relevant, da diese Zahl in den letzten Jahren an bedeutung verloren hat (es gibt keine Einheitliche definition). Intels 10nm ist äquivalent zu AMDs/TSMCs 7nm und damit erstmal kein Nachteil. Der Vorteil von 5nm ggü. 7nm ist auch eher klein.
      Es gibt ja auch noch andere ARM CPUs, die auch in 7nm gefertigt werden und trotzdem erheblich schneller sind. Ampere macht AMD aktuell das Leben im Serverbereich schwer, Amazon hat seit 2020 mehr ARM CPUs für ihre Server angeschafft als x86 CPUs. Die Leistungsstärkste CPU (steckt auch im stärksten Supercomputer weltweit) ist eine 48 Kern (eigentlich 48+4 - es ist eine heterogene Architektur) CPU, die auf eine Smartphone Architektur von 2018 setzt.
      Technisch gesehen ist ARM extrem weit voraus und weder AMD noch Intel werden da erstmal rankommen (ARMs nächste Serverarchitektur wird gute 40% schneller alsa die aktuelle, die jetzt schon in vielen Anwendungen stärker als die neuesten EPYC Systeme ist). Der Vorteil, den sie haben, ist die Software. Die meiste Software ist noch nicht für ARM optimiert (ist auch für Apple aktuell ein Problem). Software ist deutlich entscheidender als die Hardware.
      PowerPC ist auch heute noch stark, IBM besetzt damit aber eher Nischenbereiche (Platz 2 und 3 der Supercomputer sind PowerPC).
      Ich denke, Intel wird mit x86 noch länger durchkommen, aber für AMD wird die Konkurrenz von ARM sehr hart werden.

  • @Heezay
    @Heezay 2 года назад

    wieso habt ihr nicht mal mit dem aktuellen i7 verglichen?

  • @jorgvespermann5364
    @jorgvespermann5364 2 года назад

    Bereits Mitte der 80er Anfang der 90er war die ARM Architektur der damals schon veralteten x86 Architektur überlegen.

  • @friedhelmfeuerstein9111
    @friedhelmfeuerstein9111 2 года назад +1

    "When Apple announces its latest computer hardware, it usually demonstrates benchmark results that present performance of its PCs in the best light possible. This tactic is hardly surprising, it is widely used in the industry. But in reality, there are other performance benchmarks and real-world use cases that at times contradict promises of unbeatable performance promised in ads and during presentation.
    In general, if you need to choose between an M1 Ultra-based desktop or an AMD / Intel-based machine, you should probably check performance of such systems in your workloads rather than rely on benchmark results published over the Internet." Tom´s Hardware

  • @BeaglefreilaufKalkar
    @BeaglefreilaufKalkar 2 года назад +5

    @C't, versuch es mal mit Technik
    Den für Humor habt ihr kein Talent. Die "Lustige" Szenen im Video nerven nur. Da wird viel zu viel gelabert und viel zu wenig Inhalt präsentiert.
    Vergleich lieber 4K Videoschnitt in Adobe Premiere und DaVinci auf Mac und PC, und daneben auch Final Cut auf Mac. Vergleich mal 200 RAW Bilder verarbeiten auf Mac und PC in Lightroom und zb Affinity Photo um zu zeigen was Optimalisierung auf Apple Silicon ausmacht an statt da rum zu hampeln.
    Von C't erwarte ich Fachpresse niveau, wenn ich was zu lachen haben will Lese ich Postillion oder Titanic
    Vergleich es mal mit MaxTech
    ruclips.net/video/kVZKWjlquAU/видео.html

  • @johanneshiller7277
    @johanneshiller7277 2 года назад +1

    Kurze Zusammenfassung: x86 ist ARM dran

  • @Leynad778
    @Leynad778 4 месяца назад

    Tja, zwei Jahre vergangen und geändert hat sich nichts. 'Dank' Gaming-PC hab ich jährlich einen Stromverbrauch als Single, da stellt mir jede Strompreis-Vergleichs-Seite automatisch den 2 Personen-Haushalt ein, wenn ich da meine 3000 KWh jährlich eintrage. Dank ROG Ally waren es mal 200 weniger und ärgerlicher finde ich, dass die Kisten die Energie in Hitze umwandeln. Im Winter praktisch, aber gibt ja noch andere Jahreszeiten...

  • @karlgrieshofer1963
    @karlgrieshofer1963 Год назад

    Ich habe selber ein neues MaxBookPro 16" M1. aber beim Arbeiten der normalen Anwendungen merkt man nicht sehr viel, schon gar nicht was der Unterschied des Preises ausmacht ! Da darf dann der PC schon mal ums vierfache längsämer sein.

  • @thomasgoetze
    @thomasgoetze 2 года назад

    Gaming-PCs sind die SUV der Pixelkrieger!

  • @michaels.8202
    @michaels.8202 2 года назад

    Ach, so sieht der Typ aus den Heise-Podcasts aus :D kannte nur deine Stimme. Hab mich dir viel nerdiger vorgestellt ^^

  • @YokoOHHNoo
    @YokoOHHNoo 2 года назад

    Ich stimme Keno im Großen und Ganzen zu, auch ich würde gerne so einen Rechner mit Apple Silicon als tägliches Arbeitstier nutzen, wobei ich Mac noch nie genutzt habe und deren Preise nicht wirklich nett finde, vom Apple Kosmos mal ganz zu schweigen... Bedenken sollte man aber, dass Apple auch einfach die ARM Biester schlechthin baut. Kein anderer Hersteller kann mit den Apple Chips mithalten, das war/ist schon bei den iPhones so. Dass man mit mehr TDP Spielraum da durchaus in Desktop/Workstation Spheren hinaufstoßen wird, war mir schon sehr lange klar. Passiert im Servermarkt ja auch schon längst (da klatscht man notfalls dann einfach noch mehr CPUs ins Rack). Ein Problem war halt lange die fehlende Software Unterstützung für Desktop/Workstation Apps...
    Bisher, so habe ich es glaube auch aus den c't Tests gelesen, tut sich Windows mit ARM aber noch recht schwer, was sicher auch mit den vergleichsweise "schwächeren" Qualcomm Chips zu tun hat, vor allem aber mangels besagtem äquivalenten Emulator zu Rosetta, welcher scheinbar auch eine Glanzeleistung von Apple ist. Da kann MS einfach (noch) nicht mithalten. Gleichzeitig wird auch native Desktop-Software dank steigender Verbreitung von M1 und Nachfolgern immer mehr auf ARM portiert werden (davon könnte dann auch irgendwann wieder MS profitieren).
    Wie das mit x86 aussieht, muss man sehen, als Laie kann ich nicht so ganz nachvollziehen, warum nicht auch x86 noch sparsamer werden kann (also letztlich mehr Performance je Watt). Vllt ist das tatsächlich ja Architektur bedingt (CISC vs RISC?) . Da müssen AMD und Intel aber tatsächlich bald liefern. Immer nur den aller schnellsten Chip ungeachtet des Verbrauchs wird irgendwann einfach auch eine physische Grenze haben.

  • @XGreenThumb
    @XGreenThumb 17 дней назад

    Zeigt mir ein System für 7000 Euro welches LLAMA 3.1 FP16 mit einer Model Size von 70B laden kann (140GB Video RAM benötigt).
    Ein aktueller Mac Studio mit 192GB Unified RAM und einer Speicherbandbreite von 800GB/s schafft das für den Preis. Ein gleichwertiger PC kostet um ein vielfaches mehr, erreicht die Bandbreite bei weitem nicht und verbraucht dabei viel mehr Strom.

  • @saxpert
    @saxpert 2 года назад +6

    ARM sein ist keine Schande mehr...

    • @blumtop
      @blumtop 2 года назад +1

      besser arm dran als arm ab.

    • @ct3003
      @ct3003  2 года назад

      ​@@blumtop Ich liebe auch dad jokes. 😊

  • @schuetting
    @schuetting 2 года назад +7

    Vor meinem M1 Mac Mini hatte ich einen Intel Mac Mini i7 (6 Kerne, 12 Threads). Leistung (fast) ohne Ende, doch bei Videoberechnung war der Rechner nach spätestens 1 Minute bereit zum Spiegel-Ei braten und der Lüfter kurz vorm abheben. Das Info-Tool zeigte 99 Grad Celsius.
    Der M1 Mac Mini dagegen wird minimal wärmer, Lüfter sind nicht zu hören bei max. 60 Grad Celsius. Bei diesen geringen Stromaufnahme lasse ich ihn auch mal gerne die Nacht über rechnen.
    Für einen 08/15 Nornalo-User wie mich ist ein M1 Mac Mini der richtige Rechner: klein, lautlos (befindet sich 60 cm von mir entfernt), stromsparend.

    • @sebastian88997
      @sebastian88997 2 года назад

      🤦🤦🤦🤦🤦🤦🤦🤦🤦

    • @CrassSpektakel
      @CrassSpektakel 2 года назад

      Dafür hätte ein Pi400 auch gereicht. Im Ernst, der ist noch sparsamer und hat mehr als genug Bumms für SOHO und Web. Sogar 4k-Videoschnitt läuft überraschend gut, siehe RUclips.

    • @schuetting
      @schuetting 2 года назад +2

      @@CrassSpektakel Nichts gegen den Raspberry 4 (habe selbst einen als Mediaplayer mit Libreelec ;-)), aber als Alltags-Rechner fehlt mir da doch etwas die Performance ...

  • @Heezay
    @Heezay 2 года назад

    super Video. mach doch mal ein Video über Arm news bei Intel, Windows ....

  • @elid9960
    @elid9960 2 года назад

    Man bin ich gespannt, was die Zukunft mit ARM bringt.

  • @dernico3381
    @dernico3381 2 года назад

    Der Ton ist auf dem Fernseher wirklich sehr schlecht.

  • @Popelpeter
    @Popelpeter 7 месяцев назад

    Das wird wohl die Zukunft der Hardware werden, möglichst Effizient, die Leistung ist zweitrangig. Wir leben in einer echt faden Zeit, was juckt mich denn der Stromverbrauch...

  • @triash
    @triash 2 года назад

    Hey du.. ich mag dich. Abo ist gemacht.

  • @poviamyou7858
    @poviamyou7858 Год назад

    Habe mir ein M1 Macbook air Gekauft, da es mir reicht und Trotz Spiele spielen wie CS:GO, Euro Truck Simulator 2 Und Minecraft trotzdem arbeiten und Internet Surfen komme ich locker durch den tag und durch das 13,3 zoll Display ist es schön handlich.

  • @tobias8488
    @tobias8488 2 года назад

    Früher gab es noch PowerPc Architektur.
    Aber zur Power von ARM ja hatte schon immer quasi mehr Effizienz, das Problem war x86 hatte 1985 schon 32Bit Architektur und Arm erst seit 2015, sonst würde die Welt anders aussehen.

  • @Hellsfoul
    @Hellsfoul 2 года назад

    Apple hat halt bei TSMC die 5nm Fertigung eingekauft. Wenn AMD und Intel auch mal auf dem Node sind, wird das bestimmt besser werden. Ich sehe das primär als Fertigungsproblem.

  • @londomollari2148
    @londomollari2148 2 года назад

    Mit einem vergleichbaren aktuellen Ryzen ? So ein 5900X sollte ähnliches leisten. Ja der Stromverbrauch... das kannst mit den viel höheren Anschaffungskosten der Apfelgeräte kompensieren.

    • @londomollari2148
      @londomollari2148 2 года назад

      Auch ein interessanter Vergleich wäre ein Ryzen 6900HS da zeigt auch x86 das es mit wenig Leistungsaufnahme zügig geht

  • @CrassSpektakel
    @CrassSpektakel 2 года назад +4

    Was mich überrascht hat ist dass selbst der M1 Ultra in JEDEM Test gegen moderne DESKTOP-CPUs (z.B. i9-12900k, Ryzen 5950 mit Geforce 3090) BRUTAL abstinkt. Also nicht "10% langsamer" sondern bei einigen Benchmarks "nichteinmal 10% der Leistung".
    Bei Workstation- und Server-CPUs ist es dann endgültig albern, ein 64-Kern-EPYC ist bei vielen Benchmarks zehnmal schneller.
    Apple hat seine Kunden wirklich rund geschwurbelt.

    • @Scanix90
      @Scanix90 2 года назад +1

      Das stimmt schlichtweg nicht. Das kann ich aus eigener Erfahrung berichten. Datenblätter und Benchmarks sind eben nicht alles. Den Punkt das er bei Server CPUs nicht mitkommt bekommst du aber. Da kostet aber auch jede CPU mehr als der ganze Mac!
      Vom Stromverbrauch will ich da gar nicht erst anfangen.
      Nur weil ein Mac vielleicht nichts für deinen Einsatzbereich ist und du vielleicht auch nicht verstehst wieso Leute diese kaufen, sind sie noch lange nicht dumm. Dumme gibt es zwar auch einige aber viele Wissen ganz genau was sie da kaufen ✌️

    • @CrassSpektakel
      @CrassSpektakel 2 года назад +1

      @@Scanix90 Das stimmt so nicht. Die kleinste 64-Kern-CPU von AMD kostet €4500 und damit weniger als die Hälfte des genannten M1 Ultra Systems. Baut man um diese CPU herum einen Rechner mit den doppelten, stelltenweise vierfachen Eckwerten des Macs bleibt man immer noch DEUTLICH unter €9500.
      32Core-CPUs gehen so ab €700 los, die interessanteren bei €2000 und liegen beim Stromverbrauch ABER auch bei der Leistung ein gutes Stück über dem M1 Ultra. Aber wie gesagt, beim Bumms pro Watt sind sie sogar besser als der M1 Ultra.
      Und wie gesagt, der M1 ist eben _manchmal_ etwa so schnell wie vergleichbare, günstigere x86 CPU (+/-20%) aber manchmal erreicht er nichteinmal 20% der x86-Lösung und manchmal läuft es garnicht auf M1. Ist halt so.. Wer aber nur SOHO und Web braucht der macht nix falsch ausser dass er das mit einem Pi für 10% des Preises hätte haben können.

    • @Scanix90
      @Scanix90 2 года назад +2

      @@CrassSpektakel daran merkt man das du noch nie mit einem solchen System gearbeitet hast. Der Vergleich zu einem RasPi hinkt doch vorn und hinten. Für meinen Arbeitsalltag (Video/Foto Bearbeitung, Office, Softwareentwicklung) ist das MacBook Pro 16" mit dem M1 Pro das beste Gerät das ich finden konnte. Es ist Mobil, läuft lange und ich kann daran schneller Arbeiten als mit meinem R5950, mit 64GB 3600RAM und ner 980 Pro + 3080. Das bei einem Bruchteil des Verbrauchs. Ein RasPi leistet das bei weitem nicht. Sicher sind die Chips noch nicht perfekt und haben auch Nachteile aber so schlecht wie sie hier gemacht werden sind die bei weitem nicht. Durch weitere Optimierung und das anpassen der Software werden die ARM Chips in einigen Bereichen der x86 Struktur davon ziehen. Das zeigt allein schon der große Markt aktuell. NVIDIA, AMD selbst Microsoft und Google drücken extrem viel Geld und Zeit in Entwicklung ARM basierter Systeme.

    • @lukass8506
      @lukass8506 2 года назад +1

      In welchen Bechmarks denn? In Tests wie Blender und Cinebech, die ausschließlich für x86 optimiert sind und mit erheblichen Performanceverlust auf Apple Sillicon laufen? (Bei Cinebench arbeitet u.A. Apple aktuell an Optimierungsoptionen)?
      In Geekbench erreicht der M1 ultra fast die Performance des 3990X. In CPU intensiven Aufgaben wie Code Compiling werden auch fast alle CPUs geschlagen (Je nach Anwendung werden auch die 64 Kern EPYC CPUs um >30% geschlagen). Welche 32 vKerner kosten nur 700€? Und ein System inklusive 128GB RAM und 8TB NVMe SSD (mit >7GB/s) etc. mit dem Preis einer CPU zu vergleichen ist auch schwierig. Du bekommst für 4500€ Leistungstechnisch den stärksten M1.

  • @kittel-dev
    @kittel-dev 2 года назад

    Habe berufsbedingt ein Macbook Pro 2021 aufgedrängt bekommen. Wollte mein T470s mit Archlinux nicht aufgeben. Macos? Was soll ich damit als ehemaliger Gentoo User, der sich selbst seine Kernel kompilierte und zehn Stundenlang Openoffice kompilierte. Und was soll ich sagen? Ich bin so verliebt in dieses Macbook pro, dass ich jetzt alles versuche um an Geld zu kommen, damit ich meinen Windows PC mit einem Macbook Pro Max 14 ", 32 GB Ram, 1 TB SSD und 24 GPU Cores auszutauschen. Das Gerät ist für mich wie ein Traum. Schnell, leise und das beste, es laufen keine Spiele darauf 😀Die optimale Arbeits und Kreativumgebung ;-)

  • @diesel-s8052
    @diesel-s8052 2 года назад +14

    Ich zahl trotzdem keine 3000€ aufwärts fürn Rechner.

    • @TooGoodForYoutube
      @TooGoodForYoutube 2 года назад +4

      zahlste dann beim Strom wenn die Preise so weiter steigen😂

    • @TheHDGamer2008
      @TheHDGamer2008 2 года назад +1

      Diesel-s, ist halt Apple, ich kauf mir so einen PC auch nicht. ARM ist auch zwar schlecht, aber trotzdem ist X86 Leistungtechnisch überlegen. Da ist mir lieber den Onexplayer 8,4 Zoll Intel Core i7 11th oder Steam Deck kaufen, als der Apple Scheiß.

    • @derduisburger5768
      @derduisburger5768 Год назад +3

      Verlauf mal dein Rechner 4 Jahre später. Bekommste nen Appel und nen Ei. Bei Apple kannste dir dafür fast nen neuen PC kaufen

    • @timoschiemann6542
      @timoschiemann6542 Год назад +1

      Typisch Apple, alles viel zu teuer

    • @derkiesi3908
      @derkiesi3908 Год назад

      @@TheHDGamer2008
      ​ ums mal genau zu nehmen benutzt du schon dein ganzes Leben “Apple Scheiß“! Steve Wozniak erfand in den 70er Jahren den Personalcomputer. Da er trotz Gründungsmitglied von Apple noch Angestellter bei IBM war, präsentierte er seine Idee zuerst IBM, die aber kein Interesse daran hatten.
      Apple brachte in den 80er auch die Computer Mouse in die Haushalte. Erfunden hatten sie die allerdings nicht.
      Bill Gates, der mit seiner Damaligen „Hinterhof Firma“ Microsoft für Apple Office Anwendungen programmierte, kopierte kurzerhand Apples Macintosh und verkaufte es dann mit paar Veränderungen als Windows! Apple trug maßgeblich dazu bei, dass das Internet in die Privathaushalte kam. Apple brachte 2007 mit dem iPhone das erste brauchbare Internet fähige Smartphone auf dem Markt. Google übernahm ein Jahr später die Idee, wodurch der Ausbau des mobilen Internet erst mal einen richtigen Boom erlangte! Und nun wird es bei der SoC/ARM Technologie dank Apple rocken, da die Mitbewerber keine andere Möglichkeit haben werden, als nachzuziehen! Microsoft hatte vor 10 Jahren mit ihren Surface RT die Chancen den ARM Markt voranzubringen und hat mal wieder verknackt!
      Dass einzige was Microsoft kann ist Office Applikationen und alle paar Generationen ein ordentliches Betriebssystem (Windows NT / XP / 7 / 10 ) unter Lizenz auf den Massenmarkt zu werfen. Somit die Masse einen PC kauft, die Gaming Industrie für die Masse (Windows) Videospiele entwickelt, ergo mehr Windows PC‘s usw.
      Mit Masse kann man günstiger! Günstiger macht mehr Masse!
      Man muss mit Apple’s Firmenpolitik und Preisgestaltung nich einverstanden sein.
      Es gibt auch sehr tolle Produkte, die keinen Apfel tragen.
      Also denk mal darüber nach, wenn du das nächste mal an das Wort “Apple Scheiß“ denkst, dass du bei so ziemlich allem was du an Computertechnik in die Hand nimmst, Apple Gene bzw. deren Grundlagen verwendest!!!!
      Gruß von einem Windows und macOS Nutzer…..

  • @wading9413
    @wading9413 Год назад

    Kriegs ja hier in der Birne, alle 3sec wird geschnittet

  • @Dave199418
    @Dave199418 Год назад

    Wenn es alle Spiele für Mac geben würde, würde mich nichts mehr bei Windows halten.

  • @zepho17
    @zepho17 2 года назад

    Hat er zum Schluss gesagt, “warum x86 doch eine Daseinsberechtigung hat”? Er mein ARM, oder?

  • @jpawlowski
    @jpawlowski 2 года назад

    Endlich hat er das Licht gesehen! 😁😆🙃😝

  • @TheDw2k
    @TheDw2k 2 года назад

    Muss leider noch bis zum 22.4. warten bis das Mac Studio da ist.
    Bin aber gespannt wieviel Unterschied zwischen dem jetzigen m1 mini und dem m1 Max ist. Der m1 reicht jedenfalls für normale Anwendungen definitiv aus. Für mich kommt nur der RAM an seine Grenzen, was ich Webentwickler schon oft zu spüren bekommen habe.
    32 Gb im Mac mini wären einfach besser aber Apple wird den mini nicht mit einer m1 Max Version raus bringen da bin ich mir sicher. Also keine 32GB Variante des Mac mini.
    Meine alten Hacki hab ich schon mehr als ein halbes Jahr nicht mehr an gemacht. Egal ob dort 64GB RAM drin stecken, denn der Strom den er schluckt ist es mir nicht mehr Wert.

  • @TOMPCT
    @TOMPCT Месяц назад

    ARM wird kommen, aber wir haben noch Zeit, erst mal muss die gesamte Softwarearchitektur und Verfügbarkeit entwickelt werden. Und vor allem muss es kein Apple sein.
    Da ich daran selbst nichts ändern kann an der Hardwarekonfiguration und total von Apple abhängig ist, habe ich kein Bedarf auf diesen Anbieter. Auch ist das mir viel zu teuer.
    Da muss erst mal ein offenes ARM System und OS her. Auch möchte ich nicht mehr Windows verwenden müssen und Linux ist für ARM erst in Entwicklung.
    Wie schon geschrieben werde ich dann mal in 5 Jahren sehen, wohin die Entwicklung gegangen ist.
    Selbst bin ich nur bei Ryzen 9 5900x stehen geblieben, welchen ich auch erst angeschafft habe, nachdem er unter 250 € gekostet hatte.
    Und diesen lasse ich meist noch in 65W Modus laufen, bei Bedarf wechsele ich dann mit einem Klick und einem Boot in weniger als 30s auf das entsprechende Profil.
    Wenn ich nur Office, WEB und vieles andere mache, benötige ich ja nicht die Leistung, für Bildbearbeitung, Videobearbeitung und Spielen dann doch.
    Das funktioniert bisher sehr gut und sehr zuverlässig, mehr benötige ich nicht in der nächsten Zeit.
    Abgesehen von allen in Bezug auf sparsame, aber leistungsstarke Hardware, es ist nur die halbe Wahrheit, die immer berichtet wird.
    Ich sehe das größte Problem und den größten Leistungsvernichter im Betriebssystem und die Art und Weise der Programmierung.
    Diese ist bei den bisher bekannten OS noch zu ineffizient und nutzt die vorhandene Hardware nur sehr schlecht aus.
    In der Programmierung insgesamt liegt das größte Leistungspotential noch frei, wird aber nicht genutzt, da wir Menschen noch nicht intelligent dazu sind diese frei liegende Potenzial auch zu nutzen, was es gäbe. Es gab schon Software und Demogames, die mit gleicher Hardware um ein Vielfaches mehr Leistung erbrachten, in der Praxis wird so etwas aber nicht genutzt, weil noch zu kompliziert zu programmieren. Gerade Windows schleppt so viel alten Ballast seit Jahrzehnten mit sich und ist so ineffizient programmiert, kein Wunder das man dazu so viel Hardwarepower benötigt. Das ist die eigentliche Ineffizienz und die sehe ich noch nicht behoben. Es bräuchte einen ganz neuen Ansatz der Datenverarbeitung, eines OS und der dazu kompatiblen Programmierung. Dazu noch die passende Hardware und es wäre sehr viel besser. Solange man aber die alten Zöpfe nicht komplett abschalten möchte, wird da immer ein großes Problem bleiben.