also ich habe jetzt einen Mac mini Pro M4 64GB 2TB und 14/20 10GB das ist mein PC für die nächsten 5-10 Jahre wenn ich noch so lange (79) lebe. Ich habe 50 Jahre EDV hinter mir 10xHP Taschenrechner Amiga tolle 4K -farben Grafik, 24h für ein Raytracing Bild sicher mehr als 20 PCs hinter mir, heute alles von Apple, einen Windows PC betreibe ich noch wegen der Datenbank. spielen tue ich nicht mehr, Zeit ist mir zu schade aber PS, Lightroom, Cubase, Logic Pro, Final Cut Pro benutze ich noch, mit der jetzigen PC-Leistung bin ich sicher die nächsten Jahre ausgerüstet. Ich habe einen 10 Jahre alten IMac 27 ersetzt (er geht noch vor alle das Display) der Sprung auf den Mini war gewaltig und 2x990 Pro 4TB Ext. passen gut zusammen traumhafte Werte. Sicher wird es noch schneller Systeme geben aber ich bin jetzt zufrieden.
Sorry, aber hier werden Äpfel (sigh) mit Birnen verglichen. Man darf drei Dinge nicht vergessen: Preis, Größe und vor allem Leistungsaufnahme. Nicht zu vergessen, die Apple GPU ist SOC integriertes System. Also ganz andere Baustelle.
Ich habe einen Mac Mini mit M4 Prozessor. Da dies mein einziger Rechner ist muss der alles machen. Vom Email über Bildverarbeitung, Videoschnitt bis zocken. Und Baldurs Gate 3 läuft. Mein ganzes System hat weniger gekostet als diese NVidia Grafikkarte. Vom Stromverbrauch will ich gar nicht reden.
Danke für den Beitrag. Leider kommt da doch etwas diese, wie ich dachte, schon in die Tage gekommene, "schneller, höher, weiter ist besser", Philosophie durch. Es ist gut, wenn es für verschiedenen Anwendungen spezialisierte Computer gibt. Die eierlegende Wollmilchsau gab es noch nie und will eigentlich auch keiner. Wenn ich ausgiebig Spiele spielen möchte, würde ich mir einen Gaming-PC zusammenstellen. Wenn ich KI trainieren möchte, eben so was wie dieses Nvidia Ding anschaffen. Ich mache Musik, also habe ich einen Mac. Ganz einfach. Und für den "normalen" User (Mails, Internet, Texte usw.), sind alle diese modernen Computer schon total überdimensioniert, was die Leistung angeht. Ich habe ein MacBook Pro M2 und produzieren darauf Musik. Ich konnte den Rechner bis jetzt noch nicht in die Knie zwingen. Auch bei umfangreichen Projekten nicht. Da sind mir die Petaflops der CPU echt egal. Und den KI-Boom, dem gerade alle nachjagen, halte ich, zumindest für den Hausgebrauch, für eine reine Modeerscheinung.
In die Tage gekommen? Mit genau dieser Philosophie hat Apple bis jetzt all ihre M SoCs beworben. Da konnten es ueberhaupt nicht genug an Geekbench Testergebnissen sein, die da rauf und runter gebetet worden waren.
Und wenn wir jetzt noch den Preis und den Stromverbrauch sowie die Lautstärke mit ins Boot holen, werden wir feststellen, dass das eine mit dem anderen nicht gemeinsam hat😮 und somit nicht vergleichbar ist. Des Weiteren haben wir hier einen unterschiedlichen Kundenkreis.
Hi, ich komme aus dem Windows Lager und habe mir den Einstiegs-Mac-Mini M4 geholt und bin super zufrieden mit der Leistung des Kleinen. Ich habe einfach keinen Bock mehr, dass PC's Hunderte von Watt Energie aus der Steckdose ziehen. Das ist mMn nicht mehr zeitgemäß und Apple zeigt, dass es auch anders geht.
naja, 5 Jahre hinterher ist vielleicht etwas überzogen, aber die Stromrechnung wurde nicht erwähnt. Mag sein, dass man bald wider diese Teile extern eGPU anschliessen kann und dann kann man wieder seine 800W verbraten, wenn man es möchte. Bin jetzt kein Gamer, aber ab und zu spiele ich auch was, klar, kein Star Citizen, aber Cyberpunk geht da schon ordentlich (M3 Pro) Mal schauen, danke. LG
Definiere Ordentlich bei Cyberpunk. Mich würde die Auflösung, Grafikeinstellung und Framerate interessieren. Neben meinem M3 Mackbook Air werkelt immer noch der maximal noch als untere Mittelkasse geltende PC mit Ryzen 5700x, 32GB Hauptspeicher und RTX3070 und 5GB SSD Speicher. Bei Cyberpunk muss ich meinen 4K Monitor mit WQHD betreiben um mit RTX=ON auf konstant über 60FPS im bordeigenen Benchmark bei DLSS=Quality zu kommen. Auf 4K muss ich bei den selben Einstellungen auf DLSS =Performance gehen um über 50FPS zu bleiben. In letzterem Fall läuft das System am Limit und genehmigt sich gut 390W in der Spitze. Das nennt man dann Express Zuschlag :-) Selbst bei einfacheren Tätigkeiten zieht das System um die 100W. Das System hat vor Jahren 2100€ gekostet. Wie schlägt sich jetzt ein M3PRO oder M4Pro? Ich habe das Gefühl, dass die alten Apple Hasen bezüglich Gaming deutlich geringere Ansprüche haben als beim Rest der Anwendungen, die sie nutzen. Für mich war Gaming nie ein Argument für die Anschaffung eines Macs. Aber alltägliche Tätigkeiten wie sie wohl >90% der Nutzer machen mit wenig Leistungsaufnahme, lange und mobil ausführen zu können. Das mit einem Betriebssystem, das mir als "Quereinsteiger" aus der Wintel und Linux Welt Spass macht. Wenn ich dann mal ein paar Hundert Bilder durch DXO Pure RAW laufen lassen muss, ist es mir egal, ob das die halbe Nacht mit dem Wintel PC oder die ganze Nacht mit dem M3 Macbook dauert. Geht beides, ist ein Hobby und ich lebe nicht davon. Ach ja und Tidal kann auf meinem Mac die Bitrate zum Audiointerface durchreichen, so dass kein UP/Downsampling verwendet wird, während das auf Windows nicht klappt und stattdessen die vom Treiber eingestellte Bitrate genutzt wird. Für mich alleine "fast" ein Grund ein Mackbook zu haben.
@@retiarius8641 hi, bei medium komme ich auf etwa 40 - 60 FPS (2k) [etwa wie hier ruclips.net/video/DsG7UEi55YY/видео.html ] Klar, halt spielbar, bin aber zufrieden, und wenn ich dabei 35W ziehe, dann noch mehr. Klar, wie gesagt, bin kein "richtiger" Gamer, spiele ab und zu etwas Valheim (nativ mittlerweile, KSP und sowas) Ja, bin Entwickler, habe also etwas tiefer in den Geldbeutel gegriffen, wegen RAM und SSD (3,5k kranke Apple-Spiele, keine Frage), aber sonst kosten die etwa 2,5k oder so. Seit 20 Jahren bei Mac dabei, und finde es richtig geil, dass ich auch mal was spielen kann und zwar ohne die WattSchleuder meines Sohnes anmachen zu müssen. Und klar, dass man sich wegen Strom Gedanken macht, ist was anderes, hatten wir alle vor 20 Jahren nicht, aber was tun... Beruflich ist das Teil einfach nur Top, gar keine Einwände, würde es nie tauschen wollen. :-)
Hallo Michael, ganz fair ist der Vergleich ja nicht. Apple M4 Socs sind Common Purpose APUS, ähnlich wie jetzt auch AMD MAX 395+ Nvidia Grafikkarten sind Desktop Gpu Monster, und auch sehr flott in den Mobile Varianten. Kann man aber net mit den graphic unit einer APU direkt Vergleichen. Dieser Nvidia GB20 Chip ist pure Ai Gewalt, kann man net mit der Apple M4 Npu vergleichen. Außerdem sind die Petaflops in 4 Bit (FP4), bei Fp16 geht das mindestens auf 256 TFlops zurück Und spielen kann man auf dem Gerät auch nicht, hat denke ich nur Tensor Cores auf der Gpu drauf. Ausserdem der Gb20 ist viel zu schwach Modelle selbst zu rechnen, die Performance hat er für die Inference, das Auslesen Verarbeiten eines gerechneten Modells. Beim Gb20 sind LPDDR5x verbaut, für Inference Performance ist diese massgebend nicht nur das Petaflop. Ich denke damit kommen die auf 400G/sec im Dual Channel Mode. Die 5090 hat hier 1,8 Tb/Sekunde! Sie hätten für eine Super workstation GDDR7 Speicher verbauen müssen. Bei 400G/s ist Apple M4 Max schon. Insgesamt zeichnet Apple mit dem M4, M4Max ein sehr gutes Bild, Apple hat mehr Zuwachs an Performance geholt als Nvidia, vor allem im Grafik Bereich, Es bleibt spannend. Karl
Es bleibt in der Tat spannend. Es war auch kein direkter Vergleich. Dennoch propagiert Apple immer wieder seine enormen KI-Fähigkeiten. Daher müssen sie sich auch gefallen lassen, finde ich, dass man sie mit anderen Herstellern vergleicht.
Das stimmt! Noch ist die Apple M4 Linie nicht auf dem Level der AI Workstations, der Rechner muss halt bezahlbar bleiben. Nvidia Kunden legen da kompromisslos mehr Geld für die Hardware hin. Aber das Projekt DIGITS wird erst auf dem Prüfstand zeigen was es kann und da bin ich sehr gespannt!!
@@apfeltalk Ach wenn ich in den vergangenen 25 Jahren für jede Ankündigung von Apple im Bereich Gaming einen Euro - oder in meinem Fall einen Franken - bekommen hätte, wäre ich jetzt reich. Wer kann sich z.B. noch an die vollmundigen Ankündigung von 2001 erinnern? > ruclips.net/video/o_buON1G17E/видео.html Mit ihren SoC werden sie niemals an die Leistung einer aktuellen dedizierten GPU rankommen. OK sag niemals niemals; dann halt in den kommenden Jahren sehe ich das nicht.
Braucht man kein macOS, braucht man kein Apple. Alle anderen Diskussionen sind doch sinnlos. Apple als PC Anbieter mit den Intel Prozessoren war doch auch nur ein "Goodie" in Arzt Praxen, um das schicke Design der iMacs zu präsentieren. Zudem ist ein iMac mit Windows drauf aus meiner Sicht irgendwie pervers. Allerdings ist Windows 11 nun mal auch absoluter Schund, allein aus Datenschutzsicht. Daher sage ich jedem (Kunden), nutzt macOS wenn es Idioten sicher sein soll, und Linux (Fedora für Business, Ubuntu/Mint für privat), wenn es umfangreicher und ab und an komplizierter sein darf. Bezogen hier natürlich auf ein Umfeld, das keinerlei Photoshop oder andere Applicationen braucht, die es nur für macOS oder Windows gibt.
Moin Michi! Meine Macs nutze ich entweder als Backup für mein großes iPad (MBA mit M1) oder um RUclips, Mediatheken und Prime Video zu schauen (iMac mit M1). Zuletzt gespielt habe ich am Mac sowas wie Sid Meiers Pirates! oder Strategiespiele, wie Total War Napoleon. Bei modernen Spielen bin ich also raus. Daher fand ich die Demos von Apple ziemlich beeindruckend. Du kannst das sicher besser beurteilen. Für mich ist in erster Linie die Spielidee entscheidend. Nett, wenn dann noch die Grafik stimmt. Die Vektorgrafik bei Elite am C64 war nebensächlich, weil mich das Spiel an sich fasziniert hat. Das Wunderkästchen, das NVIDIA vorgestellt hat ist beeindruckend. Und ich bin gespannt, ob es hält, was es verspricht, wenn es tatsächlich verfügbar ist. Für den normalen PC-Nutzer wird es wohl eher mittelbar von Nutzen sein. LG Claus
Hallo Michi, Moin! Ganz ehrlich: Mir reicht derzeit locker mein MacBook pro mit M1 pro... ich brauche - zumindest aktuell - keinen M4 Pro oder Max und auch keine nvidia 50xx. Aber du hast prinzipiell natürlich recht: Wenn man mit der Entwicklung nicht (mehr) Schritt hält, dann ist man bald "abgehängt"! Und Apple muss sich warm anziehen und schauen, dass das eben nicht passiert. Danke daher für`s Video und diesen Blick auf nvidia auf der CES 2025! Grüße aus Brühl nach Bremen!
project digits halte ich für extrem interessant. als ai homelab bzw lokale ai lösung mit der man - so hoffe ich - mehrere anwendungsbereiche abdecken kann, die über die leistungsfähigkeit eines m4 pro/max hinaus geht. besonders die konnektivität - auch hier hoffe ich, mehr als 2 geräte koppeln bzw im cluster nutzen zu können - ist beim nvidia mini ein hammer, da dual connectx schneller als thunderbolt 5 sein müsste (100Gbps minus eth-overhead vs 80Gbps minus tb-overhead); bei llms mit sehr vielen parametern (200B+) muss das auf die nodes verteilt werden und die kommunikation wird dann ein sehr relevanter teil.
Spannend wird der Tag an dem NVIDIA auf Einkaufstour geht und Apple kauft… oder es ein Joint-Venture zwischen Apple und Nvidia gibt… Was passiert nun eigentlich mit Intel? Wird es doch von Qualcomm gekauft? Momentan passiert in der Chip-Branche so einiges spannendes…
Wir müssen immer den Preisleistungsfaktor betrachten; 700 € vs. 3000 € und Mac Minis lassen sich zum Trainieren miteinander verbinden. Aber die 128 GB unified memory in der NVIDIA Kiste sind sexy. Leider sind die angegebenen Leistungsdaten mit drastisch reduzierter Genauigkeit einzuordnen.
Danke für dein Video. Sehr Informativ! Nun ja, was Nvidia da rausgehauen hat, ist beeindruckend! Ohne Frage. Ich habe ca. 25 Jahre Microsoft hinter mir! Privat / beruflich. Ich sage nur EDV. Hab beruflich weiter mit Microsoft zu tun, das reicht! Bin vor ca. 3 Monaten auf einen Mac mini M4 (10 Core / 10 GPU) / 16 GB / 1 TB gewechselt, weil mein Desktop-PC kaputtgegangen ist. Da stellt sich die Frage -> einen neuen Windows-PC oder ich schaue mal bei Apple vorbei. Ganz WICHTIGES THEMA -> ist der Stromverbrauch!! Ich wollte mit zunehmendem Alter ein System, das läuft. Das hat man bei Microsoft nicht immer! Ich sag nur "Blue Screen, TPM-WMI-Ereignis-ID 1796" usw. Hatte davor nix mit Apple zu tun gehabt. Zum Testen einen gebrauchten Mac mini von 2014 geholt und probiert. War beeindruckt, wie schnell dieser "alte Mac" ist. Man muss sich umstellen (da man Microsoft geschädigt ist) ...aber das ist das kleinste Problem. Zur Datensicherung habe ich eine Externe SSD mit 2TB (USB-C) für die Datensicherung (Timemaschine) Für die Projekte je 2x Externe SSD mit 4TB (Thunderbolt) Benutze den Mac mini beruflich zum E-Mails schreiben / beantworten, Programmierung (C++ / Website: HTML, CSS, JAVA, WordPress, TYPO3 ...) Privat: Musik hören, Bild- und Videobearbeitung ... Fazit: Ich bin mehr als zufrieden. Preis stimmt. Stelle meine Systeme, die ich privat nutze, komplett auf Mac um. Grüße aus dem Osten der Republik.
Apple war immer etwas für bearbeiten von Visuellen Medien oder Programmieren. Ich sehe aber Nvidia hier Apple extrem schnell den Rang ablaufen. Wenn Apple nicht aufpasst.
Ich schreibe das gerade auf einem M1 MBAir in der damaligen MAX Ausstattung und dennoch komme ich nicht umhin unter Linux auf Nvidiazu setzen da die Entwickler nicht in die Pushen ihre Programme dementsprechend anzupassen. Ich Stacke zehntausende Astrophotos und es ist wirklich erbärmlich wie schlecht die Software teils angepasst wurde und wird. Teils sind noch nicht mal die Anwendungen als Universal Apps verfügbar und müssen über Rosetta fahren und brauchen zum Starten schon mal mehr als fünf Minuten. Von einer HW Beschleinigung sind wir weit entfernt und das Trifft leider auch auf AMD GPUs unter Linux zu. Selbst beim Vergleich von Steambasierenden Spielen schaut es angeblich nicht besser aus, da ist und bleibt Nvidia der Platzhirsch und das liegt vor allem an den Entwicklertools. Es steht und fällt mit der Software und den Entwicklern.
Ich hoffe, dass Apple beim M5 bzw. eher beim M6 in 2nm noch eine ganze Schippe drauf legt, was Grafik- und KI-Leistung angeht. Gerade der M4 Max Chip ist ein Super Chip, aber Apple sollte nicht den Anschluss an NVIDIA verlieren. Gerade das Apple Ökosystem mit Highend Chips ist für Poweruser schon wirklich nice, sollte es aber auch bleiben in der Zukunft mit wachsenden Ansprüchen (ich nenne als Stichpunkte: KI/AI, Anspruchsvolle Spiele, Creative Arbeiten, eventl. ein 3D Internet usw.), auch im Vergleich zu NVIDIA Chips und Grafikkarten.
Es ist genau wie du sagst. Ja Apple ist schon in vielen Bereichen sehr gut geworden durch die eigenen Chips aber die Konkurrenz schläft nicht und was wir da jetzt gesehen haben, ist wirklich krass.
Ich muss sagen das ich von Apple in Bezug auf Gaming ziemlich enttäuscht bin. Bill Gates hatte es damals verstanden das man mit Computerspiele ein Interesse für sein Produkt (sogar stark) erweitern kann. Microsoft hat sogar eigene Studios nur dafür. Apple will nur portieren, erkennt aber inzwischen, das umso performanter die Chips werden sie auch einen Anwendungszweck brauchen. Einfach nur Office, BS, und Media reichen da nicht mehr aus.
Was ich bedauere ist das der NPU Chip links liegen gelassen wird. Dabei wäre der hochinteressant zB. LLM drauf laufen zu lassen. Mehr Infos und Berichterstattung wäre hier wünschenswert. Das wär doch was für ein ct Projekt oder ?
Ich benütze ein MBP M1 Pro Max, dessen Grafikleistung sich etwa auf dem Niveau einer RTX 2080 bzw RTX 3060 TI bewegen dürfte, was für damals schon beeindruckend war. Leider hat sich die Grafikleistung nicht wirklich skaliert weiterentwickelt hat. Insoferne sehe ich hier noch länger keinen Grund für ein Upgrade. Um Cyberpunk mit RT spielen zu können, aber auch für viel mehr Renderleistung in Da Vinci Resolve und Blender, ziehe ich einen PC in Betracht, falls der Preis für eine RTX 5070 von etwa € 600,- stimmen sollte.
Rheinmetall baut ganz tolle Panzer, da hinkt Apple auch ganz stark hinterher und müsste dringend mal aufholen… Mal ernsthaft: Ich sehe in Nvidia keinen Konkurrenten zu Apple. Das Project Digits ist schon interessant hat aber doch einen ganz anderen Markt im Visier als Apple.
Schön, dass die Technik immer weiter geht. Interessant, was der Markt bietet! Aber Normalanwender haben damit so gut wie nichts zu tun, da sie mit der aktuellen Rechenkraft mehr als auskommen sollten. Für Serverfarmen oder wissenschaftliche Anwendungen sicherlich interessant, für "das Volk" eher weniger. PC-User meckern über Apple, weil sie so teuer sind? Aber dann (nur) ne Grafikkarte für 2000,- € kaufen! 😆 Dann ist die Grafik hochaufgelöst und schnell - bringt aber im Grunde nichts, weil das im Game selber komplett untergeht. Für Spezialanwendungen völlig OK, aber für Normalos völlig überdimensioniert. Da liebe ich die Apple-Welt, wo alles aus einem Guss ist, komplett auch untereinander funktioniert und trotzdem auf sehr hohem Niveau läuft. Zu einem angemessenen Preis. Mein MacMini wartet eh 99% seiner Zeit nur auf mich und meine Eingabe, da vermisse ich nichts.
Mir war nicht klar, dass Nvidia (als zweiwertvollstes Unternehmen der Welt - direkt nach Apple - siehe Link) unter fehlender Reputation leidet. companiesmarketcap.com
@@apfeltalk Als Anbieter von Desktop-Rechnern? Schon. Beiden Unternehmen - groß und mächtig wie sie auch sein mögen - fehlt es ja auch an Reputation auf dem Markt der Unterhosen-Anbieter, oder?
Ja, das mag sein. Im Bereich der KI-Supercomputer (und den kleinen vermarkten sie ja als solchen) genießen sie einen guten Ruf. Ob die Kiste auch für "Normalos" interessant ist, wird sich nach den ersten Tests zeigen.
Ich vermute, dass Apple eher den Konsolenansatz verfolgt. Unkomplizierte Installation und los geht’s. Ich habe als Kind viel via Windows gespielt aber mittlerweile einfach keine Lust mehr auf den ganzen Eisberg, den “Gaming” so mit sich bringt. Konsole an den Fernseher anschließen und fertig. Mehr Zeit für Freunde und Familie, günstiger und kein “keine Rückmeldung” mehr. ✌️
Wie viel Heizleistung erzeugt die GTX5000er Serie? Und wie viele Macs kann ich mit der Leistung der Grafikkarte betreiben? Egal, das kleine nVidia Ding ist für Entwicklung super, 128 GB bekomme ich im M4pro gar nicht. Auch egal, aber ich freue mich, dass ich nicht im Sozialismus Habeckscher oder WEF'scher Prägung lebe und immer neue Entwicklungen kommen. Jetzt frage ich mich aber, wozu brauche ich dann für den PC einen AI Kühler? Was kann der nochmals?😉✌
„Gaming auf dem Mac? 🤔 Ich persönlich bevorzuge es, mit meiner Switch und Xbox zu spielen. Mit der beeindruckenden Rechenleistung meines Mini M4 Pro fühle ich mich für die nächsten fünf Jahre bestens gerüstet. Die Kombination aus leistungsstarken Konsolen und meinem Mini ist für mich einfach ideal! 🎮✨ Ein weiterer Vorteil ist der deutlich geringere Stromverbrauch. Laut dem Bericht von Blogger Howard Oakley sorgt der Stromsparmodus zusätzlich dafür, dass ich Kosten einsparen kann.“
Ich mag keine Konsolen, was primär an dem Controllerzwang liegt. Und man ist in Sachen Mods gegenüber dem PC stark eingeschränkt. Ich habe mir jetzt zusätzlich zu meinen Gaming pc einen Mac mini bestellt. Der Mini wird hauptsächlich für Office und alltägliche Aufgaben benutzt, weil der Gaming pc dafür zu viel strom zieht. Ich habe auch den m4 Pro genommen, einfach weil ich ein paar Spiele ausprobieren möchte. Wenn meine wichtigsten spiele laufen wäre ich bereit meinen Gaming pc abzustoßen. Kann kaum erwarten, dass der Mini kommt :D
Habe ebenfalls eine Switch. Ich würd eher noch einen dedizierten Gaming-PC (Laptop) holen, als die Extraaufrüstung an GPU, Ram, SSD für Spiele am Mac zu investieren. Am PC läuft dann wenigstens auch alles perfekt.
Beeindruckende Zahlen. Aber ich finde, hier werden gerade so ein wenig Äpfel (Apple....haha....unbeabsichtigtes Wortspiel) mit Birnen verglichen. Unterschiedliche Zielgruppen und unterschiedliche Nutzung. Aber ich bin mir dennoch sicher, dass Apple die M-Chips in naher Zukunft auch schneller machen wird. Performance-technisch nutze ich derzeit einen M4 Mini und mehr als zufrieden.
Hi, ich bin jetzt seit 10 Jahren bei Apple weil das Ökosystem mich einfach überzeugt hat. Und freu mich sehr darüber das die neuen M Prozessoren alle 16GB Arbeitsspeicher als Standart angeboten werden statt den üblichen 8GB... Aktuell benutze ich einen iMac von 2020 mit 64GB und ein M1 MacBook mit 32GB Arbeitsspeicher auf dem MacBook läuft Metro Exodus mit einer echt Sehenswürdigen Grafik u. in Konsolen Qualität PS4. Ganz ohne bzw. kaum mit Lüfter Unterstützung. Ich finde NVIDIA spricht eine ganz andere Zielgruppe an und zwar die, die an ihrem GamingKisten vieles Optimieren und auf Rechenleistung angewiesen sind und natürlich mit ganz vielen Lüftern. Leider sind solche System sehr anfällig was Hitze angeht und fressen sehr viel Zeit und Strom bis alles läuft und sie setzen alle auf Windows also die Treiber. Was mir persönlich überhaupt nicht mehr zuspricht... Für die Zukunft hat Apple ein Tolles Gaming Angebot mit Top Titel und das schöne, es wird einfach laufen... Aktuell werde ich erst Upgraden wenn der M5 mini veröffentlicht wird. Weil meine Kiste von 2020 zum Arbeiten und Starcraft zocken noch völlig auslangt...
Hallo, benutze weiterhin meinen Leistungsfähigen M1 Mac mini und bin auch froh den zu haben. Dokumente wie PDF oder mal eben ne Karte erstellen für den Geburtstag oder ne Einladung ist mit Apple super zu machen. Sonst ist aber auch Videobearbeitung dabei als Familienvater hat man auch genug Zeit im Hintergrund etwas rendern zu lassen da muss es erstmal nicht der M4 sein.
Bißchen arg reißerisch die Überschrift. Aber abgesehen davon: Der Mac als Gaming-Rechner interessiert mich null, und was heißt hier: 5 Jahre in der Grafik zurück? Nimmt man die Effizienz als Maßstab, dann ist Apple vielleicht eher 5 Jahre voraus? Ich habe zwei M-Rechner (M1pro und M3pro), und beide sind abartig schnell, abartig effizient und einfach rundem gelungene Produkte für ein kreatives Leben. Ach ja, noch eine Frage: Hat Nvidia ein Betriebssystem? Ein Ökosystem? KI-Trainings werde ich vermutlich nie machen, daher sind mir Trainingscomputer für diesen Zweck auch erstmal herzlich egal. Was Apple aber wirklich mal machen sollte: Die Zukunft der Bedienoberflächen erfinden, die Desktop-Metpher neu denken, die Optik der Oberfläche anpassbarer machen und Konzepte integrieren, die es seinen Nutzern ermöglicht, der Informationsüberflutung viel besser Herr zu werden und die eigene Lebensgestaltung zu optimieren. Wir bedienen unsere Rechner im Prinzip immer noch wie in den 90ern - da könnte Apple vielleicht mal die besten Denker zusammenholen und Neues kreieren. Von Microsoft kommt da bestimmt nichts und von Linux auch nicht.
Da ich bald in Rente gehe und dann nur noch die Hälfte von dem Geld zur Verfügung habe was ich jetzt habe und davon, bei immer höher werdenden Kosten, gerade so überleben kann wird der nächste MacStudio M4 Max mein letzter für sehr lange Zeit sein. Zurzeit arbeite ich mit dem MacStudio M1 Max der eigentlich reicht. Aber mit dem M4 Chip bin ich da Zukunftssicherer aufgestellt. Nvidia hat da was sehr interessantes gebaut was vieles in den Schatten stellt, aber es spricht zurzeit noch nicht den Normalnutzer an.
Also da ich 2010/2011 von einem Vista OEM PC zu einem 2010 27" iMac gewechselt habe habe ich dort für Spiele die keine native OS X/macOS Version hatten mit Bootcamp Windows 7 installiert. Jetzt 14 Jahre später habe ich einen M2 Pro Mini und bis vor einem halben Jahr hatte ich mit dem auch noch Spiele drauf, war allerdings nicht mehr viel. Nur WoW, Diablo 3 und Civ6 so wie Xcom 2. Nach ein par Versuchen mit Whisky Windows Spiele zu spielen habe ich mich entschieden nach Jahren auch mal wieder einen PC zu kaufen, dieses mal selber gebaut. Hab mir ein Budget auf der Höhe vom Mini gesetzt und bin jetzt sehr zufrieden damit. Ist ein volles AMD Build geworden mit 7500F + 7900XT. In einem Cinebench Vergleich beider Systeme hab ich auch festgestellt das zwar die CPU Leistung, jedenfalls im Synthetischen Vergleich noch recht auf einer Höhe war hat die GPU den Mini komplett Nass gemacht :D Was übrigens diese ARM PCs angeht gibt es da auch ne recht coole Sache von System76 - hab da kürzlich ein Video von Jeff Geerling zu gesehen. Eine ARM Workstation die aber auch dedizierte GPUs unterstützt
Super , aber es wäre mir lieber der neue NVidia - MiniPC würde statt 3.000 Euro nur 1.000 Euro kosten. Gerne dann nur mir 1/3 der Leistung: Denn mehr brauche ich als Privatanwender selbst fûr 4K - Videorendering wirklich nicht !
Man kann mit der M4 Reihe schon zocken oder geringfügig mit dem M1 aber dennoch sehr limitiert, selbst mit dem M4 Max geht das gut aber absolut kein Vergleich zur teilweise Nvidia 3000er, 4000er & 5000er Reihe, besonders nicht in Preisleistung.
Nvidia und Apple, beide bedienen ganz andere Kundenkreise. Das sieht man doch schon am Aufbau der Geräte. Project Digits ist doch toll, aber ich brauch das nicht. Ich will einen Rechner wie nen Mac Mini als aufgebohrte Version, sozusagen einen Mac Studio, der Anschlüsse wegen. Das Ding soll leise sein und dann soll mit der Leistung wieder ca. 5 Jahre "gut" sein. Und wenn der Mac Studio nicht bietet, was ich erwarte, wirds ein Mac Mini M4 Pro. Ganz einfach. Wenn ich zeit hätte zum spielen, werfe ich ne Konsole an. Stromverbrauch bleibt ein Thema! Dank der Grünen Anti-Atom-Politik. Außerdem ist es doch toll, wenn der Rechner leise, flott und wenig Strom braucht.
Yo, auch Bremen hier. Grafiken programmiere ich mir selbst. Das sieht dann ungefähr so aus: ruclips.net/video/UlTE1OZwp34/видео.htmlsi=pTZgwRyP1LwQ43_t. Dazu ist mir mein alter Mac Mini schon zu schnell. Die Nvidia-Maschine kommt ja wohl mit Unix raus. Welche Software bekommt man darauf zum laufen? Mal abgesehen von dem Machine-Learning-Gesumse. Die Nutzung von Cosmos könnte interessant sein. Braucht man dazu die NVidia-Maschine?
Es ist kein Mini-PC, es ist eine Mini-AI Workstation, die schon in der Produktion ist. Einzig der Name ist noch nicht Final. Der Release ist offiziell im Mai.
Ich hab fast n Oldtimer MacPro 4.1, hardwaremäßig auf 5.1 (2x 6Core Xeon mit3GHz, RadeonRX580 und 48 GB Ram) getrimmt und mit OpenCore Legacy Patcher Monterey laufen. 😆
Jo eine 5090 verbraucht auch so viel Strom wie 4 Apple-Computer nur für die Grafik. Da ist sonst kein weiteres Equiptment dran... Also ist das Video komplett am Thema vorbei. Und nicht nur das die Grafikkarte alleine soviel Strom verbraucht wie 4 ganze PCs nein sie ist auch noch nur für Grafik, und für sich gesehen völlig disfunktional weil sie ja weitere Komponenten voraussetzt, auch noch genau so teuer wie ein ganzer PC von Apple der viel mehr kann als die Grafikkarte... klar wenn Geld keine Rolle spielt und mich die Stromrechnung nicht interessiert ist die total toll..
Für mich ist das nicht am Thema vorbei, da lokale KI-Generierung in Zukunft wohl eine immer grössere Rolle spielen wird. Die spezifische Art der Rechenleistung (für die Apple-CPUs nicht ausgerüstet sind) muss zum User verschoben werden, da ein zentralistischer Ansatz wie Cloud dafür nicht ideal ist (zu teuer für den Anbieter, der dadurch hohe Abo-Kosten aufrufen muss). Und damit kommt man zum Thema Strategie, so etwas muss frühzeitig eingetütet werden und da verpasst Apple offensichtlich den Zug.
Ich zocke auf meinem Mac. (Mac mini M2 Pro und MacBook Air) Aber keine top aktuellen Titel. Beispielsweise zocke ich aktuell über Parallels Desktops „Command & Conqer Tiberian sun“. Oder ich spiele leidenschaftlich gerne Vintage Story (Mac Version). Oder aber auch diverse Wimmelbild Games oder nach Feierabend etwas Siedler 2 über Ubi Soft mit Hilfe von Paralles Desktops. Ich brauche diese Tripple-A Games nicht.
Wer 3000 Euro für einen PC ausgibt weil er Leistung haben möchte, kauft sich kein MacMini oder anderen FertigPC, sondern stellt sich das selber zusammen. Der MacMini ist für Krethi und Plethi und die geben nicht 3000Euro für ein Mailprogramm und RUclips Abspielgerät aus.
Der Mac mini mit M4 Pro ist sehr wohl gut für professionelle Anwendungen geeignet und kostet in bestimmten Konfigurationen deutlich mehr als das Teil von Nvidia.
@@apfeltalk Ich habe nicht behauptet, dass man keine Leistung kriegt wenn man die teureren Modelle kauft, nur dass man für sein Geld deutlich mehr Performance bekommt, wenn man keinen fertig PC kauft. Und in den Basisversionen, die für die breite Masse sind, ist ein Preisunterschied von 700 zu 3000 schon sehr groß. Es wird so getan als würde plötzlich jeder KI brauchen, ich kenne niemanden, der seinen Computer für anderes als Office, Netflix und Gaming oder Grafikdesign nutzt. Dieses Ding hat so eine kleine Zielgruppe an Nerds, dass es letztlich irrelevant ist. Mit dem Basis MacMini kann man vollwertiges Webdesign machen, Python, Docker etc.
Der Vergleich hingt hier extrem. Wenn Apple seine nicht so coole Keynote präsentiert, kannst du 7 Tage später die Hardware auspacken, bei Nvidia musste auf den "super mini computer" noch 6 Monate warten und einen Namen hat das Teil auch nicht. Finde den Vergleich sehr unnötig und somit das Video auch....
Was ich vergleiche, ist natürlich meine Sache. Wenn es dir nicht gefällt, okay. Deine Sache. Und es ist nicht wahr was du bezüglich der Hardware sagst. Die Hardware von NVIDIA kannst du bereits kaufen nur vielleicht den kleinen Computer nicht. Und Apple ist Weltmeister im Ankündigen von Sachen, die erst sehr viel später kommen. Beispiel: Mac Pro 2013. wurde auf der Keynote im Sommer angekündigt, kam aber erst im Dezember. Nächstes Beispiel der HomePod wurde im Sommer angekündigt kam erst im Januar. Noch ein Beispiel: die ersten AirPods waren Monate lang nicht verfügbar. Nächstes Beispiel Apple Intelligence wurde im Sommer angekündigt und kam erst im Dezember in den USA und erst im April in die EU. Es gibt derartig viele Beispiele dafür.
@@apfeltalk Also die Apple Intelligence Karte kannste hier nicht ziehen, das wurde ganz klar kommuniziert das es für die EU später kommt... Der Punkt mit dem Vergleich ist eher, das Nvidia die letzten Jahre ganz klar auf Grafik und AI fokussiert hat und Apple mit seinen M4 und M3 Chips ein breiteres Spektrum an Anwendungsmöglichkeiten abdeckt. Der neue mini Computer von Nvidia deckt auch nur einen bestimmten Anwendungsfall b, insofern meine ich kannste nicht andeuten das Apple gegen Nvidia verliert. Aber das ist wie geschrieben meine Meinung und nach der hast du höflich gefragt, aber scheinbar habe ich mit meinen Kommentar einen wunden Punkt getroffen. Entschuldigung
Alles gut! 😅 Apple Intelligence kam auch in den Staaten erst (und nicht mal vollständig) nach drei Monaten. Klar kann man die Geräte nicht 1:1 vergleichen. Das habe ich ja auch im Video nicht gemacht. Dennoch propagiert Apple, dass seine Maschinen ideal für KI-Anwendungen geeignet sind. Das stimmt bis zu einem gewissen Punkt ja auch. Nvidia geht da einen anderen Weg und macht das Training von LLM eben auf dem Desktop möglich. Das mag eine Nischenanwendung sein und "Project Digits" ist sicher nur der Anfang. Ich sehe es so, dass Apple da noch einen Weg vor sich hat. Ohne Zweifel sind Macs sehr gute Allrounder.
Es geht hier nicht um einen Ersatz der Macs aber es soll gezeigt werden dass Apple gut aufpassen muss sich nicht zu sehr auf den M Lorbeeren auszuruhen. IMHO ist digits erst der Beginn und ein Ausblick auf NVIDIAs Vorstoß in den Arm SOC markt als Angriff auf qualcomm, Intel, amd, Apple… daher auch die Cooperation mit MediaTek. Und die rtx 50er Serie ist so viel schneller, dass eine 5070 die gleiche Leistung wie eine 4090 bringt aber nur 1/3 kostet und 1/4 Strom verbraucht… das sind schon schnelle Schritte mit denen NVIDIA da voran geht
Da ich Zocker bin habe ich mich von Apple abgewandt und bin wieder bei Windows. Apple kann eh nicht mit Samsung Phone mithalten, zocken geht sehr schlecht, Sirius ist dumm wie Brot.
also ich habe jetzt einen Mac mini Pro M4 64GB 2TB und 14/20 10GB das ist mein PC für die nächsten 5-10 Jahre wenn ich noch so lange (79) lebe. Ich habe 50 Jahre EDV hinter mir 10xHP Taschenrechner Amiga tolle 4K -farben Grafik, 24h für ein Raytracing Bild sicher mehr als 20 PCs hinter mir, heute alles von Apple, einen Windows PC betreibe ich noch wegen der Datenbank.
spielen tue ich nicht mehr, Zeit ist mir zu schade aber PS, Lightroom, Cubase, Logic Pro, Final Cut Pro benutze ich noch, mit der jetzigen PC-Leistung bin ich sicher die nächsten Jahre ausgerüstet. Ich habe einen 10 Jahre alten IMac 27 ersetzt (er geht noch vor alle das Display) der Sprung auf den Mini war gewaltig und 2x990 Pro 4TB Ext. passen gut zusammen traumhafte Werte. Sicher wird es noch schneller Systeme geben aber ich bin jetzt zufrieden.
Sorry, aber hier werden Äpfel (sigh) mit Birnen verglichen. Man darf drei Dinge nicht vergessen: Preis, Größe und vor allem Leistungsaufnahme. Nicht zu vergessen, die Apple GPU ist SOC integriertes System. Also ganz andere Baustelle.
Ich habe einen Mac Mini mit M4 Prozessor.
Da dies mein einziger Rechner ist muss der alles machen.
Vom Email über Bildverarbeitung, Videoschnitt bis zocken.
Und Baldurs Gate 3 läuft.
Mein ganzes System hat weniger gekostet als diese NVidia Grafikkarte. Vom Stromverbrauch will ich gar nicht reden.
Danke für den Beitrag. Leider kommt da doch etwas diese, wie ich dachte, schon in die Tage gekommene, "schneller, höher, weiter ist besser", Philosophie durch. Es ist gut, wenn es für verschiedenen Anwendungen spezialisierte Computer gibt. Die eierlegende Wollmilchsau gab es noch nie und will eigentlich auch keiner.
Wenn ich ausgiebig Spiele spielen möchte, würde ich mir einen Gaming-PC zusammenstellen. Wenn ich KI trainieren möchte, eben so was wie dieses Nvidia Ding anschaffen. Ich mache Musik, also habe ich einen Mac. Ganz einfach. Und für den "normalen" User (Mails, Internet, Texte usw.), sind alle diese modernen Computer schon total überdimensioniert, was die Leistung angeht.
Ich habe ein MacBook Pro M2 und produzieren darauf Musik. Ich konnte den Rechner bis jetzt noch nicht in die Knie zwingen. Auch bei umfangreichen Projekten nicht. Da sind mir die Petaflops der CPU echt egal. Und den KI-Boom, dem gerade alle nachjagen, halte ich, zumindest für den Hausgebrauch, für eine reine Modeerscheinung.
In die Tage gekommen? Mit genau dieser Philosophie hat Apple bis jetzt all ihre M SoCs beworben.
Da konnten es ueberhaupt nicht genug an Geekbench Testergebnissen sein, die da rauf und runter
gebetet worden waren.
Und wenn wir jetzt noch den Preis und den Stromverbrauch sowie die Lautstärke mit ins Boot holen, werden wir feststellen, dass das eine mit dem anderen nicht gemeinsam hat😮 und somit nicht vergleichbar ist. Des Weiteren haben wir hier einen unterschiedlichen Kundenkreis.
Yep, die einen, die mit ihrem Computer arbeiten und schnelle Rechenleistung brauchen und die anderen, die einen Computer aus Statusgründen auswählen.
@@GoMrTom Mit Stauts kannst du nicht die Apple-Kunden meinen, wenn eine Nvidia Graka allein schon mehr kosten kann als ein MAC
Hi, ich komme aus dem Windows Lager und habe mir den Einstiegs-Mac-Mini M4 geholt und bin super zufrieden mit der Leistung des Kleinen. Ich habe einfach keinen Bock mehr, dass PC's Hunderte von Watt Energie aus der Steckdose ziehen. Das ist mMn nicht mehr zeitgemäß und Apple zeigt, dass es auch anders geht.
Hab ich genauso gemacht. Seit der MacMini M4 Basis hier ist, war mein Gaming-PC nicht mehr an. Ich zocke aber aktuell aber auch nicht.
naja, 5 Jahre hinterher ist vielleicht etwas überzogen, aber die Stromrechnung wurde nicht erwähnt. Mag sein, dass man bald wider diese Teile extern eGPU anschliessen kann und dann kann man wieder seine 800W verbraten, wenn man es möchte. Bin jetzt kein Gamer, aber ab und zu spiele ich auch was, klar, kein Star Citizen, aber Cyberpunk geht da schon ordentlich (M3 Pro) Mal schauen, danke.
LG
Definiere Ordentlich bei Cyberpunk. Mich würde die Auflösung, Grafikeinstellung und Framerate interessieren. Neben meinem M3 Mackbook Air werkelt immer noch der maximal noch als untere Mittelkasse geltende PC mit Ryzen 5700x, 32GB Hauptspeicher und RTX3070 und 5GB SSD Speicher. Bei Cyberpunk muss ich meinen 4K Monitor mit WQHD betreiben um mit RTX=ON auf konstant über 60FPS im bordeigenen Benchmark bei DLSS=Quality zu kommen. Auf 4K muss ich bei den selben Einstellungen auf DLSS =Performance gehen um über 50FPS zu bleiben. In letzterem Fall läuft das System am Limit und genehmigt sich gut 390W in der Spitze. Das nennt man dann Express Zuschlag :-) Selbst bei einfacheren Tätigkeiten zieht das System um die 100W. Das System hat vor Jahren 2100€ gekostet. Wie schlägt sich jetzt ein M3PRO oder M4Pro? Ich habe das Gefühl, dass die alten Apple Hasen bezüglich Gaming deutlich geringere Ansprüche haben als beim Rest der Anwendungen, die sie nutzen.
Für mich war Gaming nie ein Argument für die Anschaffung eines Macs. Aber alltägliche Tätigkeiten wie sie wohl >90% der Nutzer machen mit wenig Leistungsaufnahme, lange und mobil ausführen zu können. Das mit einem Betriebssystem, das mir als "Quereinsteiger" aus der Wintel und Linux Welt Spass macht.
Wenn ich dann mal ein paar Hundert Bilder durch DXO Pure RAW laufen lassen muss, ist es mir egal, ob das die halbe Nacht mit dem Wintel PC oder die ganze Nacht mit dem M3 Macbook dauert. Geht beides, ist ein Hobby und ich lebe nicht davon. Ach ja und Tidal kann auf meinem Mac die Bitrate zum Audiointerface durchreichen, so dass kein UP/Downsampling verwendet wird, während das auf Windows nicht klappt und stattdessen die vom Treiber eingestellte Bitrate genutzt wird. Für mich alleine "fast" ein Grund ein Mackbook zu haben.
@@retiarius8641 hi, bei medium komme ich auf etwa 40 - 60 FPS (2k) [etwa wie hier ruclips.net/video/DsG7UEi55YY/видео.html ]
Klar, halt spielbar, bin aber zufrieden, und wenn ich dabei 35W ziehe, dann noch mehr. Klar, wie gesagt, bin kein "richtiger" Gamer, spiele ab und zu etwas Valheim (nativ mittlerweile, KSP und sowas) Ja, bin Entwickler, habe also etwas tiefer in den Geldbeutel gegriffen, wegen RAM und SSD (3,5k kranke Apple-Spiele, keine Frage), aber sonst kosten die etwa 2,5k oder so. Seit 20 Jahren bei Mac dabei, und finde es richtig geil, dass ich auch mal was spielen kann und zwar ohne die WattSchleuder meines Sohnes anmachen zu müssen. Und klar, dass man sich wegen Strom Gedanken macht, ist was anderes, hatten wir alle vor 20 Jahren nicht, aber was tun...
Beruflich ist das Teil einfach nur Top, gar keine Einwände, würde es nie tauschen wollen. :-)
Apple hat KI verschlafen. Sie könnten MACOS auf Project Digits portieren.
Hallo Michael, ganz fair ist der Vergleich ja nicht.
Apple M4 Socs sind Common Purpose APUS, ähnlich wie jetzt auch AMD MAX 395+
Nvidia Grafikkarten sind Desktop Gpu Monster, und auch sehr flott in den Mobile Varianten. Kann man aber net mit den graphic unit einer APU direkt Vergleichen.
Dieser Nvidia GB20 Chip ist pure Ai Gewalt, kann man net mit der Apple M4 Npu vergleichen.
Außerdem sind die Petaflops in 4 Bit (FP4), bei Fp16 geht das mindestens auf 256 TFlops zurück
Und spielen kann man auf dem Gerät auch nicht, hat denke ich nur Tensor Cores auf der Gpu drauf.
Ausserdem der Gb20 ist viel zu schwach Modelle selbst zu rechnen, die Performance hat er für die Inference, das Auslesen Verarbeiten eines gerechneten Modells.
Beim Gb20 sind LPDDR5x verbaut, für Inference Performance ist diese massgebend nicht nur das Petaflop. Ich denke damit kommen die auf 400G/sec im Dual Channel Mode. Die 5090 hat hier 1,8 Tb/Sekunde! Sie hätten für eine Super workstation GDDR7 Speicher verbauen müssen. Bei 400G/s ist Apple M4 Max schon.
Insgesamt zeichnet Apple mit dem M4, M4Max ein sehr gutes Bild, Apple hat mehr Zuwachs an Performance geholt als Nvidia, vor allem im Grafik Bereich,
Es bleibt spannend.
Karl
Es bleibt in der Tat spannend. Es war auch kein direkter Vergleich. Dennoch propagiert Apple immer wieder seine enormen KI-Fähigkeiten. Daher müssen sie sich auch gefallen lassen, finde ich, dass man sie mit anderen Herstellern vergleicht.
Das stimmt! Noch ist die Apple M4 Linie nicht auf dem Level der AI Workstations, der Rechner muss halt bezahlbar bleiben. Nvidia Kunden legen da kompromisslos mehr Geld für die Hardware hin. Aber das Projekt DIGITS wird erst auf dem Prüfstand zeigen was es kann und da bin ich sehr gespannt!!
@@apfeltalk Ach wenn ich in den vergangenen 25 Jahren für jede Ankündigung von Apple im Bereich Gaming einen Euro - oder in meinem Fall einen Franken - bekommen hätte, wäre ich jetzt reich. Wer kann sich z.B. noch an die vollmundigen Ankündigung von 2001 erinnern? > ruclips.net/video/o_buON1G17E/видео.html
Mit ihren SoC werden sie niemals an die Leistung einer aktuellen dedizierten GPU rankommen. OK sag niemals niemals; dann halt in den kommenden Jahren sehe ich das nicht.
Braucht man kein macOS, braucht man kein Apple. Alle anderen Diskussionen sind doch sinnlos. Apple als PC Anbieter mit den Intel Prozessoren war doch auch nur ein "Goodie" in Arzt Praxen, um das schicke Design der iMacs zu präsentieren. Zudem ist ein iMac mit Windows drauf aus meiner Sicht irgendwie pervers.
Allerdings ist Windows 11 nun mal auch absoluter Schund, allein aus Datenschutzsicht. Daher sage ich jedem (Kunden), nutzt macOS wenn es Idioten sicher sein soll, und Linux (Fedora für Business, Ubuntu/Mint für privat), wenn es umfangreicher und ab und an komplizierter sein darf. Bezogen hier natürlich auf ein Umfeld, das keinerlei Photoshop oder andere Applicationen braucht, die es nur für macOS oder Windows gibt.
Spätestend nach Release des N1x ist der Drops gelutscht. Dann wird Leistung neu definiert.
Moin Michi!
Meine Macs nutze ich entweder als Backup für mein großes iPad (MBA mit M1) oder um RUclips, Mediatheken und Prime Video zu schauen (iMac mit M1). Zuletzt gespielt habe ich am Mac sowas wie Sid Meiers Pirates! oder Strategiespiele, wie Total War Napoleon.
Bei modernen Spielen bin ich also raus. Daher fand ich die Demos von Apple ziemlich beeindruckend. Du kannst das sicher besser beurteilen. Für mich ist in erster Linie die Spielidee entscheidend. Nett, wenn dann noch die Grafik stimmt. Die Vektorgrafik bei Elite am C64 war nebensächlich, weil mich das Spiel an sich fasziniert hat.
Das Wunderkästchen, das NVIDIA vorgestellt hat ist beeindruckend. Und ich bin gespannt, ob es hält, was es verspricht, wenn es tatsächlich verfügbar ist. Für den normalen PC-Nutzer wird es wohl eher mittelbar von Nutzen sein.
LG Claus
Hallo Michi, Moin!
Ganz ehrlich: Mir reicht derzeit locker mein MacBook pro mit M1 pro... ich brauche - zumindest aktuell - keinen M4 Pro oder Max und auch keine nvidia 50xx.
Aber du hast prinzipiell natürlich recht: Wenn man mit der Entwicklung nicht (mehr) Schritt hält, dann ist man bald "abgehängt"! Und Apple muss sich warm anziehen und schauen, dass das eben nicht passiert.
Danke daher für`s Video und diesen Blick auf nvidia auf der CES 2025!
Grüße aus Brühl nach Bremen!
project digits halte ich für extrem interessant. als ai homelab bzw lokale ai lösung mit der man - so hoffe ich - mehrere anwendungsbereiche abdecken kann, die über die leistungsfähigkeit eines m4 pro/max hinaus geht. besonders die konnektivität - auch hier hoffe ich, mehr als 2 geräte koppeln bzw im cluster nutzen zu können - ist beim nvidia mini ein hammer, da dual connectx schneller als thunderbolt 5 sein müsste (100Gbps minus eth-overhead vs 80Gbps minus tb-overhead); bei llms mit sehr vielen parametern (200B+) muss das auf die nodes verteilt werden und die kommunikation wird dann ein sehr relevanter teil.
Spannend wird der Tag an dem NVIDIA auf Einkaufstour geht und Apple kauft… oder es ein Joint-Venture zwischen Apple und Nvidia gibt… Was passiert nun eigentlich mit Intel? Wird es doch von Qualcomm gekauft? Momentan passiert in der Chip-Branche so einiges spannendes…
Wir müssen immer den Preisleistungsfaktor betrachten; 700 € vs. 3000 € und Mac Minis lassen sich zum Trainieren miteinander verbinden. Aber die 128 GB unified memory in der NVIDIA Kiste sind sexy. Leider sind die angegebenen Leistungsdaten mit drastisch reduzierter Genauigkeit einzuordnen.
"drastisch reduzierte Genauigkeit" ? In 128 GB geht ja schon einiges rein. Mehr jedenfalls als in die Spiele-Karten wie 5090.
Danke für dein Video. Sehr Informativ!
Nun ja, was Nvidia da rausgehauen hat, ist beeindruckend! Ohne Frage.
Ich habe ca. 25 Jahre Microsoft hinter mir! Privat / beruflich. Ich sage nur EDV. Hab beruflich weiter mit Microsoft zu tun, das reicht!
Bin vor ca. 3 Monaten auf einen Mac mini M4 (10 Core / 10 GPU) / 16 GB / 1 TB gewechselt, weil mein Desktop-PC kaputtgegangen ist. Da stellt sich die Frage -> einen neuen Windows-PC oder ich schaue mal bei Apple vorbei. Ganz WICHTIGES THEMA -> ist der Stromverbrauch!!
Ich wollte mit zunehmendem Alter ein System, das läuft. Das hat man bei Microsoft nicht immer! Ich sag nur "Blue Screen, TPM-WMI-Ereignis-ID 1796" usw.
Hatte davor nix mit Apple zu tun gehabt. Zum Testen einen gebrauchten Mac mini von 2014 geholt und probiert. War beeindruckt, wie schnell dieser "alte Mac" ist. Man muss sich umstellen (da man Microsoft geschädigt ist) ...aber das ist das kleinste Problem.
Zur Datensicherung habe ich eine Externe SSD mit 2TB (USB-C) für die Datensicherung (Timemaschine)
Für die Projekte je 2x Externe SSD mit 4TB (Thunderbolt)
Benutze den Mac mini beruflich zum E-Mails schreiben / beantworten, Programmierung (C++ / Website: HTML, CSS, JAVA, WordPress, TYPO3 ...)
Privat: Musik hören, Bild- und Videobearbeitung ...
Fazit: Ich bin mehr als zufrieden. Preis stimmt. Stelle meine Systeme, die ich privat nutze, komplett auf Mac um.
Grüße aus dem Osten der Republik.
it is hard to describe the quality of life gain of working without computer fan noise.
Apple war immer etwas für bearbeiten von Visuellen Medien oder Programmieren.
Ich sehe aber Nvidia hier Apple extrem schnell den Rang ablaufen. Wenn Apple nicht aufpasst.
Ich schreibe das gerade auf einem M1 MBAir in der damaligen MAX Ausstattung und dennoch komme ich nicht umhin unter Linux auf Nvidiazu setzen da die Entwickler nicht in die Pushen ihre Programme dementsprechend anzupassen.
Ich Stacke zehntausende Astrophotos und es ist wirklich erbärmlich wie schlecht die Software teils angepasst wurde und wird.
Teils sind noch nicht mal die Anwendungen als Universal Apps verfügbar und müssen über Rosetta fahren und brauchen zum Starten schon mal mehr als fünf Minuten.
Von einer HW Beschleinigung sind wir weit entfernt und das Trifft leider auch auf AMD GPUs unter Linux zu. Selbst beim Vergleich von Steambasierenden Spielen schaut es angeblich nicht besser aus, da ist und bleibt Nvidia der Platzhirsch und das liegt vor allem an den Entwicklertools.
Es steht und fällt mit der Software und den Entwicklern.
Wie toll wärs wenn die NPU genützt werden fürs Staken… Aber typisch Entwickler, die machen nur das Minimum.
Ich verstehe den Beitrag nicht. Wieso vergleicht er einen PC (Mac) mit einer Grafik-Karte?
Offensichtlich haben Sie den Beitrag nicht verstanden.
Ich hoffe, dass Apple beim M5 bzw. eher beim M6 in 2nm noch eine ganze Schippe drauf legt, was Grafik- und KI-Leistung angeht. Gerade der M4 Max Chip ist ein Super Chip, aber Apple sollte nicht den Anschluss an NVIDIA verlieren. Gerade das Apple Ökosystem mit Highend Chips ist für Poweruser schon wirklich nice, sollte es aber auch bleiben in der Zukunft mit wachsenden Ansprüchen (ich nenne als Stichpunkte: KI/AI, Anspruchsvolle Spiele, Creative Arbeiten, eventl. ein 3D Internet usw.), auch im Vergleich zu NVIDIA Chips und Grafikkarten.
Es ist genau wie du sagst. Ja Apple ist schon in vielen Bereichen sehr gut geworden durch die eigenen Chips aber die Konkurrenz schläft nicht und was wir da jetzt gesehen haben, ist wirklich krass.
Ich erwarte mir endlich Usecases um die NPU zu nützen. ZB. LLMs die den Chip nützen. Hier wäre ein Heise Projekt ganz toll.
Ich muss sagen das ich von Apple in Bezug auf Gaming ziemlich enttäuscht bin. Bill Gates hatte es damals verstanden das man mit Computerspiele ein Interesse für sein Produkt (sogar stark) erweitern kann. Microsoft hat sogar eigene Studios nur dafür. Apple will nur portieren, erkennt aber inzwischen, das umso performanter die Chips werden sie auch einen Anwendungszweck brauchen. Einfach nur Office, BS, und Media reichen da nicht mehr aus.
fast 1000 Watt Stromverbrauch GPU und der Rest PC für einen Spielekomputer ist heute sicherlich ganz groß angesagt! 😇
Finde auch, dass der Vergleich hinkt.
Was ich bedauere ist das der NPU Chip links liegen gelassen wird. Dabei wäre der hochinteressant zB. LLM drauf laufen zu lassen. Mehr Infos und Berichterstattung wäre hier wünschenswert. Das wär doch was für ein ct Projekt oder ?
Ich benütze ein MBP M1 Pro Max, dessen Grafikleistung sich etwa auf dem Niveau einer RTX 2080 bzw RTX 3060 TI bewegen dürfte, was für damals schon beeindruckend war.
Leider hat sich die Grafikleistung nicht wirklich skaliert weiterentwickelt hat.
Insoferne sehe ich hier noch länger keinen Grund für ein Upgrade.
Um Cyberpunk mit RT spielen zu können, aber auch für viel mehr Renderleistung in Da Vinci Resolve und Blender, ziehe ich einen PC in Betracht, falls der Preis für eine RTX 5070 von etwa € 600,- stimmen sollte.
Danke für die Objektive Bewertung, aber die Effizienz zählt für mich gerade mehr.
Rheinmetall baut ganz tolle Panzer, da hinkt Apple auch ganz stark hinterher und müsste dringend mal aufholen…
Mal ernsthaft: Ich sehe in Nvidia keinen Konkurrenten zu Apple. Das Project Digits ist schon interessant hat aber doch einen ganz anderen Markt im Visier als Apple.
bei 5:30 -> 10 hoch 15 ist eine Trilliarde und somit eine Million mal eine Milliarde.
Schön, dass die Technik immer weiter geht. Interessant, was der Markt bietet! Aber Normalanwender haben damit so gut wie nichts zu tun, da sie mit der aktuellen Rechenkraft mehr als auskommen sollten. Für Serverfarmen oder wissenschaftliche Anwendungen sicherlich interessant, für "das Volk" eher weniger.
PC-User meckern über Apple, weil sie so teuer sind? Aber dann (nur) ne Grafikkarte für 2000,- € kaufen! 😆 Dann ist die Grafik hochaufgelöst und schnell - bringt aber im Grunde nichts, weil das im Game selber komplett untergeht. Für Spezialanwendungen völlig OK, aber für Normalos völlig überdimensioniert.
Da liebe ich die Apple-Welt, wo alles aus einem Guss ist, komplett auch untereinander funktioniert und trotzdem auf sehr hohem Niveau läuft. Zu einem angemessenen Preis. Mein MacMini wartet eh 99% seiner Zeit nur auf mich und meine Eingabe, da vermisse ich nichts.
Es mag ja sein, dass eine Chip-Schmiede wie Nvidia Apples Silicon-Chips einholen kann - das Ökosystem und die Reputation fehlen dann aber immer noch.
Mir war nicht klar, dass Nvidia (als zweiwertvollstes Unternehmen der Welt - direkt nach Apple - siehe Link) unter fehlender Reputation leidet. companiesmarketcap.com
@@apfeltalk Als Anbieter von Desktop-Rechnern? Schon. Beiden Unternehmen - groß und mächtig wie sie auch sein mögen - fehlt es ja auch an Reputation auf dem Markt der Unterhosen-Anbieter, oder?
Ja, das mag sein. Im Bereich der KI-Supercomputer (und den kleinen vermarkten sie ja als solchen) genießen sie einen guten Ruf. Ob die Kiste auch für "Normalos" interessant ist, wird sich nach den ersten Tests zeigen.
GraKas die 20x mehr Strom brauchen als mein Mac? ... Neeee. Und schon wieder "AI"...
RTX 5090 wird gegönnt.! 🙌🏻
Ich vermute, dass Apple eher den Konsolenansatz verfolgt. Unkomplizierte Installation und los geht’s.
Ich habe als Kind viel via Windows gespielt aber mittlerweile einfach keine Lust mehr auf den ganzen Eisberg, den “Gaming” so mit sich bringt. Konsole an den Fernseher anschließen und fertig. Mehr Zeit für Freunde und Familie, günstiger und kein “keine Rückmeldung” mehr. ✌️
Wie viel Heizleistung erzeugt die GTX5000er Serie? Und wie viele Macs kann ich mit der Leistung der Grafikkarte betreiben? Egal, das kleine nVidia Ding ist für Entwicklung super, 128 GB bekomme ich im M4pro gar nicht. Auch egal, aber ich freue mich, dass ich nicht im Sozialismus Habeckscher oder WEF'scher Prägung lebe und immer neue Entwicklungen kommen. Jetzt frage ich mich aber, wozu brauche ich dann für den PC einen AI Kühler? Was kann der nochmals?😉✌
„Gaming auf dem Mac? 🤔 Ich persönlich bevorzuge es, mit meiner Switch und Xbox zu spielen. Mit der beeindruckenden Rechenleistung meines Mini M4 Pro fühle ich mich für die nächsten fünf Jahre bestens gerüstet. Die Kombination aus leistungsstarken Konsolen und meinem Mini ist für mich einfach ideal! 🎮✨ Ein weiterer Vorteil ist der deutlich geringere Stromverbrauch. Laut dem Bericht von Blogger Howard Oakley sorgt der Stromsparmodus zusätzlich dafür, dass ich Kosten einsparen kann.“
Ich mag keine Konsolen, was primär an dem Controllerzwang liegt. Und man ist in Sachen Mods gegenüber dem PC stark eingeschränkt.
Ich habe mir jetzt zusätzlich zu meinen Gaming pc einen Mac mini bestellt. Der Mini wird hauptsächlich für Office und alltägliche Aufgaben benutzt, weil der Gaming pc dafür zu viel strom zieht.
Ich habe auch den m4 Pro genommen, einfach weil ich ein paar Spiele ausprobieren möchte. Wenn meine wichtigsten spiele laufen wäre ich bereit meinen Gaming pc abzustoßen.
Kann kaum erwarten, dass der Mini kommt :D
Habe ebenfalls eine Switch. Ich würd eher noch einen dedizierten Gaming-PC (Laptop) holen, als die Extraaufrüstung an GPU, Ram, SSD für Spiele am Mac zu investieren. Am PC läuft dann wenigstens auch alles perfekt.
Beeindruckende Zahlen. Aber ich finde, hier werden gerade so ein wenig Äpfel (Apple....haha....unbeabsichtigtes Wortspiel) mit Birnen verglichen. Unterschiedliche Zielgruppen und unterschiedliche Nutzung. Aber ich bin mir dennoch sicher, dass Apple die M-Chips in naher Zukunft auch schneller machen wird. Performance-technisch nutze ich derzeit einen M4 Mini und mehr als zufrieden.
Hi, ich bin jetzt seit 10 Jahren bei Apple weil das Ökosystem mich einfach überzeugt hat. Und freu mich sehr darüber das die neuen M Prozessoren alle 16GB Arbeitsspeicher als Standart angeboten werden statt den üblichen 8GB... Aktuell benutze ich einen iMac von 2020 mit 64GB und ein M1 MacBook mit 32GB Arbeitsspeicher auf dem MacBook läuft Metro Exodus mit einer echt Sehenswürdigen Grafik u. in Konsolen Qualität PS4. Ganz ohne bzw. kaum mit Lüfter Unterstützung. Ich finde NVIDIA spricht eine ganz andere Zielgruppe an und zwar die, die an ihrem GamingKisten vieles Optimieren und auf Rechenleistung angewiesen sind und natürlich mit ganz vielen Lüftern. Leider sind solche System sehr anfällig was Hitze angeht und fressen sehr viel Zeit und Strom bis alles läuft und sie setzen alle auf Windows also die Treiber. Was mir persönlich überhaupt nicht mehr zuspricht... Für die Zukunft hat Apple ein Tolles Gaming Angebot mit Top Titel und das schöne, es wird einfach laufen... Aktuell werde ich erst Upgraden wenn der M5 mini veröffentlicht wird. Weil meine Kiste von 2020 zum Arbeiten und Starcraft zocken noch völlig auslangt...
Apple hat ja auch eine NPU und könnte diese zur Beschleunigung von Filmen verwenden. Die hat wahrscheinlich auch Zugriff auf den Unified Memory, oder?
Hallo, benutze weiterhin meinen Leistungsfähigen M1 Mac mini und bin auch froh den zu haben. Dokumente wie PDF oder mal eben ne Karte erstellen für den Geburtstag oder ne Einladung ist mit Apple super zu machen. Sonst ist aber auch Videobearbeitung dabei als Familienvater hat man auch genug Zeit im Hintergrund etwas rendern zu lassen da muss es erstmal nicht der M4 sein.
Ich bin mit meinem M1 Mac Studio auch sehr zufrieden.
Bißchen arg reißerisch die Überschrift. Aber abgesehen davon: Der Mac als Gaming-Rechner interessiert mich null, und was heißt hier: 5 Jahre in der Grafik zurück? Nimmt man die Effizienz als Maßstab, dann ist Apple vielleicht eher 5 Jahre voraus? Ich habe zwei M-Rechner (M1pro und M3pro), und beide sind abartig schnell, abartig effizient und einfach rundem gelungene Produkte für ein kreatives Leben. Ach ja, noch eine Frage: Hat Nvidia ein Betriebssystem? Ein Ökosystem? KI-Trainings werde ich vermutlich nie machen, daher sind mir Trainingscomputer für diesen Zweck auch erstmal herzlich egal. Was Apple aber wirklich mal machen sollte: Die Zukunft der Bedienoberflächen erfinden, die Desktop-Metpher neu denken, die Optik der Oberfläche anpassbarer machen und Konzepte integrieren, die es seinen Nutzern ermöglicht, der Informationsüberflutung viel besser Herr zu werden und die eigene Lebensgestaltung zu optimieren. Wir bedienen unsere Rechner im Prinzip immer noch wie in den 90ern - da könnte Apple vielleicht mal die besten Denker zusammenholen und Neues kreieren. Von Microsoft kommt da bestimmt nichts und von Linux auch nicht.
Da ich bald in Rente gehe und dann nur noch die Hälfte von dem Geld zur Verfügung habe was ich jetzt habe und davon, bei immer höher werdenden Kosten, gerade so überleben kann wird der nächste MacStudio M4 Max mein letzter für sehr lange Zeit sein. Zurzeit arbeite ich mit dem MacStudio M1 Max der eigentlich reicht. Aber mit dem M4 Chip bin ich da Zukunftssicherer aufgestellt. Nvidia hat da was sehr interessantes gebaut was vieles in den Schatten stellt, aber es spricht zurzeit noch nicht den Normalnutzer an.
Also da ich 2010/2011 von einem Vista OEM PC zu einem 2010 27" iMac gewechselt habe habe ich dort für Spiele die keine native OS X/macOS Version hatten mit Bootcamp Windows 7 installiert. Jetzt 14 Jahre später habe ich einen M2 Pro Mini und bis vor einem halben Jahr hatte ich mit dem auch noch Spiele drauf, war allerdings nicht mehr viel. Nur WoW, Diablo 3 und Civ6 so wie Xcom 2. Nach ein par Versuchen mit Whisky Windows Spiele zu spielen habe ich mich entschieden nach Jahren auch mal wieder einen PC zu kaufen, dieses mal selber gebaut. Hab mir ein Budget auf der Höhe vom Mini gesetzt und bin jetzt sehr zufrieden damit. Ist ein volles AMD Build geworden mit 7500F + 7900XT. In einem Cinebench Vergleich beider Systeme hab ich auch festgestellt das zwar die CPU Leistung, jedenfalls im Synthetischen Vergleich noch recht auf einer Höhe war hat die GPU den Mini komplett Nass gemacht :D
Was übrigens diese ARM PCs angeht gibt es da auch ne recht coole Sache von System76 - hab da kürzlich ein Video von Jeff Geerling zu gesehen. Eine ARM Workstation die aber auch dedizierte GPUs unterstützt
Was "Gaming" betrifft: Das einzig frustrierende ist das es den MSFS 2024 nicht für macOS gibt.
Das stimmt. Das wäre großartig. 👏🏻
Da ist was dran. M4 kann bei X-Plane leider nicht die volle Leistung zeigen. 😢
Mein Gott ist das Design von dem Nividia Mini hässlich.
575 Watt Leistungsaufnahme, im Laptop kommt das nicht so gut. Vielleicht ist die integrierte Apple GPU in Wattleistung garnicht so schlecht 🤔
Bin Software Entwickler für Java EE, Spring, DB, Angular und habe einen Mac Mini. Experimentiere mit OLLAMA lokal, dass stößt an die Grenzen…
Super , aber es wäre mir lieber der neue NVidia - MiniPC würde statt 3.000 Euro nur 1.000 Euro kosten. Gerne dann nur mir 1/3 der Leistung: Denn mehr brauche ich als Privatanwender selbst fûr 4K - Videorendering wirklich nicht !
Man kann mit der M4 Reihe schon zocken oder geringfügig mit dem M1 aber dennoch sehr limitiert, selbst mit dem M4 Max geht das gut aber absolut kein Vergleich zur teilweise Nvidia 3000er, 4000er & 5000er Reihe, besonders nicht in Preisleistung.
Nvidia und Apple, beide bedienen ganz andere Kundenkreise. Das sieht man doch schon am Aufbau der Geräte. Project Digits ist doch toll, aber ich brauch das nicht. Ich will einen Rechner wie nen Mac Mini als aufgebohrte Version, sozusagen einen Mac Studio, der Anschlüsse wegen. Das Ding soll leise sein und dann soll mit der Leistung wieder ca. 5 Jahre "gut" sein. Und wenn der Mac Studio nicht bietet, was ich erwarte, wirds ein Mac Mini M4 Pro. Ganz einfach. Wenn ich zeit hätte zum spielen, werfe ich ne Konsole an. Stromverbrauch bleibt ein Thema! Dank der Grünen Anti-Atom-Politik. Außerdem ist es doch toll, wenn der Rechner leise, flott und wenig Strom braucht.
Yo, auch Bremen hier. Grafiken programmiere ich mir selbst. Das sieht dann ungefähr so aus: ruclips.net/video/UlTE1OZwp34/видео.htmlsi=pTZgwRyP1LwQ43_t. Dazu ist mir mein alter Mac Mini schon zu schnell. Die Nvidia-Maschine kommt ja wohl mit Unix raus. Welche Software bekommt man darauf zum laufen? Mal abgesehen von dem Machine-Learning-Gesumse. Die Nutzung von Cosmos könnte interessant sein. Braucht man dazu die NVidia-Maschine?
Hi… heute
die Glaskugel mal poliert? Wann und ob dieser NVIDIA Mini Pc erscheint weiß heute wer?
Es ist kein Mini-PC, es ist eine Mini-AI Workstation, die schon in der Produktion ist. Einzig der Name ist noch nicht Final. Der Release ist offiziell im Mai.
Ich hab fast n Oldtimer MacPro 4.1, hardwaremäßig auf 5.1 (2x 6Core Xeon mit3GHz, RadeonRX580 und 48 GB Ram) getrimmt und mit OpenCore Legacy Patcher Monterey laufen. 😆
Wieso fast? Nen 4.1 ist nen Oldi unter der Computerszene 😉
Mittlerweile sinnlos in meinen Augen, ausser man steht Föhngeräusche.
Ne Apple hat die bessere Ausgewogenheit zwischen Stromverbrauch und Leistung
Jo eine 5090 verbraucht auch so viel Strom wie 4 Apple-Computer nur für die Grafik. Da ist sonst kein weiteres Equiptment dran... Also ist das Video komplett am Thema vorbei. Und nicht nur das die Grafikkarte alleine soviel Strom verbraucht wie 4 ganze PCs nein sie ist auch noch nur für Grafik, und für sich gesehen völlig disfunktional weil sie ja weitere Komponenten voraussetzt, auch noch genau so teuer wie ein ganzer PC von Apple der viel mehr kann als die Grafikkarte... klar wenn Geld keine Rolle spielt und mich die Stromrechnung nicht interessiert ist die total toll..
Für mich ist das nicht am Thema vorbei, da lokale KI-Generierung in Zukunft wohl eine immer grössere Rolle spielen wird. Die spezifische Art der Rechenleistung (für die Apple-CPUs nicht ausgerüstet sind) muss zum User verschoben werden, da ein zentralistischer Ansatz wie Cloud dafür nicht ideal ist (zu teuer für den Anbieter, der dadurch hohe Abo-Kosten aufrufen muss). Und damit kommt man zum Thema Strategie, so etwas muss frühzeitig eingetütet werden und da verpasst Apple offensichtlich den Zug.
Apple mit Nvidia vergleichen,geht nicht! Beide Firmen,haben einen anderen Kundenstamm!
Apple vs NVDIA…..? Wenn überhaupt wäre es vielleicht Tesla vs NVDIA.._Apple ist AGI weit abgeschlagen (Hardware und Software…)
Wenn ich spiele, dann spiele ich Logic Pro 😂
Ich zocke auf meinem Mac. (Mac mini M2 Pro und MacBook Air)
Aber keine top aktuellen Titel. Beispielsweise zocke ich aktuell über Parallels Desktops „Command & Conqer Tiberian sun“. Oder ich spiele leidenschaftlich gerne Vintage Story (Mac Version). Oder aber auch diverse Wimmelbild Games oder nach Feierabend etwas Siedler 2 über Ubi Soft mit Hilfe von Paralles Desktops.
Ich brauche diese Tripple-A Games nicht.
Ich habe meine Xbox verkauft, eine alte PS2 und meine Gameboys. Ich habe nix mehr zum Spielen. Apple muss auf den Macs besser werden!
Wer 3000 Euro für einen PC ausgibt weil er Leistung haben möchte, kauft sich kein MacMini oder anderen FertigPC, sondern stellt sich das selber zusammen. Der MacMini ist für Krethi und Plethi und die geben nicht 3000Euro für ein Mailprogramm und RUclips Abspielgerät aus.
Der Mac mini mit M4 Pro ist sehr wohl gut für professionelle Anwendungen geeignet und kostet in bestimmten Konfigurationen deutlich mehr als das Teil von Nvidia.
Die $3000 sind nur der Einsteigspreis, man wird ihn fast verdoppeln können.
@@apfeltalk Ich habe nicht behauptet, dass man keine Leistung kriegt wenn man die teureren Modelle kauft, nur dass man für sein Geld deutlich mehr Performance bekommt, wenn man keinen fertig PC kauft. Und in den Basisversionen, die für die breite Masse sind, ist ein Preisunterschied von 700 zu 3000 schon sehr groß. Es wird so getan als würde plötzlich jeder KI brauchen, ich kenne niemanden, der seinen Computer für anderes als Office, Netflix und Gaming oder Grafikdesign nutzt. Dieses Ding hat so eine kleine Zielgruppe an Nerds, dass es letztlich irrelevant ist. Mit dem Basis MacMini kann man vollwertiges Webdesign machen, Python, Docker etc.
My mother has the same jacket.
Der Vergleich hingt hier extrem. Wenn Apple seine nicht so coole Keynote präsentiert, kannst du 7 Tage später die Hardware auspacken, bei Nvidia musste auf den "super mini computer" noch 6 Monate warten und einen Namen hat das Teil auch nicht. Finde den Vergleich sehr unnötig und somit das Video auch....
Was ich vergleiche, ist natürlich meine Sache. Wenn es dir nicht gefällt, okay. Deine Sache. Und es ist nicht wahr was du bezüglich der Hardware sagst. Die Hardware von NVIDIA kannst du bereits kaufen nur vielleicht den kleinen Computer nicht. Und Apple ist Weltmeister im Ankündigen von Sachen, die erst sehr viel später kommen. Beispiel: Mac Pro 2013. wurde auf der Keynote im Sommer angekündigt, kam aber erst im Dezember. Nächstes Beispiel der HomePod wurde im Sommer angekündigt kam erst im Januar. Noch ein Beispiel: die ersten AirPods waren Monate lang nicht verfügbar. Nächstes Beispiel Apple Intelligence wurde im Sommer angekündigt und kam erst im Dezember in den USA und erst im April in die EU. Es gibt derartig viele Beispiele dafür.
@@apfeltalk Also die Apple Intelligence Karte kannste hier nicht ziehen, das wurde ganz klar kommuniziert das es für die EU später kommt... Der Punkt mit dem Vergleich ist eher, das Nvidia die letzten Jahre ganz klar auf Grafik und AI fokussiert hat und Apple mit seinen M4 und M3 Chips ein breiteres Spektrum an Anwendungsmöglichkeiten abdeckt. Der neue mini Computer von Nvidia deckt auch nur einen bestimmten Anwendungsfall b, insofern meine ich kannste nicht andeuten das Apple gegen Nvidia verliert. Aber das ist wie geschrieben meine Meinung und nach der hast du höflich gefragt, aber scheinbar habe ich mit meinen Kommentar einen wunden Punkt getroffen. Entschuldigung
Alles gut! 😅 Apple Intelligence kam auch in den Staaten erst (und nicht mal vollständig) nach drei Monaten. Klar kann man die Geräte nicht 1:1 vergleichen. Das habe ich ja auch im Video nicht gemacht. Dennoch propagiert Apple, dass seine Maschinen ideal für KI-Anwendungen geeignet sind. Das stimmt bis zu einem gewissen Punkt ja auch.
Nvidia geht da einen anderen Weg und macht das Training von LLM eben auf dem Desktop möglich. Das mag eine Nischenanwendung sein und "Project Digits" ist sicher nur der Anfang. Ich sehe es so, dass Apple da noch einen Weg vor sich hat. Ohne Zweifel sind Macs sehr gute Allrounder.
Ich habe Windows, deswegen stehe ich auf Nvidia Grafik.
Nein!
Bin kein Gamer, brauche das nicht.
Es geht hier nicht um einen Ersatz der Macs aber es soll gezeigt werden dass Apple gut aufpassen muss sich nicht zu sehr auf den M Lorbeeren auszuruhen. IMHO ist digits erst der Beginn und ein Ausblick auf NVIDIAs Vorstoß in den Arm SOC markt als Angriff auf qualcomm, Intel, amd, Apple… daher auch die Cooperation mit MediaTek. Und die rtx 50er Serie ist so viel schneller, dass eine 5070 die gleiche Leistung wie eine 4090 bringt aber nur 1/3 kostet und 1/4 Strom verbraucht… das sind schon schnelle Schritte mit denen NVIDIA da voran geht
Projekt Digits wird schon als Strix Halo-Killer angepriesen, dabei kostet Strix Halo wahrscheinlich weniger als die Hälfte
Ne das eine hat mit dem anderen nicht viel zu tun außer vielleicht dem integrierten Ansatz.
Forscher
Irgendwie sehr viel Meinung für sehr wenig Ahnung
Aha! Wenn Du meinst!
Da ich Zocker bin habe ich mich von Apple abgewandt und bin wieder bei Windows. Apple kann eh nicht mit Samsung Phone mithalten, zocken geht sehr schlecht, Sirius ist dumm wie Brot.