Ich habe mir vor kurzem ein Mac Studio M1 Max gekauft, nutze die KI Anwendungen im Videoschnitt. Muss sagen, reicht mir bisher völlig aus, kaufe mir erst dann einen neuen, wenn ich in Grenzen komme und nicht weil eine neue Zahl dahinter steht.
Mich würde mal interessieren, wie der Vergleich mit den Lautsprechern aussieht, ich habe noch das iPad Pro M1 da sind die Lautsprecher ganz gut, aber welche sind nun besser die vom MacBook Air M3 oder die vom iPad Pro? Eine Antwort wäre sehr nett!
Funktioniert natürlich alles noch top, aber irgendwie komm ich mir mit meinem MBP mit M1 so richtig als vor. Aber Umstieg lohnt sich einfach noch nicht. Die 32gb RAM gleichen vllt. einiges aus, als wenn man einen m3 mit nur 8gb RAM hat.
Soll man sich also ein MacBook Air mit M3 und 16 GB RAM holen damit Siri AI drauf laufen kann und wegen der KI Zukunftssicherheit oder geht das auch mit 8GB RAM?
Hallo, vielleicht habe ich ja da einen Denkfehler aber ich würde sagen das M2 und M3 ungefähr die gleiche Menge an Strom zieht. Klar ist der Wert beim M3 ca. 3 mal so hoch aber er ist ja auch ca. 3 mal so schnell. Also am Ende ziehen doch beide ähnlich am Akku. Man muss doch die Zeit mit einrechnen um den Verbrauch für das berechnen des Bildes zu berechechnen. Gruß aus Berlin, Thomas
Hi, ich habe seit ein paar Tagen auch einen MBA mit M3 und ebenfalls 8 GB „RAM“. Wie läufts bei Dir mit Photoshop und Lightroom, irgendwelche Einschränkungen aufgrund der 8GB erkennbar? Stecke noch in der Kennenlernphase mit meinem Mac, möchte auch etwas Fotobearbeitung etc. machen.
Es läuft gut und ohne Probleme. Beim Transfer von RAW zu JPG in Lightroom wird häufig zu ssd geswopt. Im LR kann man beim Transfer den Grafikspeicher zuschalten, dann läuft der Transfer wesentlich schneller. Dies benutze ich jedoch sehr selten, denn in der Regel transferiere bzw. wandle ich nicht so viele Dateien aus mal.
Hallo Michi! Die Idee mit dem Riesenrad - einfach klasse! Aber hattest du da auch WLAN? ;-)) Cooles Video wieder - und schöne Grüße aus dem Westen in den Norden der Republik!
Sorry Apfeltalk, aber das Video habe ich jetzt nicht so sehr gefühlt. Vielleicht habe ich es auch nicht gepeilt... Der Vergleich von 2 Maschinen, mit unterschiedlich viel RAM, bei so einem Ressourcen-hungrigen Anwendungsfall, passt einfach nicht. Der Stromverbrauch ist sicherlich eine Anekdote wert, aber doch eigentlich vernachlässigbar? Hier hätten doch eher eine M2 und/oder M1(Pro/Max) Maschine mit ebenfalls 16GB herhalten sollen.
Sorry, dass wir da an dieser Stelle Deine Gefühlslage nicht beeinflussen konnten. 😅 Wir haben eben leider kein Arsenal an Laptops und der MBP mit M2 war das einzige, mit M2 das eben noch zur Verfügung stand. Alternativ war noch ein M1 Max mit 64 im Raum. Der Stromverbrauch steht bei Apple Silicon in direktem Zusammenhang mit dem was in der CPU passiert.
Bei der Bildgenerierungsapp wird anscheinend StableDiffusion eingesetzt. StableDiffusion kann nicht nur auf MacOS sondern unter anderen Betriebsystemen eingesetzt werden. Es benutzt aber deshalb nur CPU und GPU für die Verwendung des KI-Modells. Das erklärt warum die Neural Engine bei 0% bleibt. Sie wird nicht eingesetzt, weil die zugehörige API im Programm nicht benutzt wird. Das ist also kein Fehler in den Mess-Programmen. Bei der Textgenerierung wird es der gleiche Effekt sein. Es wird dort vermutlich auch ein KI-Modell verwendet, was nicht auf Apple Silicon spezialisiert ist. Nicht desto trotz sind MacBooks sehr gut für KI-Benutzung. Der Hauptgrund ist, dass durch die gemeinsame Nutzung des Arbeitsspeichers für CPU und GPU größere Modell geladen werden können. Bei einem Windows-Laptop muss das Modell in den Speicher der GPU geladen werden. Hier gibt es wenig mobile Grafikkarten die mehr als 16 GB Speicher besitzen. MacBooks mit mehr als 16 GB Arbeitsspeicher gibt es schon. Für LLMs ist auch lmstudio.ai als Programm zu empfehlen. Hier mit können alle OpenSource-LLMs von Huggingface heruntergeladen werden und mit Ihnen gechattet werden. Llama2 von Meta ist darüber z.B. verfügbar. Die Modelle stehen in verschiedenen Größen zur Verfügung. Da sieht man dann was es bedeutet, wenn man mehr Arbeitsspeicher hat. Es können größere Modelle geladen werden, die zu besseren Ergebnissen führen. Prinzipiell zeigt das Video, daß man mit MacBooks lokal KI-Modelle betreiben kann und zwar mit allen Apple Silicon Versionen M1, M2, und M3. Mehr wurde in der Überschrift nicht versprochen, von daher Daumen hoch.
Ich habe ein Macbook Pro m3 Pro mit 18GB RAM. Bin per Zufall auf dieses Video gestossen und werde es gleich versuchen. Ansonsten wirds hauptsächlich zum Programmieren genutzt
Ich habe mir vor kurzem ein Mac Studio M1 Max gekauft, nutze die KI Anwendungen im Videoschnitt. Muss sagen, reicht mir bisher völlig aus, kaufe mir erst dann einen neuen, wenn ich in Grenzen komme und nicht weil eine neue Zahl dahinter steht.
Mich würde mal interessieren, wie der Vergleich mit den Lautsprechern aussieht, ich habe noch das iPad Pro M1 da sind die Lautsprecher ganz gut, aber welche sind nun besser die vom MacBook Air M3 oder die vom iPad Pro?
Eine Antwort wäre sehr nett!
Funktioniert natürlich alles noch top, aber irgendwie komm ich mir mit meinem MBP mit M1 so richtig als vor. Aber Umstieg lohnt sich einfach noch nicht. Die 32gb RAM gleichen vllt. einiges aus, als wenn man einen m3 mit nur 8gb RAM hat.
Ich habe zum Arbeiten einen M1 Max Laptop. Der funktioniert einwandfrei. Ich würde mich nicht so sehr von der Nummer hinter dem M stressen lassen. 😅
Soll man sich also ein MacBook Air mit M3 und 16 GB RAM holen damit Siri AI drauf laufen kann und wegen der KI Zukunftssicherheit oder geht das auch mit 8GB RAM?
16 GB ist aus meiner Sicht die bessere Wahl.👍🏼
Super, Michi! Tolles Video. Gleich mit meinem M3 MacBook Air ausprobiert. Läuft flüssig. Vielen Dank für die Programmtipps!
Hallo, vielleicht habe ich ja da einen Denkfehler aber ich würde sagen das M2 und M3 ungefähr die gleiche Menge an Strom zieht. Klar ist der Wert beim M3 ca. 3 mal so hoch aber er ist ja auch ca. 3 mal so schnell. Also am Ende ziehen doch beide ähnlich am Akku. Man muss doch die Zeit mit einrechnen um den Verbrauch für das berechnen des Bildes zu berechechnen.
Gruß aus Berlin, Thomas
Ja, ich habe M3 Air 13“ leider nur mit 8Gb Speicher. Ich nutze den Rechner vorwiegend für Bildbearbeitung mi Photoshop und Lightroom.
Hi, ich habe seit ein paar Tagen auch einen MBA mit M3 und ebenfalls 8 GB „RAM“. Wie läufts bei Dir mit Photoshop und Lightroom, irgendwelche Einschränkungen aufgrund der 8GB erkennbar?
Stecke noch in der Kennenlernphase mit meinem Mac, möchte auch etwas Fotobearbeitung etc. machen.
Es läuft gut und ohne Probleme. Beim Transfer von RAW zu JPG in Lightroom wird häufig zu ssd geswopt. Im LR kann man beim Transfer den Grafikspeicher zuschalten, dann läuft der Transfer wesentlich schneller. Dies benutze ich jedoch sehr selten, denn in der Regel transferiere bzw. wandle ich nicht so viele Dateien aus mal.
Hi. Ich finde, das kann man so gar nicht vergleichen. Man hätte 2 Maschinen mit gleichem RAM und letztlich auch gleicher CPU M2 und M3 benötigt.
Hallo Michi!
Die Idee mit dem Riesenrad - einfach klasse! Aber hattest du da auch WLAN? ;-))
Cooles Video wieder - und schöne Grüße aus dem Westen in den Norden der Republik!
Sorry Apfeltalk, aber das Video habe ich jetzt nicht so sehr gefühlt. Vielleicht habe ich es auch nicht gepeilt...
Der Vergleich von 2 Maschinen, mit unterschiedlich viel RAM, bei so einem Ressourcen-hungrigen Anwendungsfall, passt einfach nicht.
Der Stromverbrauch ist sicherlich eine Anekdote wert, aber doch eigentlich vernachlässigbar?
Hier hätten doch eher eine M2 und/oder M1(Pro/Max) Maschine mit ebenfalls 16GB herhalten sollen.
Sorry, dass wir da an dieser Stelle Deine Gefühlslage nicht beeinflussen konnten. 😅 Wir haben eben leider kein Arsenal an Laptops und der MBP mit M2 war das einzige, mit M2 das eben noch zur Verfügung stand.
Alternativ war noch ein M1 Max mit 64 im Raum.
Der Stromverbrauch steht bei Apple Silicon in direktem Zusammenhang mit dem was in der CPU passiert.
Bei der Bildgenerierungsapp wird anscheinend StableDiffusion eingesetzt. StableDiffusion kann nicht nur auf MacOS sondern unter anderen Betriebsystemen eingesetzt werden. Es benutzt aber deshalb nur CPU und GPU für die Verwendung des KI-Modells. Das erklärt warum die Neural Engine bei 0% bleibt. Sie wird nicht eingesetzt, weil die zugehörige API im Programm nicht benutzt wird. Das ist also kein Fehler in den Mess-Programmen. Bei der Textgenerierung wird es der gleiche Effekt sein. Es wird dort vermutlich auch ein KI-Modell verwendet, was nicht auf Apple Silicon spezialisiert ist. Nicht desto trotz sind MacBooks sehr gut für KI-Benutzung. Der Hauptgrund ist, dass durch die gemeinsame Nutzung des Arbeitsspeichers für CPU und GPU größere Modell geladen werden können. Bei einem Windows-Laptop muss das Modell in den Speicher der GPU geladen werden. Hier gibt es wenig mobile Grafikkarten die mehr als 16 GB Speicher besitzen. MacBooks mit mehr als 16 GB Arbeitsspeicher gibt es schon. Für LLMs ist auch lmstudio.ai als Programm zu empfehlen. Hier mit können alle OpenSource-LLMs von Huggingface heruntergeladen werden und mit Ihnen gechattet werden. Llama2 von Meta ist darüber z.B. verfügbar. Die Modelle stehen in verschiedenen Größen zur Verfügung. Da sieht man dann was es bedeutet, wenn man mehr Arbeitsspeicher hat. Es können größere Modelle geladen werden, die zu besseren Ergebnissen führen. Prinzipiell zeigt das Video, daß man mit MacBooks lokal KI-Modelle betreiben kann und zwar mit allen Apple Silicon Versionen M1, M2, und M3. Mehr wurde in der Überschrift nicht versprochen, von daher Daumen hoch.
hallo Michi
ich habe seit 3 Wochen den Mac mini M2 Pro 16 GB 512 SSD rennt super komme von Mac mini 2014 ( GB 1 TB Ausgedacht 512 SSD
Ich habe ein Macbook Pro m3 Pro mit 18GB RAM. Bin per Zufall auf dieses Video gestossen und werde es gleich versuchen. Ansonsten wirds hauptsächlich zum Programmieren genutzt
Langweilig...leider
Was Neid bei Langweiler wie dich bewirkt „normal“ ist❣️😂😂😂
@@JoJo-nd1xi ????... hmmm