Nur kurz als Hinweis. Hab gerade nen 3 Minuten Song auf meinem MacPro M1 Max durchgefüht. War in 3 Minuten durch. Ich würde vielleicht mal nacher deinen Song hernehmen und das mal auf meinem M1 Max MacBook und auf dem Mac Studi M2 Ultra ausprobieren. Weil es ist schon interessant, wie ich finde. Aber so grundlegend würde ich frech behaupten, das Apple Air halt eher so Casual Spielzeug Computer sind sie man mal für die Uni nimmt oder zum Surfen aber halt nicht für "Pro" Software. Ich denke es liegt weniger an der Optimierung für arm sondern tatsächlich einfach an der Leistungsklasse.
Naja, über 40 Minuten…? Das ist schon heftig. Im englischsprachigen Steinberg Forum gibts dazu einen interessanten Thread. Das M1 MacBook Air ist ansonsten auch erstaunlich performant!
mir würde noch interessieren in dem vergleich ob appels eigenes tool in logic pro da besser abschneidet und wenn du noch mehr videos machen würdest zu diesem thema würde ich mich über zB de bleed von schlagzeug aufnahmen oder live recordings
Mit einer RTX 4090 reden wir echt über "Sekunden", hatte mich echt vom Hocker gehauen ! Ich hatte am Anfang ca. 2:30 Min gebraucht, wusste vor Monaten gar nichts davon, dann umgestellt auf GPU "15 Sekunden !!!" selbst die besten CPU´s haben keine Chance gegen GPU´s
@@Cubase-Erklaerbaer wenn "die" (wer? nvidia?) eine cpu basteln, ist das die selbe cpu wie von den andern beiden - denn eine cpu ist eine cpu und keine gpu und gpus bekommst du auch von amd und intel und anderen herstellern (nvidia ist der hersteller der großen 3 mit dem kleinsten portfolio und lebt derzeit nur vom ki-hype). auch eine arm cpu (wie sie der obst-hersteller verbaut) ist eine cpu und keine gpu. gute nacht gibts da höchstens vorm schlafen gehen zu hören. ;-)
Aber du hast doch zum Anfang ne Funktion gezeigt womit man was von einem layer in ein anderen verschieben kann. Also ist ja quasi wie bei melodyne. Wenn da was nicht richtig erkannt wird sagt man ja auch nicht das till ist doof sondern wird es editieren müssen. So ist das hier dann auch. Klar immer wirds nicht gehen aber in einigen spüren die du hattest schon
Du hast damit natürlich recht. Ich wollte nur betonen, dass es im Werbetext und Werbevideos immer alles total supi funktioniert, in der Realität aber oft nicht. Und wenn Bläser Erkennung jetzt das neue Ding ist, dann sollte wenigstens das auch wirklich funktionieren…
Tolles Video und bestätigt auch meinen Eindruck. Obwohl es hörbare Fortschritte gibt, bleibt alles doch sehr hinter meinen Erwartungen zurück. Dass da theoretisch mehr gehen würde, zeigt uns ja die Software, mit der Peter Jackson unfassbare Details aus ziemlich gammeligen Raummikroaufnahmen und auch alten 2-Spur-Mixen der Beatles herausholen konnte. Aber bis wir Consumer und Halbprofis das auf den Gabentisch bekommen, hab ich wohl die Rente durch.
Ich habe mit gleich an den erstem Tag den Update geholt. Gegenüber 10 Pro hat es mir keinen „Wau“ Effekt gegeben. Leider … Bis jetzt zweifle ob das 80 Euro Wert gewesen war. Vor allem Back Vocals lassen sich sehr schlecht entmischen bis gar nicht.
Ziemlich arrogantes Video. Wenn in einem schlechten Mix, (wie diesem hier) bestimmte Elemente sich gegenseitig maskieren, dann wird's auch nicht mehr perfekt auseinander zu dividieren sein. Dass das Trompetensolo im falschen Stem landet ist mit wenig Aufwand behebbar - transfer tool. Dass man bei solchen Prozessen etwas händisch nacharbeiten muss ist klar. Wenn man z.B. die Unmixed Layer in die einzelnen Komponenten (transient, tonal, noise) zerlegt, kann man diese einem layer zuweisen. .z:b. Transienten zur Gitarre, Tonal zum Klavier, noise zu den drums. Manchmal ist es auch hilfreich für manche Stems die L/R Kanäle getrennt zu verarbeiten, wie zB. bei zwei Hard-gepannten Gitarren. Mit so einer Nachbearbeitung kann man das Ergebnis verbessern. Das Marketing ist was es ist, das Produkt ist das beste am Markt, und die Verbesserungen gegenüber V10 sind deutlich, vor allem im Workflow. Das ist ja auch nicht unwesentlich.
Zum Glück gibt es so Profis wie dich! Das der Unsinn mit der Trompete leicht zu beheben ist, ist mir bewusst, interessiert mich aber nicht. Es ist grottenschlecht wenn die Trompete im Gesang landet! Schön wenn du dein lieblings Tool so eifrig verteidigst… Eine Frage hätte ich noch, welcher Kunde zahlt dir den zeitlichen Aufwand?
Ich habe mittlerweile zwei sehr ausführliche Videos zu SpectraLayers 11 auf meinem Kanal veröffentlicht. Eines zur allgemeinen Bedienung/Oberfläche und eines über alle Werkzeuge. Weitere Videos sind in Planung. Hab aber aktuell leider nicht die Zeit schneller mehr Videos zu machen. Prinzipiell bleibe ich übrigens bei meiner Meinung, dass die Marketingversprechungen weit vom realen Ergebnis abweichen, zumindest wenn man den zeitlichen Aufwand im vertretbaren Rahmen hält! Wenn man für sich selber mit SL rumbastelt mag das ja noch gehen, wenn ich den Zeitaufwand aber einem Kunden berechnen würde... In dem musikalischem Kontext in dem ich mich bewege (handgemachte Rock Musik) brauche ich wenn überhaupt die Reparatur Funktionen in SL, Sounddesign ist nicht mein Thema. Bisher erreiche ich mit RX das jeweils angestrebte Ziel zuverlässiger und auch schneller.
Das hast du meeega erklärt.
Vielen Dank!
Wieder ein tolles Video. Ich würde mich über weiter Layers Video freuen👍👍
Dankeschön!
Nur kurz als Hinweis. Hab gerade nen 3 Minuten Song auf meinem MacPro M1 Max durchgefüht. War in 3 Minuten durch. Ich würde vielleicht mal nacher deinen Song hernehmen und das mal auf meinem M1 Max MacBook und auf dem Mac Studi M2 Ultra ausprobieren. Weil es ist schon interessant, wie ich finde. Aber so grundlegend würde ich frech behaupten, das Apple Air halt eher so Casual Spielzeug Computer sind sie man mal für die Uni nimmt oder zum Surfen aber halt nicht für "Pro" Software. Ich denke es liegt weniger an der Optimierung für arm sondern tatsächlich einfach an der Leistungsklasse.
Naja, über 40 Minuten…?
Das ist schon heftig. Im englischsprachigen Steinberg Forum gibts dazu einen interessanten Thread.
Das M1 MacBook Air ist ansonsten auch erstaunlich performant!
mir würde noch interessieren in dem vergleich ob appels eigenes tool in logic pro da besser abschneidet
und wenn du noch mehr videos machen würdest zu diesem thema würde ich mich über zB de bleed von schlagzeug aufnahmen oder live recordings
Gute Idee!
Cool mit dem Vergleich. Ist auch meine Meinung.
Vielen dank Tim
Mit einer RTX 4090 reden wir echt über "Sekunden", hatte mich echt vom Hocker gehauen ! Ich hatte am Anfang ca. 2:30 Min gebraucht, wusste vor Monaten gar nichts davon, dann umgestellt auf GPU "15 Sekunden !!!" selbst die besten CPU´s haben keine Chance gegen GPU´s
Das ist wirklich erstaunlich was die Dinger können…
Wenn die mal ne CPU basteln, dann gute Nacht Intel/AMD
@@Cubase-Erklaerbaer wenn "die" (wer? nvidia?) eine cpu basteln, ist das die selbe cpu wie von den andern beiden - denn eine cpu ist eine cpu und keine gpu und gpus bekommst du auch von amd und intel und anderen herstellern (nvidia ist der hersteller der großen 3 mit dem kleinsten portfolio und lebt derzeit nur vom ki-hype). auch eine arm cpu (wie sie der obst-hersteller verbaut) ist eine cpu und keine gpu. gute nacht gibts da höchstens vorm schlafen gehen zu hören. ;-)
Ja Video zu 11er Version wäre fein
👍🏼
Super Vergleich!
Danke für das Lob!
Aber du hast doch zum Anfang ne Funktion gezeigt womit man was von einem layer in ein anderen verschieben kann. Also ist ja quasi wie bei melodyne. Wenn da was nicht richtig erkannt wird sagt man ja auch nicht das till ist doof sondern wird es editieren müssen. So ist das hier dann auch. Klar immer wirds nicht gehen aber in einigen spüren die du hattest schon
Du hast damit natürlich recht. Ich wollte nur betonen, dass es im Werbetext und Werbevideos immer alles total supi funktioniert, in der Realität aber oft nicht.
Und wenn Bläser Erkennung jetzt das neue Ding ist, dann sollte wenigstens das auch wirklich funktionieren…
Tolles Video und bestätigt auch meinen Eindruck. Obwohl es hörbare Fortschritte gibt, bleibt alles doch sehr hinter meinen Erwartungen zurück. Dass da theoretisch mehr gehen würde, zeigt uns ja die Software, mit der Peter Jackson unfassbare Details aus ziemlich gammeligen Raummikroaufnahmen und auch alten 2-Spur-Mixen der Beatles herausholen konnte. Aber bis wir Consumer und Halbprofis das auf den Gabentisch bekommen, hab ich wohl die Rente durch.
Genau so ist es!
Super Video, gerne mehr zum SpectraLayers
Ist notiert!
Tolles Video, das geile bei deinem Kanal ist im Vergleich zu anderen das du immer deine persönliche Meinung sagst und man so besser Lernen kann.
Für dich doch immer gern 👍🏼🍻
0:15 bis dahin schon mal extrem albern… 😏mal sehn wie’s noch wird…
…Spoiler, bleibt so!
@@Cubase-Erklaerbaer is' mir klar... ;)
Ich habe mit gleich an den erstem Tag den Update geholt. Gegenüber 10 Pro hat es mir keinen „Wau“ Effekt gegeben. Leider … Bis jetzt zweifle ob das 80 Euro Wert gewesen war. Vor allem Back Vocals lassen sich sehr schlecht entmischen bis gar nicht.
Ich hoffe, dass ein baldiges erstes Wartungsupdate Besserung bringt!
Ziemlich arrogantes Video. Wenn in einem schlechten Mix, (wie diesem hier) bestimmte Elemente sich gegenseitig maskieren, dann wird's auch nicht mehr perfekt auseinander zu dividieren sein. Dass das Trompetensolo im falschen Stem landet ist mit wenig Aufwand behebbar - transfer tool. Dass man bei solchen Prozessen etwas händisch nacharbeiten muss ist klar. Wenn man z.B. die Unmixed Layer in die einzelnen Komponenten (transient, tonal, noise) zerlegt, kann man diese einem layer zuweisen. .z:b. Transienten zur Gitarre, Tonal zum Klavier, noise zu den drums. Manchmal ist es auch hilfreich für manche Stems die L/R Kanäle getrennt zu verarbeiten, wie zB. bei zwei Hard-gepannten Gitarren. Mit so einer Nachbearbeitung kann man das Ergebnis verbessern. Das Marketing ist was es ist, das Produkt ist das beste am Markt, und die Verbesserungen gegenüber V10 sind deutlich, vor allem im Workflow. Das ist ja auch nicht unwesentlich.
Zum Glück gibt es so Profis wie dich!
Das der Unsinn mit der Trompete leicht zu beheben ist, ist mir bewusst, interessiert mich aber nicht.
Es ist grottenschlecht wenn die Trompete im Gesang landet!
Schön wenn du dein lieblings Tool so eifrig verteidigst…
Eine Frage hätte ich noch, welcher Kunde zahlt dir den zeitlichen Aufwand?
Gerade zu diesen Verfeinerungsmöglichkeiten würde ich mir weitere Videos wünschen (nachdem die Sprücheklopfer jetzt genügend gebasht worden sind).
Ich habe mittlerweile zwei sehr ausführliche Videos zu SpectraLayers 11 auf meinem Kanal veröffentlicht. Eines zur allgemeinen Bedienung/Oberfläche und eines über alle Werkzeuge. Weitere Videos sind in Planung. Hab aber aktuell leider nicht die Zeit schneller mehr Videos zu machen.
Prinzipiell bleibe ich übrigens bei meiner Meinung, dass die Marketingversprechungen weit vom realen Ergebnis abweichen, zumindest wenn man den zeitlichen Aufwand im vertretbaren Rahmen hält!
Wenn man für sich selber mit SL rumbastelt mag das ja noch gehen, wenn ich den Zeitaufwand aber einem Kunden berechnen würde...
In dem musikalischem Kontext in dem ich mich bewege (handgemachte Rock Musik) brauche ich wenn überhaupt die Reparatur Funktionen in SL, Sounddesign ist nicht mein Thema. Bisher erreiche ich mit RX das jeweils angestrebte Ziel zuverlässiger und auch schneller.