Endlich mal eine vernünftige Erklärung zu dem arm_64bit! Das hab ich woanders schon so oft als blinde Anleitung "So machst du dein Raspberrypi os 64 Bit" gesehen ohne zu erklären was es genau macht...
Danke. Vor allem interessiert mich wie man ein bestehendes 32bit auf 64 upgraded. Habe kürzlich erst erfolgreich von buster auf bullseye 32bit upgrgraded.
Gerne :) Der Kernel lässt sich wie im Beitrag beschrieben mit dem config.txt Parameter auf 64 Bit migrieren. Beim Betriebssystem selbst (also alles außer dem Kernel) wird es schwieriger. Im Grunde migrierst du dabei alle Pakete von 32 Bit auf 64 Bit, nennt sich CrossGrading. Dazu gibt es gemischte Erfahrungen, meinem Eindruck nach ist das recht fehleranfällig. Und eine gewisse Bastellei ist bei so was natürlich immer dabei, wie mit einem In-Place Upgrade. Ich persönlich würde lieber sauber neu installieren. Wenn die Einrichtung zu aufwändig/komplex ist, ggf. über Ansible oder zumindest Shell-Skripte nachdenken. Als positiven Nebeneffekt hat man dort auch gleich alles dokumentiert. Falls du dennoch mit CrossGrading eine Migration versuchen möchtest, dann würde ich dringend zu einer Sicherung raten. Zumindest von den wichtigen Anwendungsdaten. Ein Image macht wie im vorherigen Beitrag erwähnt natürlich ebenfalls Sinn, um bei größeren Problemen möglichst einfach wieder zurück wechseln zu können. u-labs.de/forum/raspberry-pi-266/neu-64-bit-raspberry-pi-wurde-in-der-finalen-version-veroeffentlicht-das-solltest-du-jetzt-wissen-40746?p=445974&viewfull=1#post445974
@@ULabs Danke für die ausführliche Antwort. Da meine Installation sehr Komplex ist mit viel Konfiguration werde ich wohl vorerst davon absehen. Dokumentiert habe ich zwar alles aber so lange es nicht unbedingt notwendig ist warte ich ab. Hat es irgend einen Nachteil wenn man nur den Kernel auf 64bit umstellt?
Habe seit ca 4 Monaten auf mehreren Pi's die 64 bit beta Version drauf. Lief eigentlich gut. Muss ich jetzt neu installieren oder wird durch die Updates aus der Beta die Alpha Version? 🤔
Eine Neuinstallation ist nicht notwendig, die Pakete werden i.d.R. durch [code]sudo apt update sudo apt upgrade[/code] aktualisiert. Empfohlen wird jedoch full-upgrade. Im Gegensatz zu "upgrade" entfernt es alte Pakete, wenn dies für das Upgrade notwendig ist (also etwas destruktiver): [code]sudo apt update sudo apt full-upgrade[/code] Wie immer vor solchen und ähnlichen Aktionen ist zu empfehlen, eine Sicherung von zumindest den ganzen Daten anzulegen. Zusätzlich empfiehlt sich ein komplettes Image, dass man im Fehlerfall unter Umständen einfacher/schneller zurück spielen kann.
@@ULabs Super. Dann hatte ich ja alles richtig gemacht. Ich hatte mit Timeshift ein Snapshot mit versteckten Dateien im ./home und ./root Verzeichnis gemacht und dann "full-upgrade". Images des System habe ich zusätzlich . Das ein "full-upgrade " wenn nötig Pakete entfernt war mir so nicht klar. Dachte es erzwingt nur die Updates der Pakete auch bei evtl. Inkompatibilitäten wenn Pakete zurückgehalten werden. Wieder was gelernt. Kenne das von Ubuntu bzw. Linux Mint( apt dist-upgrade). Vielen dank für deine ausführliche Antwort und deinen sehr informativen Videos.
Das kommt wohl drauf an, von welchen Fehlern zu sprichst. Ein Problem in z.B. einem Paket verschwindet ja nicht automatisch durch den Wechsel auf 64 Bit, sofern es sich nicht um beispielsweise eine Limitierung der 32 Bit Plattform handelt. Es kann jedoch sein, dass manche Programme in der 64 Bit Version etwas schneller laufen, da sie mehr für ARM64 optimiert wurden. Pauschal lässt sich das nicht sagen. Je nach Szenario wird es sicher auch Konstellationen geben, in denen das genau anders herum ist - also Probleme mit 64 Bit, die zuvor in der 32 Bit Version nicht auftraten. Die Sorge davor war ja seitens der Raspberry Pi Organisation der Hauptgrund, weshalb sie mit der 64 Bit Version recht lange gezögert haben.
@@ULabs Als Beispiel: Der Desktop-Pager funktioniert ja seit Bullseye nicht mehr - der Grund liegt daran, dass bei Buster noch OpenBox als Window-Manager verwendet wurde, seit Bullseye kommt aber Mutter zum Einsatz. Und da der Desktop-Pager zwingend OpenBox voraussetzt, ist er nicht verwendbar. Aktiviert man ihn, kommt es zu unschönen Seiteneffekten = nicht schön. Jetzt hätte ich gedacht, dass man eine Alternative zum Desktop-Pager verwendet, ist aber - leider - nicht der Fall. Anderes Beispiel: Beim Scrollen in Dokumenten kommt es unter Bullseye immer wieder vor, dass das untere Drittel des Monitorbildes Grafikfehler aufweist, was mich anfangs ziemlich hat staunen lassen. Ob dieser Fehler in der 64-bit Version immer noch vorhanden ist, kann ich nicht sagen. Ein "Fehler" scheint zumindest ausgeräumt: die massenweise auftretenden Dropped-Frames unter RUclips. In der 32-bit Version muss ich bei 480p auf 25 bis 33% aller Frames verzichten, was bei Bewegungen im Video für ein extremes Ruckeln sorgt; das scheint bei der 64-bit Version nicht mehr so ausgeprägt zu sein. Hier gibt es unter 1% Dropped-Frames bei gleichen Einstellungen. Am Meisten stört mich eben der Wegfall des Desktop-Pagers .... nur verstehe ich nicht, weswegen dieser standardmäßig im Image aufgenommen wurde, wenn er sowieso nicht funktioniert.
Mag die 64 Bit version. Allerdings habe ich Chromium auf 32 Bit downgegradet wegen den DRM Komponenten (Netflix) welche nur hierfür existieren. Man kann dann aber wenn man will Chromium noch als 64 Bit installieren über Flatpak wenn man will. Flatpak ist auch im wesentlichen nur noch 64 Bit.
Hi, du kannst gerne in der Community ein Thema erstellen: u-labs.de/forum/raspberry-pi-266 Wenn du darin dein Problem genauer beschreibst, kann dir sicher geholfen werden. Siehe dazu auch den folgenden Leitfaden: u-labs.de/forum/raspberry-pi-266/mindestangaben-fuer-hilfe-supportanfragen-zum-raspberry-pi-so-kann-dir-besser-geholfen-werden-40647
Du kannst im Forum u-labs.de/forum posten. Dort antworte ich regelmäßig auf Themen, zu denen ich etwas beitragen kann. Sollte das mal nicht der Fall sein, dann können dir vielleicht andere Mitglieder helfen :)
An einer Stelle bin ich aber nicht so ganz deiner Meinung. Die Stelle wo du meinst, dass im Desktopbereich es sinnvoll ist auf nur noch 64 Bit umzustellen. Linux eignet sich ja gerade im Desktopbereich sehr gut dazu auch ältere Hardware noch wieder gut nutzen zu können und das halt auch mit einem aktuellen und stabilen OS. Das würde dann natürlich wegfallen, wenn es nur noch auf 64 Bit die entsprechenden Distributionen gibt.
Naja, die 64-Bit Architektur im x86-Bereich wurde vor über 20 Jahren vorgestellt. Klar, das brauchte etwas um sich durchzusetzen und es gab eine Zeit lang einen Parallelbetrieb. Über die Jahre ist das meiner Erfahrung nach mittlerweile ziemlich selten geworden. Der letzte der bei mir landete war ein ThinkPad vor mehreren Jahren. Damals schon locker 10 Jahre alt. Lief zwar noch, aber der hatte mit 720p und einem viel zu dunklen Bildschirm ganz andere Probleme. Ich befürworte eine möglichst lange Nutzungsdauer. Aber in den Dimensionen kommt man v.a. bei Laptops irgendwann auch an eine Grenze, wo die Geräte im Alltag nur noch deutlich eingeschränkt sinnvoll nutzbar sind. Nur weil einige Distributionen 32 Bit eingestellt haben, heißt das ja auch längst nicht, dass jene die noch ein entsprechendes System haben, nun kein Linux mehr darauf nutzen können. Mit Debian und OpenSuse gibt es beispielsweise zwei bekannte Urgesteine, die in der Hinsicht von keiner anderen Distribution abhängig sind und bislang keine Pläne haben, 32 Bit aufzugeben. Dazu kommen Distributionen, die sich speziell an diese Nische von deutlich älteren PCs richten wie Tiny Core Linux. Meine Aussage bezieht sich daher auf den Hintergedanke: Warum sollten zig Distributionen sich den Mehraufwand machen, zusätzlich 32 Bit Pakete zu pflegen, die von der Mehrheit gar nicht mehr genutzt werden? Da finde ich es sinnvoller, diese Nische einer Hand voll Distributionen zu überlassen. Die anderen können ihre Ressourcen auf Dinge konzentrieren von denen mehr Menschen profitieren. Wer 2023 mit seinem Ubuntu 18 LTS keine Updates ohne Aufpreis mehr bekommt, wechselt z.B. zu Debian. Gerade Debian ist für seine Vielzahl an Architekturen bekannt. Da sind sicher einige dabei, die weniger genutzt werden als i386. Ich würde mir nur ansatzweise so viel Nachhaltigkeit von Microsoft wünschen. Die haben mit Windows 11 ja nicht nur die 32 Bit Version eingestellt. Sondern unterstützen grundsätzlich keine Prozessoren älter als 2017. Plus weitere Anforderungen wie TPM 2.0. Die technische Begründung dafür halte ich gelinde gesagt für sehr dünn. Und da fällt bei weitem keine wirklich alte Hardware raus, sondern etliche gut ausgestattete 64 Bit PCs. Leistungstechnisch würde Windows 11 auf vielen wohl problemlos laufen, eben so wie diverse Linux-Distributionen.
@@ULabs Ja OK, aber ich habe hier durchaus noch zwei Laptops, die nur 32 Bit haben, und auch einen Rechner, bzw. ein paar Kumpels haben auch noch 32 Bit Rechner, die sie dann zu Hause als Server laufen lassen, zum Beispiel als Mediaserver, was recht gut funktioniert mit dem MiniDLNA usw. Klar, es wird weniger. Viele wollen halt auch immer die neueste Technik. Aber zum Beispiel für einen Medienserver da einen neuen Rechner aufziehen, nur für Streaming halt, solange die alte Hardware funktioniert ist da doch alles gut. Und auch meine Laptops, gut, ich nehme die für unterwegs beim Camping oder so, falls die dann Schaden nehmen ist nicht ganz so wild. Aber dafür dann meinen Alienware zu nehmen wäre schon ärgerlich, wenn dann etwas passiert. Aber gut, es wird ja nicht von heute auf morgen passieren, dass da alle auf 64 Bit umstellen. Bisschen Zeit bleibt ja hoffentlich noch.
@@CreepyCyborg Als Server würde ich derart alte Geräte nicht nutzen. Selbst wenn die Leistung noch ausreicht, sind die in der Regel nicht besonders effizient und haben dementsprechend ein schlechtes Verhältnis von Betriebskosten zu Leistung. Spätestens im 24/7 Betrieb wird das schnell teuer. Da muss man bei weitem nicht zur 32 Bit Architektur zurück. Ich habe hier ältere Testserver (alle 64 Bit), bei denen das genau so ist. Und dieser Punkt verschärft sich aufgrund der seit Jahrzehnten steigenden Preise stetig. Gerade im Serverbereich geht es schon um mehr als nur "Hauptsache läuft irgendwie". Außer wir reden vom Spielwiesen, die hier und da mal die eine oder andere Stunde laufen. Da ist das natürlich weniger problematisch. Eben so Desktops, die nur wenig in Betrieb sind. Wenn du zu denen gehörst die für 32 Bit Laptops noch einen sinnvollen Einsatzzweck haben, ist das doch super und ökologisch meist besser. Alternativen gibt es wie gesagt noch genug, das wird sicher noch ein paar Jahre ohne größere Einschränkungen laufen. Und wenn sich das ändert: 2025 ist Windows 10 EOL. Um den Dreh rum wird es wohl einige günstige gebrauchte 64 Bit PCs geben, wenn MS an ihren strikten Hardwareanforderungen von Windows 11 festhält.
@@ULabs Was heißt an den strikten Hardwareanforderungen festhalten? Die Spezifikationen, die Windows 11 verlangt, gibt es eigentlich schon seit, ich glaube 7 oder 8 Jahren. Also seit mindestens 6 Jahren sollte es bei den Hardwareherstellern der entsprechende Standard sein. Also so wirklich plötzlich kommen die Anforderungen nicht.
@@CreepyCyborg Grade hast du noch kritisiert, dass es ja doof sei, wenn über 20 Jahre nach x64 manche Linux-Distributionen die i386-Architektur nicht mehr unterstützen. 6-8 Jahre alte Geräte obsolet zu machen ist also plötzlich okay? Wobei nicht mal das der Maßstab ist, da das TPM 2.0 auf das du vmtl. abzielst nur eines von mehreren Problemen ist. Parallel unterstützt MS nur noch CPUs ab 2017. Es gibt also einige Leute, die brav ein Board mit TPM gekauft haben und keinen offiziellen Support für Windows 11 erhalten, weil ihr Prozessor ein paar Monate oder Jahre zu alt ist. Wenn das für dich kein Problem ist, hätte Linux die Unterstützung für i386 ja bereits vor 15 Jahren raus werfen können... Sehe ich anders. Was MS mit Windows 11 macht, finde ich das aus einer Reihe von Gründen noch weitaus schlimmer: 1. Drängen die dich nicht nur zu 64 Bit, sondern eben auch zu TPM 2.0. Verglichen mit 64 Bit ist TPM auf technischer Ebene wohl weitaus umstrittener und wurde daher kaum verwendet. 2. Brauchen oder wollen viele Nutzer gar kein TPM. Können die es weiterhin im Bios/Uefi deaktivieren? Ab Windows 11 haben Windows-Nutzer diese Freiheit nicht mehr. Viel besser: TPMs können Geräte bricken. 3. Gibt es keine echte technische Notwendigkeit. Windows 11 funktioniert mit Hacks wunderbar ohne TPM und ohne unterstützten Prozessor, wie schon bei den Vorgängern. Könnte man optional machen, aber macht man nicht. MS findet, dass jeder ein TPM 2.0 haben soll - 4. Die Auswirkungen sind viel massiver. [url=news.microsoft.com/bythenumbers/en/windowsdevices]Laut MS eigener Infoseite[/url] verwenden 1,3 Milliarden (2018 waren es interessanterweise 1,5 - Sind das die frühen Windows 11 Wechsler?) Windows 10. Wenn nur ein Bruchteil davon seinen Rechner wegwirft um ein neues Windows 11 Gerät zu kaufen, ist das eine riesige Menge an (unnötigem) Elektroschrott. Man kann sich darüber streiten, wie groß dieser Bruchteil ist. Aber es werden über 0% sein, so weit sind wir uns hoffentlich einig. 5. Und da ist schon alleine der Effekt der Ankündigung nicht mit eingerechnet. In Foren wird teils jetzt schon vom Kauf gebrauchter Win10 Hardware abgeraten, weil einiges davon nicht mit Windows 11 kompatibel ist. Welche Folgen das für den Gebrauchtmarkt und damit die Umwelt hat, kann man sich wohl denken. 6. Im Gegensatz zu Linux kannst du nicht einfach eine andere Distri nehmen. Die einzige Alternative für Menschen die nicht zu Linux wechseln können oder wollen ist Windows 10. Damit gibt es noch maximal bis 2025 Updates. 7. Wenn genügend Nutzer das schlucken und sich neue Geräte kaufen, womit wird es weiter gehen? TPM 3.0 für Windows 12, dass es - wie schon Windows 11 - gar nicht geben wird? Oder muss man direkt ein zertifiziertes Surface kaufen, dass Microsoft vorher noch mal extra zugenagelt hat, damit auch ja keiner "potenziell böswillige Software" installiert? UEFI mit Secure Boot ist ja seit Windows 8 bereits Standard. Bringt zwar mehr Komplexität ohne richtigen Mehrwert, aber MS muss jetzt die Bootloader signieren... Super! Immerhin konnte man den Secure Boot Teil noch nachträglich abschalten. Wie war das noch gleich mit TPM bei Windows 11, wo ist da der Ausschalter?
Endlich mal eine vernünftige Erklärung zu dem arm_64bit! Das hab ich woanders schon so oft als blinde Anleitung "So machst du dein Raspberrypi os 64 Bit" gesehen ohne zu erklären was es genau macht...
Abonniert! sehr gut erklärt und selbst ich lerne noch was😁
Habe das Pi OS mit 64 bit installiert. - Es läuft super, keine Probleme.
Cool, das ist schön zu hören :)
Gut erklärt, alles bingo 😁
Thank you.
Danke. Vor allem interessiert mich wie man ein bestehendes 32bit auf 64 upgraded. Habe kürzlich erst erfolgreich von buster auf bullseye 32bit upgrgraded.
Gerne :) Der Kernel lässt sich wie im Beitrag beschrieben mit dem config.txt Parameter auf 64 Bit migrieren. Beim Betriebssystem selbst (also alles außer dem Kernel) wird es schwieriger. Im Grunde migrierst du dabei alle Pakete von 32 Bit auf 64 Bit, nennt sich CrossGrading. Dazu gibt es gemischte Erfahrungen, meinem Eindruck nach ist das recht fehleranfällig. Und eine gewisse Bastellei ist bei so was natürlich immer dabei, wie mit einem In-Place Upgrade. Ich persönlich würde lieber sauber neu installieren. Wenn die Einrichtung zu aufwändig/komplex ist, ggf. über Ansible oder zumindest Shell-Skripte nachdenken. Als positiven Nebeneffekt hat man dort auch gleich alles dokumentiert.
Falls du dennoch mit CrossGrading eine Migration versuchen möchtest, dann würde ich dringend zu einer Sicherung raten. Zumindest von den wichtigen Anwendungsdaten. Ein Image macht wie im vorherigen Beitrag erwähnt natürlich ebenfalls Sinn, um bei größeren Problemen möglichst einfach wieder zurück wechseln zu können.
u-labs.de/forum/raspberry-pi-266/neu-64-bit-raspberry-pi-wurde-in-der-finalen-version-veroeffentlicht-das-solltest-du-jetzt-wissen-40746?p=445974&viewfull=1#post445974
@@ULabs Danke für die ausführliche Antwort. Da meine Installation sehr Komplex ist mit viel Konfiguration werde ich wohl vorerst davon absehen. Dokumentiert habe ich zwar alles aber so lange es nicht unbedingt notwendig ist warte ich ab. Hat es irgend einen Nachteil wenn man nur den Kernel auf 64bit umstellt?
Habe seit ca 4 Monaten auf mehreren Pi's die 64 bit beta Version drauf. Lief eigentlich gut. Muss ich jetzt neu installieren oder wird durch die Updates aus der Beta die Alpha Version? 🤔
Eine Neuinstallation ist nicht notwendig, die Pakete werden i.d.R. durch
[code]sudo apt update
sudo apt upgrade[/code]
aktualisiert. Empfohlen wird jedoch full-upgrade. Im Gegensatz zu "upgrade" entfernt es alte Pakete, wenn dies für das Upgrade notwendig ist (also etwas destruktiver):
[code]sudo apt update
sudo apt full-upgrade[/code]
Wie immer vor solchen und ähnlichen Aktionen ist zu empfehlen, eine Sicherung von zumindest den ganzen Daten anzulegen. Zusätzlich empfiehlt sich ein komplettes Image, dass man im Fehlerfall unter Umständen einfacher/schneller zurück spielen kann.
@@ULabs Super. Dann hatte ich ja alles richtig gemacht. Ich hatte mit Timeshift ein Snapshot mit versteckten Dateien im ./home und ./root Verzeichnis gemacht und dann "full-upgrade". Images des System habe ich zusätzlich . Das ein "full-upgrade " wenn nötig Pakete entfernt war mir so nicht klar. Dachte es erzwingt nur die Updates der Pakete auch bei evtl. Inkompatibilitäten wenn Pakete zurückgehalten werden.
Wieder was gelernt.
Kenne das von Ubuntu bzw. Linux Mint( apt dist-upgrade).
Vielen dank für deine ausführliche Antwort und deinen sehr informativen Videos.
Interessant wäre auch, ob die Fehler der 32-bit Version hier nicht mehr auftauchen ....
Das kommt wohl drauf an, von welchen Fehlern zu sprichst. Ein Problem in z.B. einem Paket verschwindet ja nicht automatisch durch den Wechsel auf 64 Bit, sofern es sich nicht um beispielsweise eine Limitierung der 32 Bit Plattform handelt. Es kann jedoch sein, dass manche Programme in der 64 Bit Version etwas schneller laufen, da sie mehr für ARM64 optimiert wurden. Pauschal lässt sich das nicht sagen. Je nach Szenario wird es sicher auch Konstellationen geben, in denen das genau anders herum ist - also Probleme mit 64 Bit, die zuvor in der 32 Bit Version nicht auftraten. Die Sorge davor war ja seitens der Raspberry Pi Organisation der Hauptgrund, weshalb sie mit der 64 Bit Version recht lange gezögert haben.
@@ULabs Als Beispiel: Der Desktop-Pager funktioniert ja seit Bullseye nicht mehr - der Grund liegt daran, dass bei Buster noch OpenBox als Window-Manager verwendet wurde, seit Bullseye kommt aber Mutter zum Einsatz. Und da der Desktop-Pager zwingend OpenBox voraussetzt, ist er nicht verwendbar. Aktiviert man ihn, kommt es zu unschönen Seiteneffekten = nicht schön. Jetzt hätte ich gedacht, dass man eine Alternative zum Desktop-Pager verwendet, ist aber - leider - nicht der Fall.
Anderes Beispiel: Beim Scrollen in Dokumenten kommt es unter Bullseye immer wieder vor, dass das untere Drittel des Monitorbildes Grafikfehler aufweist, was mich anfangs ziemlich hat staunen lassen. Ob dieser Fehler in der 64-bit Version immer noch vorhanden ist, kann ich nicht sagen.
Ein "Fehler" scheint zumindest ausgeräumt: die massenweise auftretenden Dropped-Frames unter RUclips. In der 32-bit Version muss ich bei 480p auf 25 bis 33% aller Frames verzichten, was bei Bewegungen im Video für ein extremes Ruckeln sorgt; das scheint bei der 64-bit Version nicht mehr so ausgeprägt zu sein. Hier gibt es unter 1% Dropped-Frames bei gleichen Einstellungen.
Am Meisten stört mich eben der Wegfall des Desktop-Pagers .... nur verstehe ich nicht, weswegen dieser standardmäßig im Image aufgenommen wurde, wenn er sowieso nicht funktioniert.
Mag die 64 Bit version. Allerdings habe ich Chromium auf 32 Bit downgegradet wegen den DRM Komponenten (Netflix) welche nur hierfür existieren. Man kann dann aber wenn man will Chromium noch als 64 Bit installieren über Flatpak wenn man will. Flatpak ist auch im wesentlichen nur noch 64 Bit.
ich habe Probleme mein pi und Programme zu installieren
Hi, du kannst gerne in der Community ein Thema erstellen: u-labs.de/forum/raspberry-pi-266
Wenn du darin dein Problem genauer beschreibst, kann dir sicher geholfen werden. Siehe dazu auch den folgenden Leitfaden: u-labs.de/forum/raspberry-pi-266/mindestangaben-fuer-hilfe-supportanfragen-zum-raspberry-pi-so-kann-dir-besser-geholfen-werden-40647
moin kann mann mit dir mal sprechen über discord oder so ??
Du kannst im Forum u-labs.de/forum posten. Dort antworte ich regelmäßig auf Themen, zu denen ich etwas beitragen kann. Sollte das mal nicht der Fall sein, dann können dir vielleicht andere Mitglieder helfen :)
An einer Stelle bin ich aber nicht so ganz deiner Meinung. Die Stelle wo du meinst, dass im Desktopbereich es sinnvoll ist auf nur noch 64 Bit umzustellen. Linux eignet sich ja gerade im Desktopbereich sehr gut dazu auch ältere Hardware noch wieder gut nutzen zu können und das halt auch mit einem aktuellen und stabilen OS. Das würde dann natürlich wegfallen, wenn es nur noch auf 64 Bit die entsprechenden Distributionen gibt.
Naja, die 64-Bit Architektur im x86-Bereich wurde vor über 20 Jahren vorgestellt. Klar, das brauchte etwas um sich durchzusetzen und es gab eine Zeit lang einen Parallelbetrieb. Über die Jahre ist das meiner Erfahrung nach mittlerweile ziemlich selten geworden. Der letzte der bei mir landete war ein ThinkPad vor mehreren Jahren. Damals schon locker 10 Jahre alt. Lief zwar noch, aber der hatte mit 720p und einem viel zu dunklen Bildschirm ganz andere Probleme. Ich befürworte eine möglichst lange Nutzungsdauer. Aber in den Dimensionen kommt man v.a. bei Laptops irgendwann auch an eine Grenze, wo die Geräte im Alltag nur noch deutlich eingeschränkt sinnvoll nutzbar sind.
Nur weil einige Distributionen 32 Bit eingestellt haben, heißt das ja auch längst nicht, dass jene die noch ein entsprechendes System haben, nun kein Linux mehr darauf nutzen können. Mit Debian und OpenSuse gibt es beispielsweise zwei bekannte Urgesteine, die in der Hinsicht von keiner anderen Distribution abhängig sind und bislang keine Pläne haben, 32 Bit aufzugeben. Dazu kommen Distributionen, die sich speziell an diese Nische von deutlich älteren PCs richten wie Tiny Core Linux.
Meine Aussage bezieht sich daher auf den Hintergedanke: Warum sollten zig Distributionen sich den Mehraufwand machen, zusätzlich 32 Bit Pakete zu pflegen, die von der Mehrheit gar nicht mehr genutzt werden? Da finde ich es sinnvoller, diese Nische einer Hand voll Distributionen zu überlassen. Die anderen können ihre Ressourcen auf Dinge konzentrieren von denen mehr Menschen profitieren. Wer 2023 mit seinem Ubuntu 18 LTS keine Updates ohne Aufpreis mehr bekommt, wechselt z.B. zu Debian. Gerade Debian ist für seine Vielzahl an Architekturen bekannt. Da sind sicher einige dabei, die weniger genutzt werden als i386.
Ich würde mir nur ansatzweise so viel Nachhaltigkeit von Microsoft wünschen. Die haben mit Windows 11 ja nicht nur die 32 Bit Version eingestellt. Sondern unterstützen grundsätzlich keine Prozessoren älter als 2017. Plus weitere Anforderungen wie TPM 2.0. Die technische Begründung dafür halte ich gelinde gesagt für sehr dünn. Und da fällt bei weitem keine wirklich alte Hardware raus, sondern etliche gut ausgestattete 64 Bit PCs. Leistungstechnisch würde Windows 11 auf vielen wohl problemlos laufen, eben so wie diverse Linux-Distributionen.
@@ULabs Ja OK, aber ich habe hier durchaus noch zwei Laptops, die nur 32 Bit haben, und auch einen Rechner, bzw. ein paar Kumpels haben auch noch 32 Bit Rechner, die sie dann zu Hause als Server laufen lassen, zum Beispiel als Mediaserver, was recht gut funktioniert mit dem MiniDLNA usw. Klar, es wird weniger. Viele wollen halt auch immer die neueste Technik. Aber zum Beispiel für einen Medienserver da einen neuen Rechner aufziehen, nur für Streaming halt, solange die alte Hardware funktioniert ist da doch alles gut. Und auch meine Laptops, gut, ich nehme die für unterwegs beim Camping oder so, falls die dann Schaden nehmen ist nicht ganz so wild. Aber dafür dann meinen Alienware zu nehmen wäre schon ärgerlich, wenn dann etwas passiert.
Aber gut, es wird ja nicht von heute auf morgen passieren, dass da alle auf 64 Bit umstellen. Bisschen Zeit bleibt ja hoffentlich noch.
@@CreepyCyborg Als Server würde ich derart alte Geräte nicht nutzen. Selbst wenn die Leistung noch ausreicht, sind die in der Regel nicht besonders effizient und haben dementsprechend ein schlechtes Verhältnis von Betriebskosten zu Leistung. Spätestens im 24/7 Betrieb wird das schnell teuer. Da muss man bei weitem nicht zur 32 Bit Architektur zurück. Ich habe hier ältere Testserver (alle 64 Bit), bei denen das genau so ist. Und dieser Punkt verschärft sich aufgrund der seit Jahrzehnten steigenden Preise stetig. Gerade im Serverbereich geht es schon um mehr als nur "Hauptsache läuft irgendwie". Außer wir reden vom Spielwiesen, die hier und da mal die eine oder andere Stunde laufen. Da ist das natürlich weniger problematisch. Eben so Desktops, die nur wenig in Betrieb sind.
Wenn du zu denen gehörst die für 32 Bit Laptops noch einen sinnvollen Einsatzzweck haben, ist das doch super und ökologisch meist besser. Alternativen gibt es wie gesagt noch genug, das wird sicher noch ein paar Jahre ohne größere Einschränkungen laufen. Und wenn sich das ändert: 2025 ist Windows 10 EOL. Um den Dreh rum wird es wohl einige günstige gebrauchte 64 Bit PCs geben, wenn MS an ihren strikten Hardwareanforderungen von Windows 11 festhält.
@@ULabs Was heißt an den strikten Hardwareanforderungen festhalten? Die Spezifikationen, die Windows 11 verlangt, gibt es eigentlich schon seit, ich glaube 7 oder 8 Jahren. Also seit mindestens 6 Jahren sollte es bei den Hardwareherstellern der entsprechende Standard sein. Also so wirklich plötzlich kommen die Anforderungen nicht.
@@CreepyCyborg Grade hast du noch kritisiert, dass es ja doof sei, wenn über 20 Jahre nach x64 manche Linux-Distributionen die i386-Architektur nicht mehr unterstützen. 6-8 Jahre alte Geräte obsolet zu machen ist also plötzlich okay? Wobei nicht mal das der Maßstab ist, da das TPM 2.0 auf das du vmtl. abzielst nur eines von mehreren Problemen ist. Parallel unterstützt MS nur noch CPUs ab 2017. Es gibt also einige Leute, die brav ein Board mit TPM gekauft haben und keinen offiziellen Support für Windows 11 erhalten, weil ihr Prozessor ein paar Monate oder Jahre zu alt ist. Wenn das für dich kein Problem ist, hätte Linux die Unterstützung für i386 ja bereits vor 15 Jahren raus werfen können...
Sehe ich anders. Was MS mit Windows 11 macht, finde ich das aus einer Reihe von Gründen noch weitaus schlimmer:
1. Drängen die dich nicht nur zu 64 Bit, sondern eben auch zu TPM 2.0. Verglichen mit 64 Bit ist TPM auf technischer Ebene wohl weitaus umstrittener und wurde daher kaum verwendet.
2. Brauchen oder wollen viele Nutzer gar kein TPM. Können die es weiterhin im Bios/Uefi deaktivieren? Ab Windows 11 haben Windows-Nutzer diese Freiheit nicht mehr. Viel besser: TPMs können Geräte bricken.
3. Gibt es keine echte technische Notwendigkeit. Windows 11 funktioniert mit Hacks wunderbar ohne TPM und ohne unterstützten Prozessor, wie schon bei den Vorgängern. Könnte man optional machen, aber macht man nicht. MS findet, dass jeder ein TPM 2.0 haben soll -
4. Die Auswirkungen sind viel massiver. [url=news.microsoft.com/bythenumbers/en/windowsdevices]Laut MS eigener Infoseite[/url] verwenden 1,3 Milliarden (2018 waren es interessanterweise 1,5 - Sind das die frühen Windows 11 Wechsler?) Windows 10. Wenn nur ein Bruchteil davon seinen Rechner wegwirft um ein neues Windows 11 Gerät zu kaufen, ist das eine riesige Menge an (unnötigem) Elektroschrott. Man kann sich darüber streiten, wie groß dieser Bruchteil ist. Aber es werden über 0% sein, so weit sind wir uns hoffentlich einig.
5. Und da ist schon alleine der Effekt der Ankündigung nicht mit eingerechnet. In Foren wird teils jetzt schon vom Kauf gebrauchter Win10 Hardware abgeraten, weil einiges davon nicht mit Windows 11 kompatibel ist. Welche Folgen das für den Gebrauchtmarkt und damit die Umwelt hat, kann man sich wohl denken.
6. Im Gegensatz zu Linux kannst du nicht einfach eine andere Distri nehmen. Die einzige Alternative für Menschen die nicht zu Linux wechseln können oder wollen ist Windows 10. Damit gibt es noch maximal bis 2025 Updates.
7. Wenn genügend Nutzer das schlucken und sich neue Geräte kaufen, womit wird es weiter gehen? TPM 3.0 für Windows 12, dass es - wie schon Windows 11 - gar nicht geben wird? Oder muss man direkt ein zertifiziertes Surface kaufen, dass Microsoft vorher noch mal extra zugenagelt hat, damit auch ja keiner "potenziell böswillige Software" installiert? UEFI mit Secure Boot ist ja seit Windows 8 bereits Standard. Bringt zwar mehr Komplexität ohne richtigen Mehrwert, aber MS muss jetzt die Bootloader signieren... Super! Immerhin konnte man den Secure Boot Teil noch nachträglich abschalten. Wie war das noch gleich mit TPM bei Windows 11, wo ist da der Ausschalter?