ja, docker ist cool, nutze ich seit vielen Jahren. Und ebenfalls ja: Docker mit Portainer ist einfach genial. Darüber könnte man tatsächlich eine ganze Serie erstellen. Auch darüber, wie man beim Neuaufsetzen von Containern seine Daten und Einstellungen beibehält (Stichwort Binds) oder wie man mit Hilfe von MACVLan die lästigen Ports überflüssig macht und Containerdienste mit eigener IP im Heimnetz betreibt. Bitte gerne mehr davon :)
Ich wollte anfangs nichts mit Docker zu tun haben. Aber mit der Zeit hat mich das Projekt überzeugt. Insbesondere, weil man ganz gut Sachen ausprobieren kann, ohne das Basis-System zu "vermüllen".
Keno, ihr erwähnt einfach nur Podman, ohne zu erklären, warum/wann man das benutzen kann. Sofern man die größeren Features wie Pods nicht nutzt, bleibt für mich noch der Punkt, dass es rootless arbeitet: Während Docker üblicherweise einen stets laufenden Serverprozess benötigt, laufen alle Podman-Container standardmäßig eingeschränkt unter dem eigenen Benutzerkonto und daher bietet Podman erstmal mehr Sicherheit - besonders für Leute, die es nur mal so ausprobieren wollen und die sich mit Docker vllt sudo-frei einrichten würden. Ich würde das grob mit Leuten vergleichen, die alle Programme unter ihrem Windows mit Administratorrechten ausführen. Prinzipiell eine schlechte Idee - und ein Grund, warum Podman überhaupt entstand.
Docker hat seit längerem einen Rootless Mode, der bei einigen Distris sogar schon Standard ist. Die EInschränkungen sind ungefähr die selben wie bei Podman.
Ich habe auf meinem Debian (Bookworm) Server auch Docker laufen. Unter Docker läuft eine Jellyfin Instanz für mein Heimkino. Per SMB ist ein Laufwerk auf meinem 32TB NAS gemountet, auf denen meine Filme liegen. Ich habe auch Watchtower installiert. Ich habe selten ein so problemloses Konstrukt erlebt, wie diese Installation. Reboots, Updates, Netzwerkhuster oder was auch immer - spätestens nach einem Reboot funktioniert alles wieder. Natürlich laufen noch andere Docker Container parallel. Der Linux Debian Computer ist ein alter Fujitsu-Siemens Destop Office PC mit einem über 10 Jahren alten i5. Ich kann das wirklich empfehlen. Fire-and-forget - genau das, was ich ZUhause brauche ... Mich würde ein Beitrag zum Thema Backup von Containern intetessieren. 5 Benutzer parallel die Filme streamen - absolut kein Problem. Kaum erkennbahre Last auf dem Server. Und wech ...
Bitte mehr dazu, ich liebe es einfach wenn ihr(ct3003) Videos zu solchen Themen macht. Eure Videos sind für mich die,die ich am besten Verstehe und immer wieder ein "AHA" Moment habe.
Habe selbst pi-hole jahrelang auf einen RasPi laufen lassen und habe mich immer gefragt, ob das nicht auch auf meine Synology NAS laufen könnte, da es ja immer angeschaltet und online ist. Erst dann bin ich auf Docker gestoßen 🙄Nun laufen viele meiner Lieblings-Apps endlich auf mein NAS wo ich nie dachte dass es nebenbei auch Docker laufen kann, da die Resourcen vom NAS ja eigentlich locker ausreichen. Aktuell habe Ich u.a. folgende Container am Laufen: Mealie, Navidrome, Bitwarden, pi-hole, Plex, etc. Da die Einrichtung von HTTPS über 'Let's Encrypt' sehr langwierig war, bin Ich auf jeden Fall an eine "Klappe" interessiert, die diesen Teil abdeckt. P.S.: Macht unbedingt ein Video über die Vor-/Nachteile von 'Self-Hosted' Apps wie z.B. Bitwarden (Einsparung von Lizenzgebühren) und Backup-Möglichkeiten.
SSL nervt. damit der browser nicht rumnervt brauch ich Let's Encrypt ---> Also wieder extra Miete Kosten für ne Domain ---> Kein Bock auf laufende Extra Kosten. Ich bau mir doch nicht nen homesorver um doch nem externen dienstleister bezahlen zu müssen.
Das Mapping von Volumes ist der nächste Schritt auf dem Weg zum Docker-Profi. Die Kurzform: Einen lokalen Ordner an einen Ordner im Container weiterzureichen, funktioniert ähnlich wie Portweiterleitungen mit einem Doppelpunkt in der Mitte ./lokaler-pfad:/pfad/im/container. Ausführliche Doku zu verschiedenen Arten von Volumes: docs.docker.com/engine/storage/volumes/ (jam)
Kann empfehlen grundsätzlich für jeden Container alle Volumes unter dem selben Pfad zu erstellen. Zum Beispiel: volumes: - /docker/appdata//data:/data - /docker/appdata//config:/config So hat man alles übersichtlich an einem Ort.
Sollte man auf alle Fälle machen! Genau genommen sind die Daten zwar nicht sofort weg, denn es werden in jedem Fall Volumes erstellt, die standardmäßig auch nicht gelöscht werden, bis man explizit aufräumt. Das ist auch der Grund, warum einem irgendwann die Platte vollläuft, wenn man da nicht drauf achtet.
die technisch etwas ausführlichere Erklärung, um einen Container von einer VM abzugrenzen ist: ein Container läuft komplett im Kernel des Hostsystems - lediglich in einem eigenen Namespace und damit isoliert vom Hostsystem. Namespaces werden im Kernel sowieso benutzt. Container verursachen also praktisch keinen Overhead
Genau, das ist der entscheidende Satz, den man nicht laut genug sagen kann: Ein Container verursacht keinen relevanten Overhead im Vergleich zum selben Prozess, der außerhalb eines Containers läuft! Es schadet also auch nicht, viele kleine Container zu starten. Es gab in den Anfangstagen von Docker viele Spezialisten, die versucht haben, möglichst viel in einen Container zu stopfen. Das ist besser geworden. (jam)
Wobei das jetzt noch sehr vom Host System abhängt, unter Linux läuft das ganze mit quasi null Overhead, da existieren all die benötigten Kernel Features, unter Mac und Windows läuft docker aber noch mal mit einer weiteren Abstraktionsschicht. Unter Windows war es zumindest mal eine VM in der ein Linux läuft und dort dann die Container, mittlerweile geht's über wsl. Bei Mac ist es meine ich auch immer noch eine VM
@zapl80 Jep, unter Windows und macOS läuft das in einer Virtualisierungsschicht und die kostet Ressourcen. Jedoch: Docker Desktop für diese beiden Betriebssysteme ist etwas für Entwickler. Darin baut man seine Images, programmiert seine Anwendung innerhalb von Containern und testet neue Versionen, bevor man sie auf den Server loslässt. Das Entwicklernotebook mit ≥16GByte RAM und aktuellem Prozessor kommt dabei wirklich nicht ins Schwitzen. (jam)
Lieber Jan-Keno. Ich finde deine Videos echt super. Du erklärst immer so sympathisch und unterhaltsam. Ich wünsche dir und der ganzen Redaktion nur das Beste für die Zukunft.
Ich habe privat und auf der Arbeit immer häufiger mit Docker zu tun und mir raucht jedes Mal der Schädel, euer Video konnte mir tatsächlich ein paar Hintergründe klarer gestalten, vielen Dank dafür!😃
wenn docker und incus sich gleichzeitig vertragen würden währe das geil aber docker macht an network iptables firewall config rum und incus macht dann probleme bridge br0 zu nutzem um IP im LAN für den LXC container zu kriegen. und dann muss man irgendwelche kommandos für iptables mit systemd autostart machen und aaaaaa, fuuu WHY DAMN -.-
Für mich sind diese Themen am interessantesten: - Thema Netzwerk: Wie steuere ich, wie Container erreichbar sind und untereinander kommunizieren können - Einbindung von Storage: Wie kann mein Container Daten persistent speichern (und sichern) - OS: Gibt es eine Distribution, die auf das Betreiben von Containern optimiert ist, oder ist die Distro egal (in eurem Beispiel wird auf die Paketverwaltung apt verwiesen, also empfehlt ihr Debian oder Utuntu?)
Sehr schönes Video was betont wie einfach Docker ist. Ich Docker gerade auch für eine Liveshow (für Bühnen). Was leider nicht erwähnt wurde: - Skalierbarkeit mit Dockerswarm - Container alt? Container weg Container neu. Und das man Container zusammenstecken kann. Also SQL Container spricht mit Frontend. So bleibt über das es vieles einfacher macht, aber das ist nicht der Punkt. Wer Geld fürs aufsetzen bekommt ist es mehr oder minder egal. Aber Skalierbarkeit, Ausfallsicherheit, etc. Das sind (m.M.n) die Punkte
Super cooles Video! Hätte ich vor ein paar Jahren gebraucht, die Basics hab ich mir selbst drauf geschafft. Trotzdem hab ich hier noch was gelernt. Gerne mehr davon und noch tiefer ins Detail!
Endlich mal jemand, der die Basics richtig erklärt und vor allem dabei passende praxis-Beispiele zeigt. :) Ich setze (vor allem) LAMP based Server seit Jahrzehnten bis Heute manuell auf und harde sie individuell nach Anforderung. (Ja, das ist aufwendig, am Ende ist es das aber meist auch wert.) Mit eigenen individuell erstellten Docker-Images könnte ich mir vermutlich doch so einiges an Arbeit sparen. Das Video hat zumindest den Wunsch danach wieder aufkommen lassen. Danke und Gruß aus Berlin nach Berlin: Wormaus
Hallo Keno, mir geht es mit Docker genau wie von Dir beschrieben. Hab bisher auch 'nur' indirekte Erfahrungen über Unraid und mir fehlte noch der letzte Schritt/Tritt, Docker selbst mal auszuprobieren. Aber den habe ich jetzt von Dir bekommen . DANKE und gerne das Thema weitertreiben. Denn genau die Themen, die Du schon kurz genannt hast (Zertifikate, Backup ... braucht man auf jeden Fall wenn man etwas 'bleibendes' aufbauen will.
Das ist er ja wieder 🙂 -- Prima Video über Docker und Docker-Composer! Vielen Dank! -- Auf jeden Fall gerne weitere Videos zu dem Thema! Wer ein Synology NAS sein Eigen nennt, kann dort mit verschiedenen Modellen auch den Container-Manager nutzen (der früher auch Docker hieß). Auch hier entfällt die Kommando-Zeile und alles ist Clicki-Bunti
Bzgl. Portainer hast du meiner Meinung nach noch etwas wichtiges vergessen zu erwähnen: Es gibt eine CE (Community Edition) und eine nicht-CE Version. Wenn ihr als Nutzer nicht irgendwann aufgefordert werden möchtet, für Portainer zu bezahlen, solltet ihr immer die CE Edition installieren! Das war einer meiner ersten Fehler, die ich auf meinen Rasperrypi gemacht hatte!
Yes. Die Firma hinter Portainer hat das Geschäftsmodell, dass der Kern der Software frei ist, Zusatzfeatures aber kosten. Mittlerweile "erinnern" sie auch recht prominent auf der Oberfläche, dass es auch noch Funktionen zu kaufen gibt. Das war früher nicht so stark der Fall. (jam)
Super video. Das erste Mal das jemand Docker wirklich einfach erklärt. Ich würde mich freuen über ein Video wie man mit Docker auf einem VPS (inkl. was muss der VPS Leisten können) einen Webserver mit NextCloud auf einer richtigen Domain + SSL Zertifikat einrichtet.
Perfektes Timing, da ich mich gerade seit vorgestern intensiver mit Docker Desktop für Windows auseinandersetze. Gerne noch einen Teil 2 zum vertiefen. Themen-Ideen z.B. wie geht man mit Volumes (vielleicht auch im Netzwerk) um um die Daten zu persistieren? Kann man die dann auch mit mehreren Docker-Servern nutzen? Wie kann man Hardwareressourcen wie z.B. eine GPU einem Docker zur Verfügung stellen?
portainer abstrahiert ganzschön viel weg und hat einige defaults, die gerne mal probleme machen, wenn man mit volumes nicht aufpasst. dockge ist da deutlich simpler (quasi nur ein web-ui für docker compose)
Aber sobald Mal was nicht läuft ist man aufgeschmissen. Ich musste paperless über portainer neu aufsetzen und alle Daten waren weg :( das mit den volumes Mappen sollte ich mir Mal genauer anschauen bzw. Docker von Grund auf lernen.
Eine wirklich wichtige Sache fehlt. Erklärung, wie man Daten des Kontainers dauerhaft erhält. Sonst wird bei einem Update alles verloren gehen. Also Volumes hätten noch dazu gehört, und in dem Zuge gleich mitgenommen, dass in der docker-compose.yml immer nur der linke Bereich vom Doppelpunkt verändert werden darf.
Hurra, Knallervideo! Und besser als meine Kollegen es mir erklärt haben! Der liebe Johannes vom Make Magazin hatte schon ein gutes Video vor einem Jahr gemacht, das ist in dieser Kombi nun unschlagbar. Wünsche mir nun nur noch Troubleshooting Hilfe bei Port Vergaben... 👌👌
Wie immer extrem geil vorgestellt und Du machst damit für buchstäblich jeden den Weg frei, der Willens ist sein bisschen Hirn zu benutzen und es stimmt: Das Geld liegt auf der Straße und ist Dreck, der nebenbei hängenbleibt, wenn Du fit bist in so einem Thema und noch ein paar dazu, wie Cloud und Dev/Ops z.B. Einfach eine geile Arbeit und Welt in der ich mich total versenken kann.
WOW, DANKE! Das hab ich gebraucht. Ich hab nun so vieles verstanden. Weil es jemand mal erklärt hat. Danke. Für Synology gibt es die Seite von Marius. Der hat dort die besten Anleitungen der Welt.
Bitte zu Portainer ein Video 😊 das wäre sehr cool! Vielen lieben Dank für dieses Video hier! Ich bin zwar schon einigermaßen im Server Game, aber diese simple Erklärung hat mir echt noch ein paar Dinge beantwortet. Thanks ❤
Danke für das Video - ein guter Einstieg in Docker. Ich würde gerne noch mehr zu Docker sehen, insbesondere zu den besten Backup-Lösungen. Wie bestimmt viele hier habe ich einen NAS, auf dem ich gerne Container- oder Konfigurations-Backups, z.B. von Nextcloud, Home Assistant oder auch Pi-hole speichern wollen würde. Da ich aber keinen Linux-Server habe und bei mir alles über Windows läuft, interessiert mich besonders, wie ich Backups von Docker-Containern in WSL in Windows auf meinen NAS bekomme (auf dem ich keine Docker-Container laufen haben möchte.)
Schade ich habe gehofft das Video geht tiefer in die Details wie Docker Container tiefgehend funktionieren. Das wäre sehr interessant gewesen, aber um Einsteigern einen guten Start zu bieten ist euer Video trotzdem ziemlich gut, toller content weiter so. PS: watchtower kannte ich auch noch nicht
Das ist zwar technisch sehr interessant, aber von einem 16Minuten 'Bin ich schon drin? Das war ja einfach.' ;-) Video nicht zu behandeln. Das imho sehr sehr gute an Docker bzw. der Container Technik ist die flache Lernkurve, trotz der dahinter stehenden Tiefe. Ich fand das Video schon ganz angemessen.
@@Polgarta natürlich ist das viel zu komplex um mal eben in einem 16min Video thematisiert zu werden, aber bei dem Titel docker verstanden gehe ich davon aus
@@forestcat512Ging mir wie Dir. Bei mir bleiben die selben Fragezeichen übrig wie vorher.. Was ist mit Containern, die die selbe Ressource referenzieren, zB eine DB. Wird die Ressource dann in jedem Container mitgeliefert? Das klingt im Video so, wäre dann aber eben dann doch übertrieben Ressourcen hungrig (weshalb ich das nicht glaube). Noch spannender wären Infos, wie man die Container selbst erstellt usw. Ich würde nicht sagen, dass ich nach dem Video verstanden habe, was Docker ist. Nur dass Container Installation an sich toll ist (was man vermutlich schon vorher weiß, wenn man auf das Video klickt). Interessant war's aber trotzdem. Motivierend, sich weiter mit dem Thema zu befassen.
@@GrischaBrockhaus Container sind Standardmäßig isoliert, also wenn in beiden Container Python benötigt wird dann hast du auch quasi 2 mal Python herunterladen und installiert. Aber der Vorteil ist dass du an beiden Installationen unabhängig voneinander Veränderungen an der Python Runtime machen könntest, oder verschiedene Versionen nutzen könntest. Das mag ineffizient klingen, aber ist angesichts der Preise für Speicher mittlerweile eine sehr effektive Methode um Probleme durch gemeinsame Abhängigkeiten zu verhindern. Ja das Video erzeugt eigentlich hauptsächlich Begeisterung für das Thema Docker Generell aber die genauen technischen Details fallen dann halt hinten runter. Vielleicht wird daraus ja auch eine Serie :)
Eine Sidenote: Wenn man Docker Desktop unter Windows nutzt, ist Docker Desktop by default recht arbeitspeicherhungrig. Das verbraucht die Hälfte des Arbeitsspeichers, den man zur Verfügung hat. Das kann man aber in den Griff kriegen, indem man das in den erweiterten Einstellungen unter "memory limit" limitiert.
Ich nutze Docker im Rahmen meiner Arbeiten als hardwarenaher Softwareentwickler gern. Es ist einfach sehr angenehm und Zeit sparend, wenn man in einem speziellen Software-Projekt die Build-Umgebung und alles, was es zum Erstellen des Binary braucht, zentral verwalten kann. Bevor ich Docker kennengelernt habe, war es immer sehr zeitaufwendig, das ganze SDK und den Build-Prozess auf seinem lokalen Rechner einzurichten. Dank Docker muss man nur noch das entsprechende Image ziehen und kann die Applikation direkt bauen. Es braucht nur jemanden, der das passende Dockerfile erstellt.
Hi, ich bin auch im embedded Systems unterwegs und konnte leider noch nicht mit Docker arbeiten, da ich 1. Docker noch nicht ganz verstanden habe. 2. Fehlt mir ein zentrales Startpunkt. Wir nutzen sehr viele Pythonskripte für den Buildprozess auf Jenkins Wenn man alle Skripte, die Pythonumgebung und Compiler in einen Container packen könnte, dann kann Jenkins und jeder lokale Anwender diesen Container nutzen Ist so das der Use-Case?
Mich würde interessieren wo z.B. die Dateien von Nextcloud gespeichert werden. gehen die bei einem Update nicht verloren? Und wie funktionieren Backups bei Docker?
Bitte mehr solche Videos vielleicht auch mal mehr zu linux und befehlen das wäre cool. Gerade für linux Anfänger wäre es echt cool. Auch ein video wie man ein Linux Server erstellt und wie man ihn sicher von außerhalb über eine domain erreichbar macht wäre auch sehr interessant.
@@qualle1159 Linux ist learning by doing. Schau dir mal die anderen Videos zum Thema Heimserver an. Wenn man damit klar kommt, kann man vieles selbst und bekommt den Rest wahrscheinlich selbst geregelt. :)
Wie immer ein super Video, Danke! Macht doch mal einen Vergleich Docker vs Proxmox, bzw. Container vs VM.. Und was ist der Unterschied zw. Linux Containern (z.B. in Proxmox) und Docker Containern. Einen gaaaanz wichtigen Vorteil habt ihr noch vergessen zu erwähnen (oder er hat nicht mehr in das mit Infos rappelvolle Video gepasst ;)): Container ersparen einem viele Kopfschmerzen mit Abhängigkeiten. Jeder der schonmal einen Raspi hatte und dort nach und nach immer mehr installiert hat, hat da irgendwann bestimmt auch schonmal Probleme mit gehabt.
Klasse Keno. Die Frage nach dem Unterschied zwischen VMware und Docker hatte ich mir gleich zu Anfang Deines Videos gestellt. Hast Du ja am Schluss gleich beantwortet. 👍
Ein Tip noch: Ich habe dem Rechner auf dem Docker läuft mehrere IP Adressen geben. In den compose-Dateien gebe ich als Port dann 192.168.0.6:80:80 an und schon ist der Container unter dieser IP erreichbar. Damit umgehe ich den hussle das App1 unter Port 8080 läuft App2 unter 8081 und so weiter. Und man kann dann in pihole schöne eigene Domains vergeben.
Guter Tipp. Den kann man noch erweitern: Wenn man auf seinem Arrbeitsrechner mit Docker Dinge testet, will man die nicht unbedingt übers Netzwerk veröffentlichen. Dann einfach die Localhost-Adresse davor setzen: 127.0.0.1:80:80. Vom eigenen Browser kann man die Seite dann aufrufen, andere im Netzwerk nicht. (jam)
der hauptunterschied zwischen docker und podman ist, dass man in podman systemd in einem container benutzen kann, ist also quasi ein hybrid zwischen docker und einer VM! das bedeutet dass man innerhalb eines podman containers mehrere dienste (also webserver und datenbankserver im gleichen container) starten lassen kann was bei docker nicht möglich ist
Wow, selbst ich als DevSecOps konnte etwas neues lernen... Ich hab schon einige Container gestartet und eingerichtet, aber watchtower und portainer kannte ich noch nicht und sind unfassbar gute services :D Ich feiere deine Videos seit locker 4 Jahren... Danke für deine geilen Videos und bitte mehr von sowas :D
Bahnhof Bahnhof, Bahnhof Bahnhof Bahnhof Docker, Bahnhof Bahnhof Linux. Hab mit Linux noch nie viel zutun gehabt. Super erklärt, eure Videos sind super
nice, mehr zu dem Thema, ich bin nämlich seit dem Homeserver dabei und hab' mich in Docker verguckt. Das war schon immer wieder Thema im Umfeld, aber so richtig wollte ich da nie dran. Seit ich mir Unraid zugelegt habe, will ich mehr. Also, hier ein weiterer Unterstützer für den Nachklapp ...
Ich muss auch noch was „verbessern“, bei 15:25 der Befehl „docker compos pull“ updatet auch nur wenn man bei den Containern keine Versionsnummer angegeben hat, und z.B. „latest“ benutzt hat! Ist nicht immer sinnvoll, manche Container (wie gitlab) brauchen eine spezielle Updatereihenfolge!
Die Wahl des richtigen Tags (in Verbindung mit einem Auto-Updater wie Watchtower) ist ein eigenes Kapitel auf dem Lernpfad zum Docker-Profi. Eine Anregung für alle, die es interessiert: Hinter dem Namen des Images steht ein Tag, getrennt per Doppelpunkt. Gibt man keinen an, nimmt docker immer :latest. Das ist nur selten klug, weil die Entwickler ja spontan eine neue Major-Version v2 raushauen könnten, die ganz anders funktioniert. Dann ist über Nacht alles kaputt. Deshalb: Schaut im Docker-Hub, welche Tags es sonst so gibt. Die meisten arbeiten nach dem Schema Semantic Versioning (SemVer) und bringen zum Beispiel die Tags :v1, v1.5 und v1.5.2 raus. Ich würde in dem Fall :v1 nehmen dann bekomme ich alle Updates der Version 1 von Watchtower automatisch installiert, einen Wechsel auf :v2 muss ich aber aktiv wollen und in der Compose-Datei eintragen. (jam)
ABO definitiv ON! Einfach herrlich Deine Beschreibung(en) für einen "Newbie". Schließe mich hiermit einigen Vorrednern an! Eine Art PLAYLIST/SERIE mit FOLLOW UP wäre eine SENSATION und sicherlich hilfreich, um sich in diese "fremde WELT" ein wenig einzuarbeiten. Wie man an einigen Kommentaren erkennen kann, gilt es einiges zu berücksichtigen, wenn man zB. einen RASPI mit WEBSERVER, Datenbank, kleinem NAS, etc. ausstatten möchte.
Na da habt ihr ja gerade mal so an der Oberfläche gekratzt... Ich nutze Docker seit zwei Monaten ca. Ich habe auch einen Umzug von Pi auf MiniPC hinter mir... Erst auf dem Pi alles in Docker gebracht und zum laufen bekommen und danach umgestiegen auf einen MiniPC. War eigentlich gar nicht so schwer mehr, das alles auf dem MiniPC zum laufen zu bekommen... Für mich ist natürlich Backup ein wichtiges Thema. Vor allem ETH ist echt cool unter Docker, da geht einiges. Volumes im Docker Ordner und man hat alles zusammen. Per Portainer sind eigentlich die Stacks mega interessant. Im übrigen: Sollte man nur eine CLI von einem Docker Container haben, kann da die KI helfen es in eine nutzbare yaml Variante zu ändern. Ich habe auch festgestellt, dass es oft überhaupt kein yml gibt... Und dann? CoPilot weiß wie.
Danke für die Idee, dass die KI von docker run auf eine Compose-Datei übersetzen kann. Weil das alles streng nach Regeln funktioniert (die man nach wenig Einarbeitung auch alle im Kopf hat), braucht man nicht mal KI dafür. Es gibt ein paar Konverter-Projekte wie dieses hier: www.composerize.com (jam)
Hab vor kurzem auch Container Blut geleckt... ist einfach angenehmer, wenn man Systeme versionieren und migrieren muss. Auch wenn es hier und da zuerst sehr kompliziert ist
Am Anfang muss man viele Konzepte gleichzeitig lernen, wenn man die ersten Anwendungen in Containern betreiben will, das stimmt schon. Aber wenn man Images, Ports, Volumes und Umgebungsvariablen mal verinnerlicht hat, schaut man immer seltener in die Doku. Nach ein paar Wochen kommt der Punkt, ab dem man eine Docker-Compose-Datei ohne Hinzuschauen runterschreibt. (jam)
Sehr interessant ist auch DDEV was extrem einfach z.B. eine komplette Wordpress Umgebung mit Docker erstellt und sogar noch per https... nutzt auch Docker aber ohne das man eine Konfigurationsdatei erstellen muss. Das mit den VMs stimmt meine ich nicht so ganz. Auf Linux wird das native Linux genutzt unter Mac/Windows wird ein "light" Image mit einem Linux gebaut. Die Performance unter Linux ist also besser, was aber nicht heißt das es unter MacOS schlecht wäre... im Gegenteil, das rennt wie sau und man merkt nicht das der komplette Stack in einem Container mit einer VM läuft. Genial! Ja... das Thema ist angesagt und heiß.. gerade bei Entwicklern die auch mit Node.js, Frontend-Sachen oder auch PHP arbeiten und das früher vielleicht in VMware gemacht haben. Bitte mehr davon ;)
Bitte mehr davon. Bin letztens schon gescheitert bei meiner Nextcloud Installation. Aber so könnte ich dies eventuell hinbekommen. Nur HTTPS und andere Dinge um von außen darauf zugreifen zu Können fehlen noch.
Hallo Keno Mit deinen/euren Videos belästige ich gern meine Teilnehmer in meinen Kursen. Container folgen im nächsten Jahr. Was gefehlt hat aus meiner Sicht. Die Container enthalten keine Daten! Die befinden sich im Dateisystem des Severs und müssen angebergt werde. In der Praxis hatte ich oft Schwierigkeiten mit Containern, wenn diese verschiedene Kernel oder bestimmte Kernel brauchten. Chaos extrem war die Folge. Container sind ideal wenn man große Mengen gleichartige Dienste braucht, zb 1000de Mailserver.
Wenn man verschiedene Kernel braucht, braucht man VMs. Der zentrale Unterschied zwischen Container und VM: Eine VM bootet einen kompletten Kernel, ein Userland und darin Prozesse. Ein Container ist nur ein (etwas beschränkter) Prozess und alle Container teilen sich den Kernel des Betriebssystems darunter. Das macht sie halt sehr sparsam und die von dir angesprochenen Tausenden Container auf einer Maschine sind kein Problem. Zu den persistenten Daten: Ja, das Thema haben wir nicht mehr ins Video gesteckt, weil es ein weiteres seeehr tiefes Fass werden kann. Es wird nicht das letzte Video zum Thema bleiben. (jam)
Docker sudo rechte geben … also ich weiß ja nicht ob das wirklich eine gute Idee ist. Hier hätte ich mir zumindest gewünscht das ein Achtung hierzu ausgesprochen wird. Zudem ist der gravierende Unterschied zwischen Docker und Podman untergegangen. Podman kommt ohne Sudo-rechte aus!
Falls du auf "sudo usermod -aG docker $USER" anspielst, das gibt nicht Docker irgendwelche Rechte, sondern deinem User die Rechte der docker-Gruppe. Da ist kein Achtung nötig.
Solche Videos lassen die größten Supernerds dieser Welt heranrauschen, um unreflektiert und ungebeten Fragen zu beantworten, die niemand gestellt hat. Sie retten erst Linux, dann PHP und zum Schluss Euch alle - ob ihr wollt oder nicht. Geil!
Bitte unbedingt beachten, dass die Proxmox-Entwickler selbst dringend davon abraten, Docker in einem LXC zu installieren. Es gibt Berichte von Leuten, die damit in z.T. massive Probleme bis hin zu nicht mehr funktionierenden Proxmox-Instanzen reingerannt sind.
Nichts gegen deinen Kommentar, ich finde es nur gerade sehr lustig, dass RUclips mir unter deinem Kommentar einen Button mit der Beschriftung "Übersetzen in: Deutsch" anzeigt :D . Google-Übersetzer braucht wohl noch etwas Pflege^^...
Hiermit melde ich Interesse an dem "Nachklapp" an :-) Danke!
Moin. "Nachklappen" klingt gut. Tüdülüü ...
Ich würde mich auch über den „Nachklapp“ freuen 😉
Yo "Nachklapp" klingt gut 😬 habbewill
NACHSCHLAG
Top! Und bitte auch für mich mehr Infos 🙂
Finde es cool, dass ihr das Thema einem breiterem Publikum vorstellt!
Gut und einfach erklärt - gerne mehr davon! :)
ja, docker ist cool, nutze ich seit vielen Jahren. Und ebenfalls ja: Docker mit Portainer ist einfach genial. Darüber könnte man tatsächlich eine ganze Serie erstellen. Auch darüber, wie man beim Neuaufsetzen von Containern seine Daten und Einstellungen beibehält (Stichwort Binds) oder wie man mit Hilfe von MACVLan die lästigen Ports überflüssig macht und Containerdienste mit eigener IP im Heimnetz betreibt. Bitte gerne mehr davon :)
Es hat schon seinen Grund warum (docker) container vor Jahren die Serverlandschaft im Sturm erobert haben. :-)
Ich wollte anfangs nichts mit Docker zu tun haben. Aber mit der Zeit hat mich das Projekt überzeugt. Insbesondere, weil man ganz gut Sachen ausprobieren kann, ohne das Basis-System zu "vermüllen".
Keno, ihr erwähnt einfach nur Podman, ohne zu erklären, warum/wann man das benutzen kann. Sofern man die größeren Features wie Pods nicht nutzt, bleibt für mich noch der Punkt, dass es rootless arbeitet: Während Docker üblicherweise einen stets laufenden Serverprozess benötigt, laufen alle Podman-Container standardmäßig eingeschränkt unter dem eigenen Benutzerkonto und daher bietet Podman erstmal mehr Sicherheit - besonders für Leute, die es nur mal so ausprobieren wollen und die sich mit Docker vllt sudo-frei einrichten würden. Ich würde das grob mit Leuten vergleichen, die alle Programme unter ihrem Windows mit Administratorrechten ausführen. Prinzipiell eine schlechte Idee - und ein Grund, warum Podman überhaupt entstand.
Docker hat seit längerem einen Rootless Mode, der bei einigen Distris sogar schon Standard ist. Die EInschränkungen sind ungefähr die selben wie bei Podman.
Super Einstieg in die Welt von Docker. Sollte umbedingt als youtube Serie bis in die Tiefen von Docker weitergeführt werden. Danke.
Ich habe auf meinem Debian (Bookworm) Server auch Docker laufen. Unter Docker läuft eine Jellyfin Instanz für mein Heimkino. Per SMB ist ein Laufwerk auf meinem 32TB NAS gemountet, auf denen meine Filme liegen. Ich habe auch Watchtower installiert. Ich habe selten ein so problemloses Konstrukt erlebt, wie diese Installation. Reboots, Updates, Netzwerkhuster oder was auch immer - spätestens nach einem Reboot funktioniert alles wieder. Natürlich laufen noch andere Docker Container parallel. Der Linux Debian Computer ist ein alter Fujitsu-Siemens Destop Office PC mit einem über 10 Jahren alten i5. Ich kann das wirklich empfehlen. Fire-and-forget - genau das, was ich ZUhause brauche ... Mich würde ein Beitrag zum Thema Backup von Containern intetessieren. 5 Benutzer parallel die Filme streamen - absolut kein Problem. Kaum erkennbahre Last auf dem Server. Und wech ...
jellyfin ist bei mir im ubuntu 24.04 LXC container installiert. (mit incus erstellt).
Host ist auch debian bookworm
Bitte mehr dazu, ich liebe es einfach wenn ihr(ct3003) Videos zu solchen Themen macht. Eure Videos sind für mich die,die ich am besten Verstehe und immer wieder ein "AHA" Moment habe.
Nachklapp bitte.
Keno macht das immer klasse.
Habe selbst pi-hole jahrelang auf einen RasPi laufen lassen und habe mich immer gefragt, ob das nicht auch auf meine Synology NAS laufen könnte, da es ja immer angeschaltet und online ist. Erst dann bin ich auf Docker gestoßen 🙄Nun laufen viele meiner Lieblings-Apps endlich auf mein NAS wo ich nie dachte dass es nebenbei auch Docker laufen kann, da die Resourcen vom NAS ja eigentlich locker ausreichen. Aktuell habe Ich u.a. folgende Container am Laufen: Mealie, Navidrome, Bitwarden, pi-hole, Plex, etc.
Da die Einrichtung von HTTPS über 'Let's Encrypt' sehr langwierig war, bin Ich auf jeden Fall an eine "Klappe" interessiert, die diesen Teil abdeckt.
P.S.: Macht unbedingt ein Video über die Vor-/Nachteile von 'Self-Hosted' Apps wie z.B. Bitwarden (Einsparung von Lizenzgebühren) und Backup-Möglichkeiten.
SSL nervt. damit der browser nicht rumnervt brauch ich Let's Encrypt ---> Also wieder extra Miete Kosten für ne Domain ---> Kein Bock auf laufende Extra Kosten. Ich bau mir doch nicht nen homesorver um doch nem externen dienstleister bezahlen zu müssen.
Endlich jemand der es gut erklärt, danke ! :D
gut erklärt?
Hey! Passend dazu würde ich nochmal einen Videowunsch pushen: sicheres und sinnvolles Backup eines unraid-Servers inklusive aller Daten und Docker. :)
Nicht nur an unraid..auch für Proxmox wäre ich interessiert
Dran denken, wenn man die Ordner nicht mounted sind alle Daten mit dem Container weg (wichtig für Passwortmanager etc) sobald man diesen neu aufsetzt.
Das Mapping von Volumes ist der nächste Schritt auf dem Weg zum Docker-Profi. Die Kurzform: Einen lokalen Ordner an einen Ordner im Container weiterzureichen, funktioniert ähnlich wie Portweiterleitungen mit einem Doppelpunkt in der Mitte ./lokaler-pfad:/pfad/im/container. Ausführliche Doku zu verschiedenen Arten von Volumes: docs.docker.com/engine/storage/volumes/ (jam)
Kann empfehlen grundsätzlich für jeden Container alle Volumes unter dem selben Pfad zu erstellen.
Zum Beispiel:
volumes:
- /docker/appdata//data:/data
- /docker/appdata//config:/config
So hat man alles übersichtlich an einem Ort.
Sollte man auf alle Fälle machen!
Genau genommen sind die Daten zwar nicht sofort weg, denn es werden in jedem Fall Volumes erstellt, die standardmäßig auch nicht gelöscht werden, bis man explizit aufräumt. Das ist auch der Grund, warum einem irgendwann die Platte vollläuft, wenn man da nicht drauf achtet.
bei dem Satz "hat erst mal nichts mit Docker zu tun" hab ich auch schwer geschluckt. 🤨😏
KEEENO! Ich brauch das! Ein Video für ordentliche Container Backups! Vlt sogar am Beispiel einer containerized MySQL db? 😏
die technisch etwas ausführlichere Erklärung, um einen Container von einer VM abzugrenzen ist: ein Container läuft komplett im Kernel des Hostsystems - lediglich in einem eigenen Namespace und damit isoliert vom Hostsystem. Namespaces werden im Kernel sowieso benutzt. Container verursachen also praktisch keinen Overhead
Genau, das ist der entscheidende Satz, den man nicht laut genug sagen kann: Ein Container verursacht keinen relevanten Overhead im Vergleich zum selben Prozess, der außerhalb eines Containers läuft! Es schadet also auch nicht, viele kleine Container zu starten. Es gab in den Anfangstagen von Docker viele Spezialisten, die versucht haben, möglichst viel in einen Container zu stopfen. Das ist besser geworden. (jam)
Wobei das jetzt noch sehr vom Host System abhängt, unter Linux läuft das ganze mit quasi null Overhead, da existieren all die benötigten Kernel Features, unter Mac und Windows läuft docker aber noch mal mit einer weiteren Abstraktionsschicht. Unter Windows war es zumindest mal eine VM in der ein Linux läuft und dort dann die Container, mittlerweile geht's über wsl. Bei Mac ist es meine ich auch immer noch eine VM
@zapl80 Jep, unter Windows und macOS läuft das in einer Virtualisierungsschicht und die kostet Ressourcen. Jedoch: Docker Desktop für diese beiden Betriebssysteme ist etwas für Entwickler. Darin baut man seine Images, programmiert seine Anwendung innerhalb von Containern und testet neue Versionen, bevor man sie auf den Server loslässt. Das Entwicklernotebook mit ≥16GByte RAM und aktuellem Prozessor kommt dabei wirklich nicht ins Schwitzen. (jam)
@@zapl80 WSL2 (Docker Desktop kann nur diese als Alternative benutzen) ist auch eine VM mit einem echten Linux Kernel.
@@zapl80 aber WSL ist ja eigendlich auch ne VM. dauert ewig bis WSL gestartet ist.
Lieber Jan-Keno. Ich finde deine Videos echt super. Du erklärst immer so sympathisch und unterhaltsam.
Ich wünsche dir und der ganzen Redaktion nur das Beste für die Zukunft.
Ich habe privat und auf der Arbeit immer häufiger mit Docker zu tun und mir raucht jedes Mal der Schädel, euer Video konnte mir tatsächlich ein paar Hintergründe klarer gestalten, vielen Dank dafür!😃
wenn docker und incus sich gleichzeitig vertragen würden währe das geil aber docker macht an network iptables firewall config rum und incus macht dann probleme bridge br0 zu nutzem um IP im LAN für den LXC container zu kriegen. und dann muss man irgendwelche kommandos für iptables mit systemd autostart machen und aaaaaa, fuuu WHY DAMN -.-
Für mich sind diese Themen am interessantesten:
- Thema Netzwerk: Wie steuere ich, wie Container erreichbar sind und untereinander kommunizieren können
- Einbindung von Storage: Wie kann mein Container Daten persistent speichern (und sichern)
- OS: Gibt es eine Distribution, die auf das Betreiben von Containern optimiert ist, oder ist die Distro egal (in eurem Beispiel wird auf die Paketverwaltung apt verwiesen, also empfehlt ihr Debian oder Utuntu?)
Docker und portainer sind einfach awesome
musste so lachen bei der Sequenz 3:57 grüße an die Motiongraphicsabteilung
Ich liebe die Videos. Sind immer gut verständlich und aufs nötigste reduziert. Vielen lieben Dank❗❤
Keno bitte mehr, jetzt haste mein interesse an Dockers geweckt :D
wenn ich dieses Viedeo zuEnde Geguckt habe.... habe ich also Docker Drauf... 0:32. (Skeptisch aber Offen für Wunder)
Sehr schönes Video was betont wie einfach Docker ist. Ich Docker gerade auch für eine Liveshow (für Bühnen). Was leider nicht erwähnt wurde:
- Skalierbarkeit mit Dockerswarm
- Container alt? Container weg Container neu.
Und das man Container zusammenstecken kann. Also SQL Container spricht mit Frontend.
So bleibt über das es vieles einfacher macht, aber das ist nicht der Punkt.
Wer Geld fürs aufsetzen bekommt ist es mehr oder minder egal.
Aber Skalierbarkeit, Ausfallsicherheit, etc. Das sind (m.M.n) die Punkte
Colles und auch aktuelles Thema. Gerne nochmal eine Fortsetzung dazu und wie man dann auch https zum Fliegen bringt.
Super cooles Video! Hätte ich vor ein paar Jahren gebraucht, die Basics hab ich mir selbst drauf geschafft. Trotzdem hab ich hier noch was gelernt. Gerne mehr davon und noch tiefer ins Detail!
Danke :) kurz und kompakt als Teaser zum Selbstprobieren 👍
Super Video. Kurz und knapp das Wichtigste erklärt. Genau das, was ich gesucht habe! Danke 😊
Endlich mal jemand, der die Basics richtig erklärt und vor allem dabei passende praxis-Beispiele zeigt. :)
Ich setze (vor allem) LAMP based Server seit Jahrzehnten bis Heute manuell auf und harde sie individuell nach Anforderung. (Ja, das ist aufwendig, am Ende ist es das aber meist auch wert.) Mit eigenen individuell erstellten Docker-Images könnte ich mir vermutlich doch so einiges an Arbeit sparen. Das Video hat zumindest den Wunsch danach wieder aufkommen lassen.
Danke und Gruß aus Berlin nach Berlin: Wormaus
Tolle Zusammenfassung ! Nachdem portainer erwähnt wurde, fehlt eigentlich nur noch eine Abhandlung zu dockge - finde ich zumindest ... ;-)
Hallo Keno, mir geht es mit Docker genau wie von Dir beschrieben. Hab bisher auch 'nur' indirekte Erfahrungen über Unraid und mir fehlte noch der letzte Schritt/Tritt, Docker selbst mal auszuprobieren. Aber den habe ich jetzt von Dir bekommen . DANKE und gerne das Thema weitertreiben. Denn genau die Themen, die Du schon kurz genannt hast (Zertifikate, Backup ... braucht man auf jeden Fall wenn man etwas 'bleibendes' aufbauen will.
Das ist er ja wieder 🙂 -- Prima Video über Docker und Docker-Composer! Vielen Dank! -- Auf jeden Fall gerne weitere Videos zu dem Thema! Wer ein Synology NAS sein Eigen nennt, kann dort mit verschiedenen Modellen auch den Container-Manager nutzen (der früher auch Docker hieß). Auch hier entfällt die Kommando-Zeile und alles ist Clicki-Bunti
Top Video! Gerne mehr zu diesem Thema. Würde gerne mehr über Container Services der Cloudanbieter wissen.
Bzgl. Portainer hast du meiner Meinung nach noch etwas wichtiges vergessen zu erwähnen:
Es gibt eine CE (Community Edition) und eine nicht-CE Version.
Wenn ihr als Nutzer nicht irgendwann aufgefordert werden möchtet, für Portainer zu bezahlen, solltet ihr immer die CE Edition installieren!
Das war einer meiner ersten Fehler, die ich auf meinen Rasperrypi gemacht hatte!
Yes. Die Firma hinter Portainer hat das Geschäftsmodell, dass der Kern der Software frei ist, Zusatzfeatures aber kosten. Mittlerweile "erinnern" sie auch recht prominent auf der Oberfläche, dass es auch noch Funktionen zu kaufen gibt. Das war früher nicht so stark der Fall. (jam)
Drei Nodes also Docker server können als private oder schulungs zwecke gratis lizenziert werden.
Es gibt aber auch 3 Nodes Free auf der Portainer Seite, wenn man sich auf deren Seite registriert.
Man kann sich auch (kostenlos) die Business Version mit Lizenz installieren 😉
Finde es ziemlich schade, dass Portainer das Feature der 2 Faktor Authentifizierung hinter die "Paywall" versteckt hat.
Super video. Das erste Mal das jemand Docker wirklich einfach erklärt.
Ich würde mich freuen über ein Video wie man mit Docker auf einem VPS (inkl. was muss der VPS Leisten können) einen Webserver mit NextCloud auf einer richtigen Domain + SSL Zertifikat einrichtet.
Perfektes Timing, da ich mich gerade seit vorgestern intensiver mit Docker Desktop für Windows auseinandersetze.
Gerne noch einen Teil 2 zum vertiefen. Themen-Ideen z.B. wie geht man mit Volumes (vielleicht auch im Netzwerk) um um die Daten zu persistieren? Kann man die dann auch mit mehreren Docker-Servern nutzen? Wie kann man Hardwareressourcen wie z.B. eine GPU einem Docker zur Verfügung stellen?
portainer abstrahiert ganzschön viel weg und hat einige defaults, die gerne mal probleme machen, wenn man mit volumes nicht aufpasst. dockge ist da deutlich simpler (quasi nur ein web-ui für docker compose)
ich bin als anfänger mit portainer voll reingerutscht, top verständlich alles ... kp läuft seit 3 Jahren alles was ich machen will.
Aber sobald Mal was nicht läuft ist man aufgeschmissen. Ich musste paperless über portainer neu aufsetzen und alle Daten waren weg :( das mit den volumes Mappen sollte ich mir Mal genauer anschauen bzw. Docker von Grund auf lernen.
Jetzt hab ich mal verstanden, warum alle so auf die Container abfahren 😂👍
Das klingt, als wärst du von Kollegen, Freunden oder anderen Menschen umgeben, die irgendwas mit Containern machen. (jam)
Eine wirklich wichtige Sache fehlt. Erklärung, wie man Daten des Kontainers dauerhaft erhält. Sonst wird bei einem Update alles verloren gehen. Also Volumes hätten noch dazu gehört, und in dem Zuge gleich mitgenommen, dass in der docker-compose.yml immer nur der linke Bereich vom Doppelpunkt verändert werden darf.
Kurz und knackig, sehr gut. Vielen Dank dafür.
Bei curl pipe sudo und Dockerrechten für unprivigelierte User sollte man sich allerdings zumindest dazusagen, dass das Sicherheitsprobleme sind
Hurra, Knallervideo! Und besser als meine Kollegen es mir erklärt haben! Der liebe Johannes vom Make Magazin hatte schon ein gutes Video vor einem Jahr gemacht, das ist in dieser Kombi nun unschlagbar. Wünsche mir nun nur noch Troubleshooting Hilfe bei Port Vergaben... 👌👌
Wie immer extrem geil vorgestellt und Du machst damit für buchstäblich jeden den Weg frei, der Willens ist sein bisschen Hirn zu benutzen und es stimmt: Das Geld liegt auf der Straße und ist Dreck, der nebenbei hängenbleibt, wenn Du fit bist in so einem Thema und noch ein paar dazu, wie Cloud und Dev/Ops z.B. Einfach eine geile Arbeit und Welt in der ich mich total versenken kann.
Danke Keno, das nenn ich mal Wissen kompakt und Druckbetankung! Super! Ich heb auch die Pfote für eine Fortsetzung 🙂
Sehr anschaulich erklärt, vielen Dank. 💐
WOW, DANKE! Das hab ich gebraucht. Ich hab nun so vieles verstanden. Weil es jemand mal erklärt hat. Danke.
Für Synology gibt es die Seite von Marius. Der hat dort die besten Anleitungen der Welt.
Ja wie einige auch schon geschrieben haben ich liebe Portainer damit steuert man den docker über ne Web Oberfläche. Richtig schön und praktisch.
Bitte zu Portainer ein Video 😊 das wäre sehr cool! Vielen lieben Dank für dieses Video hier! Ich bin zwar schon einigermaßen im Server Game, aber diese simple Erklärung hat mir echt noch ein paar Dinge beantwortet. Thanks ❤
Danke für das Video - ein guter Einstieg in Docker.
Ich würde gerne noch mehr zu Docker sehen, insbesondere zu den besten Backup-Lösungen.
Wie bestimmt viele hier habe ich einen NAS, auf dem ich gerne Container- oder Konfigurations-Backups, z.B. von Nextcloud, Home Assistant oder auch Pi-hole speichern wollen würde.
Da ich aber keinen Linux-Server habe und bei mir alles über Windows läuft, interessiert mich besonders, wie ich Backups von Docker-Containern in WSL in Windows auf meinen NAS bekomme (auf dem ich keine Docker-Container laufen haben möchte.)
Bitte unbedingt weitere Folgen für die nächsten Schritte, zB Backups (wobei die Dienste sich da leider sehr unterscheiden), docker exec…
Schade ich habe gehofft das Video geht tiefer in die Details wie Docker Container tiefgehend funktionieren. Das wäre sehr interessant gewesen, aber um Einsteigern einen guten Start zu bieten ist euer Video trotzdem ziemlich gut, toller content weiter so.
PS: watchtower kannte ich auch noch nicht
Das ist zwar technisch sehr interessant, aber von einem 16Minuten 'Bin ich schon drin? Das war ja einfach.' ;-) Video nicht zu behandeln.
Das imho sehr sehr gute an Docker bzw. der Container Technik ist die flache Lernkurve, trotz der dahinter stehenden Tiefe.
Ich fand das Video schon ganz angemessen.
@@Polgarta natürlich ist das viel zu komplex um mal eben in einem 16min Video thematisiert zu werden, aber bei dem Titel docker verstanden gehe ich davon aus
@@forestcat512Ging mir wie Dir. Bei mir bleiben die selben Fragezeichen übrig wie vorher..
Was ist mit Containern, die die selbe Ressource referenzieren, zB eine DB. Wird die Ressource dann in jedem Container mitgeliefert? Das klingt im Video so, wäre dann aber eben dann doch übertrieben Ressourcen hungrig (weshalb ich das nicht glaube).
Noch spannender wären Infos, wie man die Container selbst erstellt usw.
Ich würde nicht sagen, dass ich nach dem Video verstanden habe, was Docker ist. Nur dass Container Installation an sich toll ist (was man vermutlich schon vorher weiß, wenn man auf das Video klickt).
Interessant war's aber trotzdem. Motivierend, sich weiter mit dem Thema zu befassen.
@@GrischaBrockhaus Container sind Standardmäßig isoliert, also wenn in beiden Container Python benötigt wird dann hast du auch quasi 2 mal Python herunterladen und installiert. Aber der Vorteil ist dass du an beiden Installationen unabhängig voneinander Veränderungen an der Python Runtime machen könntest, oder verschiedene Versionen nutzen könntest. Das mag ineffizient klingen, aber ist angesichts der Preise für Speicher mittlerweile eine sehr effektive Methode um Probleme durch gemeinsame Abhängigkeiten zu verhindern. Ja das Video erzeugt eigentlich hauptsächlich Begeisterung für das Thema Docker Generell aber die genauen technischen Details fallen dann halt hinten runter. Vielleicht wird daraus ja auch eine Serie :)
Eine Sidenote: Wenn man Docker Desktop unter Windows nutzt, ist Docker Desktop by default recht arbeitspeicherhungrig. Das verbraucht die Hälfte des Arbeitsspeichers, den man zur Verfügung hat. Das kann man aber in den Griff kriegen, indem man das in den erweiterten Einstellungen unter "memory limit" limitiert.
Me too! Bitte eine Serie machen 😊!
Cool! Gerne mehr zu dem Thema! Vor allem SSL würde mich interessieren! :)
Ich nutze Docker im Rahmen meiner Arbeiten als hardwarenaher Softwareentwickler gern. Es ist einfach sehr angenehm und Zeit sparend, wenn man in einem speziellen Software-Projekt die Build-Umgebung und alles, was es zum Erstellen des Binary braucht, zentral verwalten kann. Bevor ich Docker kennengelernt habe, war es immer sehr zeitaufwendig, das ganze SDK und den Build-Prozess auf seinem lokalen Rechner einzurichten. Dank Docker muss man nur noch das entsprechende Image ziehen und kann die Applikation direkt bauen. Es braucht nur jemanden, der das passende Dockerfile erstellt.
Hi, ich bin auch im embedded Systems unterwegs und konnte leider noch nicht mit Docker arbeiten, da ich 1. Docker noch nicht ganz verstanden habe. 2. Fehlt mir ein zentrales Startpunkt.
Wir nutzen sehr viele Pythonskripte für den Buildprozess auf Jenkins Wenn man alle Skripte, die Pythonumgebung und Compiler in einen Container packen könnte, dann kann Jenkins und jeder lokale Anwender diesen Container nutzen
Ist so das der Use-Case?
@BinGanzLieb ganz genau. Es braucht jemanden von euch, der das Image erstellt. Das Rezept zum Erstellen des Images wird im Dockerfile beschrieben.
+1 für den Nachklapp zum Thema "Backup and Restore".
Mich würde interessieren wo z.B. die Dateien von Nextcloud gespeichert werden. gehen die bei einem Update nicht verloren? Und wie funktionieren Backups bei Docker?
Bitte mehr solche Videos vielleicht auch mal mehr zu linux und befehlen das wäre cool. Gerade für linux Anfänger wäre es echt cool. Auch ein video wie man ein Linux Server erstellt und wie man ihn sicher von außerhalb über eine domain erreichbar macht wäre auch sehr interessant.
@@qualle1159 Linux ist learning by doing. Schau dir mal die anderen Videos zum Thema Heimserver an. Wenn man damit klar kommt, kann man vieles selbst und bekommt den Rest wahrscheinlich selbst geregelt. :)
Wie immer ein super Video, Danke! Macht doch mal einen Vergleich Docker vs Proxmox, bzw. Container vs VM.. Und was ist der Unterschied zw. Linux Containern (z.B. in Proxmox) und Docker Containern.
Einen gaaaanz wichtigen Vorteil habt ihr noch vergessen zu erwähnen (oder er hat nicht mehr in das mit Infos rappelvolle Video gepasst ;)): Container ersparen einem viele Kopfschmerzen mit Abhängigkeiten.
Jeder der schonmal einen Raspi hatte und dort nach und nach immer mehr installiert hat, hat da irgendwann bestimmt auch schonmal Probleme mit gehabt.
Wie wäre es mit einem CT-spezail Heft zu Docker Podman und Virtualisierung
12:45 Portainer bitte mehr dazu
Gibt's schon. c't Spezial Docker &Co von 2020.
Bitte Infos auffrischen und neu machen, dann kaufe ich es sofort😅😊
@@redfly7328 Ist in Planung :)
Klasse Keno. Die Frage nach dem Unterschied zwischen VMware und Docker hatte ich mir gleich zu Anfang Deines Videos gestellt. Hast Du ja am Schluss gleich beantwortet. 👍
Ein Tip noch: Ich habe dem Rechner auf dem Docker läuft mehrere IP Adressen geben. In den compose-Dateien gebe ich als Port dann 192.168.0.6:80:80 an und schon ist der Container unter dieser IP erreichbar. Damit umgehe ich den hussle das App1 unter Port 8080 läuft App2 unter 8081 und so weiter. Und man kann dann in pihole schöne eigene Domains vergeben.
Guter Tipp. Den kann man noch erweitern: Wenn man auf seinem Arrbeitsrechner mit Docker Dinge testet, will man die nicht unbedingt übers Netzwerk veröffentlichen. Dann einfach die Localhost-Adresse davor setzen: 127.0.0.1:80:80. Vom eigenen Browser kann man die Seite dann aufrufen, andere im Netzwerk nicht. (jam)
der hauptunterschied zwischen docker und podman ist, dass man in podman systemd in einem container benutzen kann, ist also quasi ein hybrid zwischen docker und einer VM!
das bedeutet dass man innerhalb eines podman containers mehrere dienste (also webserver und datenbankserver im gleichen container) starten lassen kann was bei docker nicht möglich ist
Super! Vielen Dank! Cooles Video, auch spitze zur Rekapitulation und Auffrischung.
Sehr spannend. Bitte mehr zu Docker!
Cool Keno, muss demnächst auch mit Docker hantieren. Schöner Einstieg & gerne Nachschlag! 😃
Gerne mehr zu Docker!
Wow, selbst ich als DevSecOps konnte etwas neues lernen... Ich hab schon einige Container gestartet und eingerichtet, aber watchtower und portainer kannte ich noch nicht und sind unfassbar gute services :D
Ich feiere deine Videos seit locker 4 Jahren... Danke für deine geilen Videos und bitte mehr von sowas :D
Was ist ein DevSecOps? 🤔
Ich kenne den Begriff als Philosophie/Arbeitsweise, aber nicht als Jobbezeichnung.
Super interessant!!!
mehr davon!
Danke!
LG
Sehr spannend, gerne mehr.
Mega danke, bitte mehr docker
Sehr gutes Video zu Docker! Der erste Schritt ist getan. Ich selbst "dockere" ja schon lange herum :D
feini
Bitte mehr solcher Videos, sehr interessant 👍🏻
Bahnhof Bahnhof, Bahnhof Bahnhof Bahnhof Docker, Bahnhof Bahnhof Linux. Hab mit Linux noch nie viel zutun gehabt. Super erklärt, eure Videos sind super
Docker nutzten auch nicht unbedingt viele 🤷♂ weil es welche gibt, die es tatsächlich nie brauchen, wie einige meiner Verwandten 🤷♂
@@Manfred-123 kannst docker auch in Windows nutzen, es gibt sogar Windows container. Aber würde da eher zu linux raten :)
niiice, direkt am Anfang meiner Kubernetes Vorlesung!
Danke!!❤
Cool, wo wird denn Kubenetes gelehrt und in welchem Fach?
nice, mehr zu dem Thema, ich bin nämlich seit dem Homeserver dabei und hab' mich in Docker verguckt.
Das war schon immer wieder Thema im Umfeld, aber so richtig wollte ich da nie dran.
Seit ich mir Unraid zugelegt habe, will ich mehr.
Also, hier ein weiterer Unterstützer für den Nachklapp ...
Ich muss auch noch was „verbessern“, bei 15:25 der Befehl „docker compos pull“ updatet auch nur wenn man bei den Containern keine Versionsnummer angegeben hat, und z.B. „latest“ benutzt hat! Ist nicht immer sinnvoll, manche Container (wie gitlab) brauchen eine spezielle Updatereihenfolge!
Die Wahl des richtigen Tags (in Verbindung mit einem Auto-Updater wie Watchtower) ist ein eigenes Kapitel auf dem Lernpfad zum Docker-Profi. Eine Anregung für alle, die es interessiert: Hinter dem Namen des Images steht ein Tag, getrennt per Doppelpunkt. Gibt man keinen an, nimmt docker immer :latest. Das ist nur selten klug, weil die Entwickler ja spontan eine neue Major-Version v2 raushauen könnten, die ganz anders funktioniert. Dann ist über Nacht alles kaputt. Deshalb: Schaut im Docker-Hub, welche Tags es sonst so gibt. Die meisten arbeiten nach dem Schema Semantic Versioning (SemVer) und bringen zum Beispiel die Tags :v1, v1.5 und v1.5.2 raus. Ich würde in dem Fall :v1 nehmen dann bekomme ich alle Updates der Version 1 von Watchtower automatisch installiert, einen Wechsel auf :v2 muss ich aber aktiv wollen und in der Compose-Datei eintragen. (jam)
ABO definitiv ON! Einfach herrlich Deine Beschreibung(en) für einen "Newbie".
Schließe mich hiermit einigen Vorrednern an!
Eine Art PLAYLIST/SERIE mit FOLLOW UP wäre eine SENSATION und sicherlich hilfreich, um sich in diese "fremde WELT" ein wenig einzuarbeiten.
Wie man an einigen Kommentaren erkennen kann, gilt es einiges zu berücksichtigen, wenn man zB. einen RASPI mit WEBSERVER, Datenbank, kleinem NAS, etc. ausstatten möchte.
Na da habt ihr ja gerade mal so an der Oberfläche gekratzt... Ich nutze Docker seit zwei Monaten ca. Ich habe auch einen Umzug von Pi auf MiniPC hinter mir... Erst auf dem Pi alles in Docker gebracht und zum laufen bekommen und danach umgestiegen auf einen MiniPC. War eigentlich gar nicht so schwer mehr, das alles auf dem MiniPC zum laufen zu bekommen... Für mich ist natürlich Backup ein wichtiges Thema. Vor allem ETH ist echt cool unter Docker, da geht einiges. Volumes im Docker Ordner und man hat alles zusammen. Per Portainer sind eigentlich die Stacks mega interessant. Im übrigen: Sollte man nur eine CLI von einem Docker Container haben, kann da die KI helfen es in eine nutzbare yaml Variante zu ändern. Ich habe auch festgestellt, dass es oft überhaupt kein yml gibt... Und dann? CoPilot weiß wie.
Danke für die Idee, dass die KI von docker run auf eine Compose-Datei übersetzen kann. Weil das alles streng nach Regeln funktioniert (die man nach wenig Einarbeitung auch alle im Kopf hat), braucht man nicht mal KI dafür. Es gibt ein paar Konverter-Projekte wie dieses hier: www.composerize.com (jam)
Gerne mehr :)
Super Video, gerne mehr davon bzw. in Themen etwas tiefer eintauchen.
❤❤Und nun bitte noch so einen schnellen Ritt für Kubernetes. 😁
Bitte mehr von Docker!
Hab vor kurzem auch Container Blut geleckt... ist einfach angenehmer, wenn man Systeme versionieren und migrieren muss. Auch wenn es hier und da zuerst sehr kompliziert ist
Am Anfang muss man viele Konzepte gleichzeitig lernen, wenn man die ersten Anwendungen in Containern betreiben will, das stimmt schon. Aber wenn man Images, Ports, Volumes und Umgebungsvariablen mal verinnerlicht hat, schaut man immer seltener in die Doku. Nach ein paar Wochen kommt der Punkt, ab dem man eine Docker-Compose-Datei ohne Hinzuschauen runterschreibt. (jam)
Sehr interessant ist auch DDEV was extrem einfach z.B. eine komplette Wordpress Umgebung mit Docker erstellt und sogar noch per https... nutzt auch Docker aber ohne das man eine Konfigurationsdatei erstellen muss.
Das mit den VMs stimmt meine ich nicht so ganz. Auf Linux wird das native Linux genutzt unter Mac/Windows wird ein "light" Image mit einem Linux gebaut. Die Performance unter Linux ist also besser, was aber nicht heißt das es unter MacOS schlecht wäre... im Gegenteil, das rennt wie sau und man merkt nicht das der komplette Stack in einem Container mit einer VM läuft. Genial!
Ja... das Thema ist angesagt und heiß.. gerade bei Entwicklern die auch mit Node.js, Frontend-Sachen oder auch PHP arbeiten und das früher vielleicht in VMware gemacht haben. Bitte mehr davon ;)
Bitte mehr davon. Bin letztens schon gescheitert bei meiner Nextcloud Installation. Aber so könnte ich dies eventuell hinbekommen. Nur HTTPS und andere Dinge um von außen darauf zugreifen zu Können fehlen noch.
Vielen Dank, das war genau meine Flughöhe! Nachklappen, por favor...
Tolles Video. Ich würde mich freuen wenn da noch mehr kommt
Schönes Video für den Einstieg 👍
Bitte unbedingt mehr zum Thema Docker. Ggf. auch im Zusammenspiel mit Homeserver
Hallo Keno
Mit deinen/euren Videos belästige ich gern meine Teilnehmer in meinen Kursen. Container folgen im nächsten Jahr.
Was gefehlt hat aus meiner Sicht. Die Container enthalten keine Daten! Die befinden sich im Dateisystem des Severs und müssen angebergt werde.
In der Praxis hatte ich oft Schwierigkeiten mit Containern, wenn diese verschiedene Kernel oder bestimmte Kernel brauchten.
Chaos extrem war die Folge.
Container sind ideal wenn man große Mengen gleichartige Dienste braucht, zb 1000de Mailserver.
Wenn man verschiedene Kernel braucht, braucht man VMs. Der zentrale Unterschied zwischen Container und VM: Eine VM bootet einen kompletten Kernel, ein Userland und darin Prozesse. Ein Container ist nur ein (etwas beschränkter) Prozess und alle Container teilen sich den Kernel des Betriebssystems darunter. Das macht sie halt sehr sparsam und die von dir angesprochenen Tausenden Container auf einer Maschine sind kein Problem.
Zu den persistenten Daten: Ja, das Thema haben wir nicht mehr ins Video gesteckt, weil es ein weiteres seeehr tiefes Fass werden kann. Es wird nicht das letzte Video zum Thema bleiben. (jam)
@@ct3003 meine muss ich in das Fass tauchen oder taufen?
Docker sudo rechte geben … also ich weiß ja nicht ob das wirklich eine gute Idee ist. Hier hätte ich mir zumindest gewünscht das ein Achtung hierzu ausgesprochen wird. Zudem ist der gravierende Unterschied zwischen Docker und Podman untergegangen. Podman kommt ohne Sudo-rechte aus!
Falls du auf "sudo usermod -aG docker $USER" anspielst, das gibt nicht Docker irgendwelche Rechte, sondern deinem User die Rechte der docker-Gruppe. Da ist kein Achtung nötig.
Klasse Video ..... gerne mehr...z.B. mit dem neuen Apple Mac mini M4 und dort Docker installieren wäre doch auch nice 😉
Docker ist ein richtig gutes Tool! Würde mich über eine Fortsetzung dieses Videos freuen!
Bitte das Thema mit den Zertifikaten (am besten die selbstsegnierten) und Backups für das zukünftige Video.
Solche Videos lassen die größten Supernerds dieser Welt heranrauschen, um unreflektiert und ungebeten Fragen zu beantworten, die niemand gestellt hat. Sie retten erst Linux, dann PHP und zum Schluss Euch alle - ob ihr wollt oder nicht. Geil!
Unbedingt mehr davon. Gutes Video
Tolles Video. Ich habe docker in einem LXC in meinem Proxmox zum „testen - lernen“🙂
Bitte unbedingt beachten, dass die Proxmox-Entwickler selbst dringend davon abraten, Docker in einem LXC zu installieren. Es gibt Berichte von Leuten, die damit in z.T. massive Probleme bis hin zu nicht mehr funktionierenden Proxmox-Instanzen reingerannt sind.
Top erklärt :)
Repsekt an den Cutter! :D Genial!
Nichts gegen deinen Kommentar, ich finde es nur gerade sehr lustig, dass RUclips mir unter deinem Kommentar einen Button mit der Beschriftung "Übersetzen in: Deutsch" anzeigt :D . Google-Übersetzer braucht wohl noch etwas Pflege^^...
@@astorek8611 Vermutlich Google´s Ki :D
das sieht ja aus als würdest du docker auf dem Proxmox host installieren ;-)
Schickes Video, vielen Dank Keno
Sehr gut beobachtet 😎