Ich wollte anfangs nichts mit Docker zu tun haben. Aber mit der Zeit hat mich das Projekt überzeugt. Insbesondere, weil man ganz gut Sachen ausprobieren kann, ohne das Basis-System zu "vermüllen".
ja, docker ist cool, nutze ich seit vielen Jahren. Und ebenfalls ja: Docker mit Portainer ist einfach genial. Darüber könnte man tatsächlich eine ganze Serie erstellen. Auch darüber, wie man beim Neuaufsetzen von Containern seine Daten und Einstellungen beibehält (Stichwort Binds) oder wie man mit Hilfe von MACVLan die lästigen Ports überflüssig macht und Containerdienste mit eigener IP im Heimnetz betreibt. Bitte gerne mehr davon :)
Ich habe gerade Docker Compose unter OMV ausprobiert und bekomme jede Menge Error 500: internal Server Error, wenn ich Portainer installieren möchte. Das zeigen sie natürlich nicht im Video. 😕
So ein WordPress Container bringt ja sein MySQL DB gleich mit. Wo liegen dann die Daten? Diese müssen ja nach einem Neustart irgendwo auf einen persistenten Speicher liegen oder nicht ?
Keno, ihr erwähnt einfach nur Podman, ohne zu erklären, warum/wann man das benutzen kann. Sofern man die größeren Features wie Pods nicht nutzt, bleibt für mich noch der Punkt, dass es rootless arbeitet: Während Docker üblicherweise einen stets laufenden Serverprozess benötigt, laufen alle Podman-Container standardmäßig eingeschränkt unter dem eigenen Benutzerkonto und daher bietet Podman erstmal mehr Sicherheit - besonders für Leute, die es nur mal so ausprobieren wollen und die sich mit Docker vllt sudo-frei einrichten würden. Ich würde das grob mit Leuten vergleichen, die alle Programme unter ihrem Windows mit Administratorrechten ausführen. Prinzipiell eine schlechte Idee - und ein Grund, warum Podman überhaupt entstand.
Docker hat seit längerem einen Rootless Mode, der bei einigen Distris sogar schon Standard ist. Die EInschränkungen sind ungefähr die selben wie bei Podman.
die technisch etwas ausführlichere Erklärung, um einen Container von einer VM abzugrenzen ist: ein Container läuft komplett im Kernel des Hostsystems - lediglich in einem eigenen Namespace und damit isoliert vom Hostsystem. Namespaces werden im Kernel sowieso benutzt. Container verursachen also praktisch keinen Overhead
Genau, das ist der entscheidende Satz, den man nicht laut genug sagen kann: Ein Container verursacht keinen relevanten Overhead im Vergleich zum selben Prozess, der außerhalb eines Containers läuft! Es schadet also auch nicht, viele kleine Container zu starten. Es gab in den Anfangstagen von Docker viele Spezialisten, die versucht haben, möglichst viel in einen Container zu stopfen. Das ist besser geworden. (jam)
Wobei das jetzt noch sehr vom Host System abhängt, unter Linux läuft das ganze mit quasi null Overhead, da existieren all die benötigten Kernel Features, unter Mac und Windows läuft docker aber noch mal mit einer weiteren Abstraktionsschicht. Unter Windows war es zumindest mal eine VM in der ein Linux läuft und dort dann die Container, mittlerweile geht's über wsl. Bei Mac ist es meine ich auch immer noch eine VM
@zapl80 Jep, unter Windows und macOS läuft das in einer Virtualisierungsschicht und die kostet Ressourcen. Jedoch: Docker Desktop für diese beiden Betriebssysteme ist etwas für Entwickler. Darin baut man seine Images, programmiert seine Anwendung innerhalb von Containern und testet neue Versionen, bevor man sie auf den Server loslässt. Das Entwicklernotebook mit ≥16GByte RAM und aktuellem Prozessor kommt dabei wirklich nicht ins Schwitzen. (jam)
Ich habe privat und auf der Arbeit immer häufiger mit Docker zu tun und mir raucht jedes Mal der Schädel, euer Video konnte mir tatsächlich ein paar Hintergründe klarer gestalten, vielen Dank dafür!😃
wenn docker und incus sich gleichzeitig vertragen würden währe das geil aber docker macht an network iptables firewall config rum und incus macht dann probleme bridge br0 zu nutzem um IP im LAN für den LXC container zu kriegen. und dann muss man irgendwelche kommandos für iptables mit systemd autostart machen und aaaaaa, fuuu WHY DAMN -.-
Bitte mehr dazu, ich liebe es einfach wenn ihr(ct3003) Videos zu solchen Themen macht. Eure Videos sind für mich die,die ich am besten Verstehe und immer wieder ein "AHA" Moment habe.
Das Mapping von Volumes ist der nächste Schritt auf dem Weg zum Docker-Profi. Die Kurzform: Einen lokalen Ordner an einen Ordner im Container weiterzureichen, funktioniert ähnlich wie Portweiterleitungen mit einem Doppelpunkt in der Mitte ./lokaler-pfad:/pfad/im/container. Ausführliche Doku zu verschiedenen Arten von Volumes: docs.docker.com/engine/storage/volumes/ (jam)
Kann empfehlen grundsätzlich für jeden Container alle Volumes unter dem selben Pfad zu erstellen. Zum Beispiel: volumes: - /docker/appdata//data:/data - /docker/appdata//config:/config So hat man alles übersichtlich an einem Ort.
Sollte man auf alle Fälle machen! Genau genommen sind die Daten zwar nicht sofort weg, denn es werden in jedem Fall Volumes erstellt, die standardmäßig auch nicht gelöscht werden, bis man explizit aufräumt. Das ist auch der Grund, warum einem irgendwann die Platte vollläuft, wenn man da nicht drauf achtet.
Lieber Jan-Keno. Ich finde deine Videos echt super. Du erklärst immer so sympathisch und unterhaltsam. Ich wünsche dir und der ganzen Redaktion nur das Beste für die Zukunft.
Hätte mich vor ein paar Jahren sehr gefreut, so ein Video zu sehen. Das hätte mir die initialen Schmerzen vermutlich ein gutes Stück genommen. Ist denke ich echt gut geworden!
Ich habe auf meinem Debian (Bookworm) Server auch Docker laufen. Unter Docker läuft eine Jellyfin Instanz für mein Heimkino. Per SMB ist ein Laufwerk auf meinem 32TB NAS gemountet, auf denen meine Filme liegen. Ich habe auch Watchtower installiert. Ich habe selten ein so problemloses Konstrukt erlebt, wie diese Installation. Reboots, Updates, Netzwerkhuster oder was auch immer - spätestens nach einem Reboot funktioniert alles wieder. Natürlich laufen noch andere Docker Container parallel. Der Linux Debian Computer ist ein alter Fujitsu-Siemens Destop Office PC mit einem über 10 Jahren alten i5. Ich kann das wirklich empfehlen. Fire-and-forget - genau das, was ich ZUhause brauche ... Mich würde ein Beitrag zum Thema Backup von Containern intetessieren. 5 Benutzer parallel die Filme streamen - absolut kein Problem. Kaum erkennbahre Last auf dem Server. Und wech ...
Für mich sind diese Themen am interessantesten: - Thema Netzwerk: Wie steuere ich, wie Container erreichbar sind und untereinander kommunizieren können - Einbindung von Storage: Wie kann mein Container Daten persistent speichern (und sichern) - OS: Gibt es eine Distribution, die auf das Betreiben von Containern optimiert ist, oder ist die Distro egal (in eurem Beispiel wird auf die Paketverwaltung apt verwiesen, also empfehlt ihr Debian oder Utuntu?)
Habe selbst pi-hole jahrelang auf einen RasPi laufen lassen und habe mich immer gefragt, ob das nicht auch auf meine Synology NAS laufen könnte, da es ja immer angeschaltet und online ist. Erst dann bin ich auf Docker gestoßen 🙄Nun laufen viele meiner Lieblings-Apps endlich auf mein NAS wo ich nie dachte dass es nebenbei auch Docker laufen kann, da die Resourcen vom NAS ja eigentlich locker ausreichen. Aktuell habe Ich u.a. folgende Container am Laufen: Mealie, Navidrome, Bitwarden, pi-hole, Plex, etc. Da die Einrichtung von HTTPS über 'Let's Encrypt' sehr langwierig war, bin Ich auf jeden Fall an eine "Klappe" interessiert, die diesen Teil abdeckt. P.S.: Macht unbedingt ein Video über die Vor-/Nachteile von 'Self-Hosted' Apps wie z.B. Bitwarden (Einsparung von Lizenzgebühren) und Backup-Möglichkeiten.
SSL nervt. damit der browser nicht rumnervt brauch ich Let's Encrypt ---> Also wieder extra Miete Kosten für ne Domain ---> Kein Bock auf laufende Extra Kosten. Ich bau mir doch nicht nen homesorver um doch nem externen dienstleister bezahlen zu müssen.
Super cooles Video! Hätte ich vor ein paar Jahren gebraucht, die Basics hab ich mir selbst drauf geschafft. Trotzdem hab ich hier noch was gelernt. Gerne mehr davon und noch tiefer ins Detail!
Endlich mal jemand, der die Basics richtig erklärt und vor allem dabei passende praxis-Beispiele zeigt. :) Ich setze (vor allem) LAMP based Server seit Jahrzehnten bis Heute manuell auf und harde sie individuell nach Anforderung. (Ja, das ist aufwendig, am Ende ist es das aber meist auch wert.) Mit eigenen individuell erstellten Docker-Images könnte ich mir vermutlich doch so einiges an Arbeit sparen. Das Video hat zumindest den Wunsch danach wieder aufkommen lassen. Danke und Gruß aus Berlin nach Berlin: Wormaus
Das ist er ja wieder 🙂 -- Prima Video über Docker und Docker-Composer! Vielen Dank! -- Auf jeden Fall gerne weitere Videos zu dem Thema! Wer ein Synology NAS sein Eigen nennt, kann dort mit verschiedenen Modellen auch den Container-Manager nutzen (der früher auch Docker hieß). Auch hier entfällt die Kommando-Zeile und alles ist Clicki-Bunti
Wie immer extrem geil vorgestellt und Du machst damit für buchstäblich jeden den Weg frei, der Willens ist sein bisschen Hirn zu benutzen und es stimmt: Das Geld liegt auf der Straße und ist Dreck, der nebenbei hängenbleibt, wenn Du fit bist in so einem Thema und noch ein paar dazu, wie Cloud und Dev/Ops z.B. Einfach eine geile Arbeit und Welt in der ich mich total versenken kann.
Hallo Keno, mir geht es mit Docker genau wie von Dir beschrieben. Hab bisher auch 'nur' indirekte Erfahrungen über Unraid und mir fehlte noch der letzte Schritt/Tritt, Docker selbst mal auszuprobieren. Aber den habe ich jetzt von Dir bekommen . DANKE und gerne das Thema weitertreiben. Denn genau die Themen, die Du schon kurz genannt hast (Zertifikate, Backup ... braucht man auf jeden Fall wenn man etwas 'bleibendes' aufbauen will.
Hurra, Knallervideo! Und besser als meine Kollegen es mir erklärt haben! Der liebe Johannes vom Make Magazin hatte schon ein gutes Video vor einem Jahr gemacht, das ist in dieser Kombi nun unschlagbar. Wünsche mir nun nur noch Troubleshooting Hilfe bei Port Vergaben... 👌👌
Super video. Das erste Mal das jemand Docker wirklich einfach erklärt. Ich würde mich freuen über ein Video wie man mit Docker auf einem VPS (inkl. was muss der VPS Leisten können) einen Webserver mit NextCloud auf einer richtigen Domain + SSL Zertifikat einrichtet.
Sehr interessant ist auch DDEV was extrem einfach z.B. eine komplette Wordpress Umgebung mit Docker erstellt und sogar noch per https... nutzt auch Docker aber ohne das man eine Konfigurationsdatei erstellen muss. Das mit den VMs stimmt meine ich nicht so ganz. Auf Linux wird das native Linux genutzt unter Mac/Windows wird ein "light" Image mit einem Linux gebaut. Die Performance unter Linux ist also besser, was aber nicht heißt das es unter MacOS schlecht wäre... im Gegenteil, das rennt wie sau und man merkt nicht das der komplette Stack in einem Container mit einer VM läuft. Genial! Ja... das Thema ist angesagt und heiß.. gerade bei Entwicklern die auch mit Node.js, Frontend-Sachen oder auch PHP arbeiten und das früher vielleicht in VMware gemacht haben. Bitte mehr davon ;)
der hauptunterschied zwischen docker und podman ist, dass man in podman systemd in einem container benutzen kann, ist also quasi ein hybrid zwischen docker und einer VM! das bedeutet dass man innerhalb eines podman containers mehrere dienste (also webserver und datenbankserver im gleichen container) starten lassen kann was bei docker nicht möglich ist
Bzgl. Portainer hast du meiner Meinung nach noch etwas wichtiges vergessen zu erwähnen: Es gibt eine CE (Community Edition) und eine nicht-CE Version. Wenn ihr als Nutzer nicht irgendwann aufgefordert werden möchtet, für Portainer zu bezahlen, solltet ihr immer die CE Edition installieren! Das war einer meiner ersten Fehler, die ich auf meinen Rasperrypi gemacht hatte!
Yes. Die Firma hinter Portainer hat das Geschäftsmodell, dass der Kern der Software frei ist, Zusatzfeatures aber kosten. Mittlerweile "erinnern" sie auch recht prominent auf der Oberfläche, dass es auch noch Funktionen zu kaufen gibt. Das war früher nicht so stark der Fall. (jam)
Perfektes Timing, da ich mich gerade seit vorgestern intensiver mit Docker Desktop für Windows auseinandersetze. Gerne noch einen Teil 2 zum vertiefen. Themen-Ideen z.B. wie geht man mit Volumes (vielleicht auch im Netzwerk) um um die Daten zu persistieren? Kann man die dann auch mit mehreren Docker-Servern nutzen? Wie kann man Hardwareressourcen wie z.B. eine GPU einem Docker zur Verfügung stellen?
Danke für das Video - ein guter Einstieg in Docker. Ich würde gerne noch mehr zu Docker sehen, insbesondere zu den besten Backup-Lösungen. Wie bestimmt viele hier habe ich einen NAS, auf dem ich gerne Container- oder Konfigurations-Backups, z.B. von Nextcloud, Home Assistant oder auch Pi-hole speichern wollen würde. Da ich aber keinen Linux-Server habe und bei mir alles über Windows läuft, interessiert mich besonders, wie ich Backups von Docker-Containern in WSL in Windows auf meinen NAS bekomme (auf dem ich keine Docker-Container laufen haben möchte.)
Eine wirklich wichtige Sache fehlt. Erklärung, wie man Daten des Kontainers dauerhaft erhält. Sonst wird bei einem Update alles verloren gehen. Also Volumes hätten noch dazu gehört, und in dem Zuge gleich mitgenommen, dass in der docker-compose.yml immer nur der linke Bereich vom Doppelpunkt verändert werden darf.
Eine Sidenote: Wenn man Docker Desktop unter Windows nutzt, ist Docker Desktop by default recht arbeitspeicherhungrig. Das verbraucht die Hälfte des Arbeitsspeichers, den man zur Verfügung hat. Das kann man aber in den Griff kriegen, indem man das in den erweiterten Einstellungen unter "memory limit" limitiert.
Sehr schönes Video was betont wie einfach Docker ist. Ich Docker gerade auch für eine Liveshow (für Bühnen). Was leider nicht erwähnt wurde: - Skalierbarkeit mit Dockerswarm - Container alt? Container weg Container neu. Und das man Container zusammenstecken kann. Also SQL Container spricht mit Frontend. So bleibt über das es vieles einfacher macht, aber das ist nicht der Punkt. Wer Geld fürs aufsetzen bekommt ist es mehr oder minder egal. Aber Skalierbarkeit, Ausfallsicherheit, etc. Das sind (m.M.n) die Punkte
Ich nutze Docker im Rahmen meiner Arbeiten als hardwarenaher Softwareentwickler gern. Es ist einfach sehr angenehm und Zeit sparend, wenn man in einem speziellen Software-Projekt die Build-Umgebung und alles, was es zum Erstellen des Binary braucht, zentral verwalten kann. Bevor ich Docker kennengelernt habe, war es immer sehr zeitaufwendig, das ganze SDK und den Build-Prozess auf seinem lokalen Rechner einzurichten. Dank Docker muss man nur noch das entsprechende Image ziehen und kann die Applikation direkt bauen. Es braucht nur jemanden, der das passende Dockerfile erstellt.
Hi, ich bin auch im embedded Systems unterwegs und konnte leider noch nicht mit Docker arbeiten, da ich 1. Docker noch nicht ganz verstanden habe. 2. Fehlt mir ein zentrales Startpunkt. Wir nutzen sehr viele Pythonskripte für den Buildprozess auf Jenkins Wenn man alle Skripte, die Pythonumgebung und Compiler in einen Container packen könnte, dann kann Jenkins und jeder lokale Anwender diesen Container nutzen Ist so das der Use-Case?
portainer abstrahiert ganzschön viel weg und hat einige defaults, die gerne mal probleme machen, wenn man mit volumes nicht aufpasst. dockge ist da deutlich simpler (quasi nur ein web-ui für docker compose)
Aber sobald Mal was nicht läuft ist man aufgeschmissen. Ich musste paperless über portainer neu aufsetzen und alle Daten waren weg :( das mit den volumes Mappen sollte ich mir Mal genauer anschauen bzw. Docker von Grund auf lernen.
Bitte zu Portainer ein Video 😊 das wäre sehr cool! Vielen lieben Dank für dieses Video hier! Ich bin zwar schon einigermaßen im Server Game, aber diese simple Erklärung hat mir echt noch ein paar Dinge beantwortet. Thanks ❤
Wow, selbst ich als DevSecOps konnte etwas neues lernen... Ich hab schon einige Container gestartet und eingerichtet, aber watchtower und portainer kannte ich noch nicht und sind unfassbar gute services :D Ich feiere deine Videos seit locker 4 Jahren... Danke für deine geilen Videos und bitte mehr von sowas :D
Bitte mehr solche Videos vielleicht auch mal mehr zu linux und befehlen das wäre cool. Gerade für linux Anfänger wäre es echt cool. Auch ein video wie man ein Linux Server erstellt und wie man ihn sicher von außerhalb über eine domain erreichbar macht wäre auch sehr interessant.
@@qualle1159 Linux ist learning by doing. Schau dir mal die anderen Videos zum Thema Heimserver an. Wenn man damit klar kommt, kann man vieles selbst und bekommt den Rest wahrscheinlich selbst geregelt. :)
Klasse Keno. Die Frage nach dem Unterschied zwischen VMware und Docker hatte ich mir gleich zu Anfang Deines Videos gestellt. Hast Du ja am Schluss gleich beantwortet. 👍
Wie immer ein super Video, Danke! Macht doch mal einen Vergleich Docker vs Proxmox, bzw. Container vs VM.. Und was ist der Unterschied zw. Linux Containern (z.B. in Proxmox) und Docker Containern. Einen gaaaanz wichtigen Vorteil habt ihr noch vergessen zu erwähnen (oder er hat nicht mehr in das mit Infos rappelvolle Video gepasst ;)): Container ersparen einem viele Kopfschmerzen mit Abhängigkeiten. Jeder der schonmal einen Raspi hatte und dort nach und nach immer mehr installiert hat, hat da irgendwann bestimmt auch schonmal Probleme mit gehabt.
Mich würde interessieren wo z.B. die Dateien von Nextcloud gespeichert werden. gehen die bei einem Update nicht verloren? Und wie funktionieren Backups bei Docker?
Hab vor kurzem auch Container Blut geleckt... ist einfach angenehmer, wenn man Systeme versionieren und migrieren muss. Auch wenn es hier und da zuerst sehr kompliziert ist
Am Anfang muss man viele Konzepte gleichzeitig lernen, wenn man die ersten Anwendungen in Containern betreiben will, das stimmt schon. Aber wenn man Images, Ports, Volumes und Umgebungsvariablen mal verinnerlicht hat, schaut man immer seltener in die Doku. Nach ein paar Wochen kommt der Punkt, ab dem man eine Docker-Compose-Datei ohne Hinzuschauen runterschreibt. (jam)
Schade ich habe gehofft das Video geht tiefer in die Details wie Docker Container tiefgehend funktionieren. Das wäre sehr interessant gewesen, aber um Einsteigern einen guten Start zu bieten ist euer Video trotzdem ziemlich gut, toller content weiter so. PS: watchtower kannte ich auch noch nicht
Das ist zwar technisch sehr interessant, aber von einem 16Minuten 'Bin ich schon drin? Das war ja einfach.' ;-) Video nicht zu behandeln. Das imho sehr sehr gute an Docker bzw. der Container Technik ist die flache Lernkurve, trotz der dahinter stehenden Tiefe. Ich fand das Video schon ganz angemessen.
@@Polgarta natürlich ist das viel zu komplex um mal eben in einem 16min Video thematisiert zu werden, aber bei dem Titel docker verstanden gehe ich davon aus
@@forestcat512Ging mir wie Dir. Bei mir bleiben die selben Fragezeichen übrig wie vorher.. Was ist mit Containern, die die selbe Ressource referenzieren, zB eine DB. Wird die Ressource dann in jedem Container mitgeliefert? Das klingt im Video so, wäre dann aber eben dann doch übertrieben Ressourcen hungrig (weshalb ich das nicht glaube). Noch spannender wären Infos, wie man die Container selbst erstellt usw. Ich würde nicht sagen, dass ich nach dem Video verstanden habe, was Docker ist. Nur dass Container Installation an sich toll ist (was man vermutlich schon vorher weiß, wenn man auf das Video klickt). Interessant war's aber trotzdem. Motivierend, sich weiter mit dem Thema zu befassen.
@@GrischaBrockhaus Container sind Standardmäßig isoliert, also wenn in beiden Container Python benötigt wird dann hast du auch quasi 2 mal Python herunterladen und installiert. Aber der Vorteil ist dass du an beiden Installationen unabhängig voneinander Veränderungen an der Python Runtime machen könntest, oder verschiedene Versionen nutzen könntest. Das mag ineffizient klingen, aber ist angesichts der Preise für Speicher mittlerweile eine sehr effektive Methode um Probleme durch gemeinsame Abhängigkeiten zu verhindern. Ja das Video erzeugt eigentlich hauptsächlich Begeisterung für das Thema Docker Generell aber die genauen technischen Details fallen dann halt hinten runter. Vielleicht wird daraus ja auch eine Serie :)
Docker startet und stoppt Prozesse. Um die ganze Isolation zu schaffen benutzt es die Features von Linux wie "cgroups". Damit sehen die prozesse nichts. Und Container Image selbst ist nichts anderes als ein Archiv mit Dateien, welches vor dem Starten des Prozesses entpackt wird. Man kann Chatgpt Fragen: Bitte implementiere in Bash ein einfaches Container runtime. Ihr bekommt in so 20-30 Zeilen im Grunde das, was docker so macht.
nice, mehr zu dem Thema, ich bin nämlich seit dem Homeserver dabei und hab' mich in Docker verguckt. Das war schon immer wieder Thema im Umfeld, aber so richtig wollte ich da nie dran. Seit ich mir Unraid zugelegt habe, will ich mehr. Also, hier ein weiterer Unterstützer für den Nachklapp ...
Ich muss auch noch was „verbessern“, bei 15:25 der Befehl „docker compos pull“ updatet auch nur wenn man bei den Containern keine Versionsnummer angegeben hat, und z.B. „latest“ benutzt hat! Ist nicht immer sinnvoll, manche Container (wie gitlab) brauchen eine spezielle Updatereihenfolge!
Die Wahl des richtigen Tags (in Verbindung mit einem Auto-Updater wie Watchtower) ist ein eigenes Kapitel auf dem Lernpfad zum Docker-Profi. Eine Anregung für alle, die es interessiert: Hinter dem Namen des Images steht ein Tag, getrennt per Doppelpunkt. Gibt man keinen an, nimmt docker immer :latest. Das ist nur selten klug, weil die Entwickler ja spontan eine neue Major-Version v2 raushauen könnten, die ganz anders funktioniert. Dann ist über Nacht alles kaputt. Deshalb: Schaut im Docker-Hub, welche Tags es sonst so gibt. Die meisten arbeiten nach dem Schema Semantic Versioning (SemVer) und bringen zum Beispiel die Tags :v1, v1.5 und v1.5.2 raus. Ich würde in dem Fall :v1 nehmen dann bekomme ich alle Updates der Version 1 von Watchtower automatisch installiert, einen Wechsel auf :v2 muss ich aber aktiv wollen und in der Compose-Datei eintragen. (jam)
Bitte mehr davon. Bin letztens schon gescheitert bei meiner Nextcloud Installation. Aber so könnte ich dies eventuell hinbekommen. Nur HTTPS und andere Dinge um von außen darauf zugreifen zu Können fehlen noch.
Nett! Wirklich gut. Ich bin erfreut. Mit dem Zeug habe ich jeden Tag bei meiner Arbeit zu tun. Schöne YT Videos sind immer wieder inspirierend, wenn Leuten, wie Du, mit allem Respect bei den Basics, wo auch ich IMMER wieder beginnen muss, wenn a new docker comes up, der Kopf raucht. - Macht nix - Ich war genau an derselben Stelle und erinnere mich noch heute! Ich hab's nicht erfunden, aber gelernt bzw. lernen müssen. Danke für dieses YT-Video. Mach bitte weiter, so longe Du, JKJ, daran Gefallen findest. Ich jedenfalls bin begeistert und schon alt und weil ich weiß, wo von Du redest, kann ich nur "ALL TUMBS UP" signalisieren oder geben. Ach, es war/would have been/wäre(?) so viel mehr stressfreier gewesen, hätte es Leuten, wie Dich, JKJ, schon in der Zeit 2010 gegeben. Docker is great! A teachers like JKJ, teaching Docker is always the greatest everybody can find in the web! Best Regards Just from an old man from 68 👍 👍 👍 👍 Besser geht's kaum, dank JKJ, the most wanted presenter on Planet Earth. Doch! Er ist gut, weil ich das beurteilen kann. Warum? Weil ich schon zu alt erscheine. BJ68 ist sehr alt. -> So JKJ is a Black belt in IT and is more or less MWPoPE (Most wanted Presenter ... see above). 👍
Bin auf Docker gestoßen als ich angefangen hab miniconda/jupyter notebooks Umgebungen zu verwalten. Brauche diese für Python ML/Quantum computing Projekte. Man kommt schnell durcheinander bei speicherorte und welche pip Pakete installiert sind, Docker Images machen das um einiges einfacher und übersichtlicher!
ABO definitiv ON! Einfach herrlich Deine Beschreibung(en) für einen "Newbie". Schließe mich hiermit einigen Vorrednern an! Eine Art PLAYLIST/SERIE mit FOLLOW UP wäre eine SENSATION und sicherlich hilfreich, um sich in diese "fremde WELT" ein wenig einzuarbeiten. Wie man an einigen Kommentaren erkennen kann, gilt es einiges zu berücksichtigen, wenn man zB. einen RASPI mit WEBSERVER, Datenbank, kleinem NAS, etc. ausstatten möchte.
Hallo Keno Mit deinen/euren Videos belästige ich gern meine Teilnehmer in meinen Kursen. Container folgen im nächsten Jahr. Was gefehlt hat aus meiner Sicht. Die Container enthalten keine Daten! Die befinden sich im Dateisystem des Severs und müssen angebergt werde. In der Praxis hatte ich oft Schwierigkeiten mit Containern, wenn diese verschiedene Kernel oder bestimmte Kernel brauchten. Chaos extrem war die Folge. Container sind ideal wenn man große Mengen gleichartige Dienste braucht, zb 1000de Mailserver.
Wenn man verschiedene Kernel braucht, braucht man VMs. Der zentrale Unterschied zwischen Container und VM: Eine VM bootet einen kompletten Kernel, ein Userland und darin Prozesse. Ein Container ist nur ein (etwas beschränkter) Prozess und alle Container teilen sich den Kernel des Betriebssystems darunter. Das macht sie halt sehr sparsam und die von dir angesprochenen Tausenden Container auf einer Maschine sind kein Problem. Zu den persistenten Daten: Ja, das Thema haben wir nicht mehr ins Video gesteckt, weil es ein weiteres seeehr tiefes Fass werden kann. Es wird nicht das letzte Video zum Thema bleiben. (jam)
Na da habt ihr ja gerade mal so an der Oberfläche gekratzt... Ich nutze Docker seit zwei Monaten ca. Ich habe auch einen Umzug von Pi auf MiniPC hinter mir... Erst auf dem Pi alles in Docker gebracht und zum laufen bekommen und danach umgestiegen auf einen MiniPC. War eigentlich gar nicht so schwer mehr, das alles auf dem MiniPC zum laufen zu bekommen... Für mich ist natürlich Backup ein wichtiges Thema. Vor allem ETH ist echt cool unter Docker, da geht einiges. Volumes im Docker Ordner und man hat alles zusammen. Per Portainer sind eigentlich die Stacks mega interessant. Im übrigen: Sollte man nur eine CLI von einem Docker Container haben, kann da die KI helfen es in eine nutzbare yaml Variante zu ändern. Ich habe auch festgestellt, dass es oft überhaupt kein yml gibt... Und dann? CoPilot weiß wie.
Danke für die Idee, dass die KI von docker run auf eine Compose-Datei übersetzen kann. Weil das alles streng nach Regeln funktioniert (die man nach wenig Einarbeitung auch alle im Kopf hat), braucht man nicht mal KI dafür. Es gibt ein paar Konverter-Projekte wie dieses hier: www.composerize.com (jam)
Docker sudo rechte geben … also ich weiß ja nicht ob das wirklich eine gute Idee ist. Hier hätte ich mir zumindest gewünscht das ein Achtung hierzu ausgesprochen wird. Zudem ist der gravierende Unterschied zwischen Docker und Podman untergegangen. Podman kommt ohne Sudo-rechte aus!
Falls du auf "sudo usermod -aG docker $USER" anspielst, das gibt nicht Docker irgendwelche Rechte, sondern deinem User die Rechte der docker-Gruppe. Da ist kein Achtung nötig.
Solche Videos lassen die größten Supernerds dieser Welt heranrauschen, um unreflektiert und ungebeten Fragen zu beantworten, die niemand gestellt hat. Sie retten erst Linux, dann PHP und zum Schluss Euch alle - ob ihr wollt oder nicht. Geil!
Coole Sache mit Docker. Was noch interessant wäre, wie lässt sich Hardware wie z.B: eine zweite Festplatte oder meiner wegen ein USB Stick etc. In den Container durchreichen? Gerade bei Nextcloud wäre es interessant ein RAID Array für die Datenablage durch zu reichen.
Hiermit melde ich Interesse an dem "Nachklapp" an :-) Danke!
Moin. "Nachklappen" klingt gut. Tüdülüü ...
Ich würde mich auch über den „Nachklapp“ freuen 😉
Yo "Nachklapp" klingt gut 😬 habbewill
NACHSCHLAG
Top! Und bitte auch für mich mehr Infos 🙂
Finde es cool, dass ihr das Thema einem breiterem Publikum vorstellt!
Gut und einfach erklärt - gerne mehr davon! :)
Ich wollte anfangs nichts mit Docker zu tun haben. Aber mit der Zeit hat mich das Projekt überzeugt. Insbesondere, weil man ganz gut Sachen ausprobieren kann, ohne das Basis-System zu "vermüllen".
ja, docker ist cool, nutze ich seit vielen Jahren. Und ebenfalls ja: Docker mit Portainer ist einfach genial. Darüber könnte man tatsächlich eine ganze Serie erstellen. Auch darüber, wie man beim Neuaufsetzen von Containern seine Daten und Einstellungen beibehält (Stichwort Binds) oder wie man mit Hilfe von MACVLan die lästigen Ports überflüssig macht und Containerdienste mit eigener IP im Heimnetz betreibt. Bitte gerne mehr davon :)
Es hat schon seinen Grund warum (docker) container vor Jahren die Serverlandschaft im Sturm erobert haben. :-)
Ich habe gerade Docker Compose unter OMV ausprobiert und bekomme jede Menge Error 500: internal Server Error, wenn ich Portainer installieren möchte. Das zeigen sie natürlich nicht im Video. 😕
So ein WordPress Container bringt ja sein MySQL DB gleich mit. Wo liegen dann die Daten? Diese müssen ja nach einem Neustart irgendwo auf einen persistenten Speicher liegen oder nicht ?
@Air_Jordan-g8yvirtuelles Laufwerk oder direkt ein Pfad vom Host mounten.
Super Einstieg in die Welt von Docker. Sollte umbedingt als youtube Serie bis in die Tiefen von Docker weitergeführt werden. Danke.
Keno, ihr erwähnt einfach nur Podman, ohne zu erklären, warum/wann man das benutzen kann. Sofern man die größeren Features wie Pods nicht nutzt, bleibt für mich noch der Punkt, dass es rootless arbeitet: Während Docker üblicherweise einen stets laufenden Serverprozess benötigt, laufen alle Podman-Container standardmäßig eingeschränkt unter dem eigenen Benutzerkonto und daher bietet Podman erstmal mehr Sicherheit - besonders für Leute, die es nur mal so ausprobieren wollen und die sich mit Docker vllt sudo-frei einrichten würden. Ich würde das grob mit Leuten vergleichen, die alle Programme unter ihrem Windows mit Administratorrechten ausführen. Prinzipiell eine schlechte Idee - und ein Grund, warum Podman überhaupt entstand.
Docker hat seit längerem einen Rootless Mode, der bei einigen Distris sogar schon Standard ist. Die EInschränkungen sind ungefähr die selben wie bei Podman.
die technisch etwas ausführlichere Erklärung, um einen Container von einer VM abzugrenzen ist: ein Container läuft komplett im Kernel des Hostsystems - lediglich in einem eigenen Namespace und damit isoliert vom Hostsystem. Namespaces werden im Kernel sowieso benutzt. Container verursachen also praktisch keinen Overhead
Genau, das ist der entscheidende Satz, den man nicht laut genug sagen kann: Ein Container verursacht keinen relevanten Overhead im Vergleich zum selben Prozess, der außerhalb eines Containers läuft! Es schadet also auch nicht, viele kleine Container zu starten. Es gab in den Anfangstagen von Docker viele Spezialisten, die versucht haben, möglichst viel in einen Container zu stopfen. Das ist besser geworden. (jam)
Wobei das jetzt noch sehr vom Host System abhängt, unter Linux läuft das ganze mit quasi null Overhead, da existieren all die benötigten Kernel Features, unter Mac und Windows läuft docker aber noch mal mit einer weiteren Abstraktionsschicht. Unter Windows war es zumindest mal eine VM in der ein Linux läuft und dort dann die Container, mittlerweile geht's über wsl. Bei Mac ist es meine ich auch immer noch eine VM
@zapl80 Jep, unter Windows und macOS läuft das in einer Virtualisierungsschicht und die kostet Ressourcen. Jedoch: Docker Desktop für diese beiden Betriebssysteme ist etwas für Entwickler. Darin baut man seine Images, programmiert seine Anwendung innerhalb von Containern und testet neue Versionen, bevor man sie auf den Server loslässt. Das Entwicklernotebook mit ≥16GByte RAM und aktuellem Prozessor kommt dabei wirklich nicht ins Schwitzen. (jam)
@@zapl80 WSL2 (Docker Desktop kann nur diese als Alternative benutzen) ist auch eine VM mit einem echten Linux Kernel.
@@zapl80 aber WSL ist ja eigendlich auch ne VM. dauert ewig bis WSL gestartet ist.
Endlich jemand der es gut erklärt, danke ! :D
gut erklärt?
Ich habe privat und auf der Arbeit immer häufiger mit Docker zu tun und mir raucht jedes Mal der Schädel, euer Video konnte mir tatsächlich ein paar Hintergründe klarer gestalten, vielen Dank dafür!😃
wenn docker und incus sich gleichzeitig vertragen würden währe das geil aber docker macht an network iptables firewall config rum und incus macht dann probleme bridge br0 zu nutzem um IP im LAN für den LXC container zu kriegen. und dann muss man irgendwelche kommandos für iptables mit systemd autostart machen und aaaaaa, fuuu WHY DAMN -.-
Bitte mehr dazu, ich liebe es einfach wenn ihr(ct3003) Videos zu solchen Themen macht. Eure Videos sind für mich die,die ich am besten Verstehe und immer wieder ein "AHA" Moment habe.
Dran denken, wenn man die Ordner nicht mounted sind alle Daten mit dem Container weg (wichtig für Passwortmanager etc) sobald man diesen neu aufsetzt.
Das Mapping von Volumes ist der nächste Schritt auf dem Weg zum Docker-Profi. Die Kurzform: Einen lokalen Ordner an einen Ordner im Container weiterzureichen, funktioniert ähnlich wie Portweiterleitungen mit einem Doppelpunkt in der Mitte ./lokaler-pfad:/pfad/im/container. Ausführliche Doku zu verschiedenen Arten von Volumes: docs.docker.com/engine/storage/volumes/ (jam)
Kann empfehlen grundsätzlich für jeden Container alle Volumes unter dem selben Pfad zu erstellen.
Zum Beispiel:
volumes:
- /docker/appdata//data:/data
- /docker/appdata//config:/config
So hat man alles übersichtlich an einem Ort.
Sollte man auf alle Fälle machen!
Genau genommen sind die Daten zwar nicht sofort weg, denn es werden in jedem Fall Volumes erstellt, die standardmäßig auch nicht gelöscht werden, bis man explizit aufräumt. Das ist auch der Grund, warum einem irgendwann die Platte vollläuft, wenn man da nicht drauf achtet.
bei dem Satz "hat erst mal nichts mit Docker zu tun" hab ich auch schwer geschluckt. 🤨😏
Lieber Jan-Keno. Ich finde deine Videos echt super. Du erklärst immer so sympathisch und unterhaltsam.
Ich wünsche dir und der ganzen Redaktion nur das Beste für die Zukunft.
Hätte mich vor ein paar Jahren sehr gefreut, so ein Video zu sehen. Das hätte mir die initialen Schmerzen vermutlich ein gutes Stück genommen.
Ist denke ich echt gut geworden!
Nachklapp bitte.
Keno macht das immer klasse.
Ich habe auf meinem Debian (Bookworm) Server auch Docker laufen. Unter Docker läuft eine Jellyfin Instanz für mein Heimkino. Per SMB ist ein Laufwerk auf meinem 32TB NAS gemountet, auf denen meine Filme liegen. Ich habe auch Watchtower installiert. Ich habe selten ein so problemloses Konstrukt erlebt, wie diese Installation. Reboots, Updates, Netzwerkhuster oder was auch immer - spätestens nach einem Reboot funktioniert alles wieder. Natürlich laufen noch andere Docker Container parallel. Der Linux Debian Computer ist ein alter Fujitsu-Siemens Destop Office PC mit einem über 10 Jahren alten i5. Ich kann das wirklich empfehlen. Fire-and-forget - genau das, was ich ZUhause brauche ... Mich würde ein Beitrag zum Thema Backup von Containern intetessieren. 5 Benutzer parallel die Filme streamen - absolut kein Problem. Kaum erkennbahre Last auf dem Server. Und wech ...
jellyfin ist bei mir im ubuntu 24.04 LXC container installiert. (mit incus erstellt).
Host ist auch debian bookworm
KEEENO! Ich brauch das! Ein Video für ordentliche Container Backups! Vlt sogar am Beispiel einer containerized MySQL db? 😏
Docker und portainer sind einfach awesome
Keno bitte mehr, jetzt haste mein interesse an Dockers geweckt :D
Hey! Passend dazu würde ich nochmal einen Videowunsch pushen: sicheres und sinnvolles Backup eines unraid-Servers inklusive aller Daten und Docker. :)
Nicht nur an unraid..auch für Proxmox wäre ich interessiert
Für mich sind diese Themen am interessantesten:
- Thema Netzwerk: Wie steuere ich, wie Container erreichbar sind und untereinander kommunizieren können
- Einbindung von Storage: Wie kann mein Container Daten persistent speichern (und sichern)
- OS: Gibt es eine Distribution, die auf das Betreiben von Containern optimiert ist, oder ist die Distro egal (in eurem Beispiel wird auf die Paketverwaltung apt verwiesen, also empfehlt ihr Debian oder Utuntu?)
musste so lachen bei der Sequenz 3:57 grüße an die Motiongraphicsabteilung
Habe selbst pi-hole jahrelang auf einen RasPi laufen lassen und habe mich immer gefragt, ob das nicht auch auf meine Synology NAS laufen könnte, da es ja immer angeschaltet und online ist. Erst dann bin ich auf Docker gestoßen 🙄Nun laufen viele meiner Lieblings-Apps endlich auf mein NAS wo ich nie dachte dass es nebenbei auch Docker laufen kann, da die Resourcen vom NAS ja eigentlich locker ausreichen. Aktuell habe Ich u.a. folgende Container am Laufen: Mealie, Navidrome, Bitwarden, pi-hole, Plex, etc.
Da die Einrichtung von HTTPS über 'Let's Encrypt' sehr langwierig war, bin Ich auf jeden Fall an eine "Klappe" interessiert, die diesen Teil abdeckt.
P.S.: Macht unbedingt ein Video über die Vor-/Nachteile von 'Self-Hosted' Apps wie z.B. Bitwarden (Einsparung von Lizenzgebühren) und Backup-Möglichkeiten.
SSL nervt. damit der browser nicht rumnervt brauch ich Let's Encrypt ---> Also wieder extra Miete Kosten für ne Domain ---> Kein Bock auf laufende Extra Kosten. Ich bau mir doch nicht nen homesorver um doch nem externen dienstleister bezahlen zu müssen.
Super cooles Video! Hätte ich vor ein paar Jahren gebraucht, die Basics hab ich mir selbst drauf geschafft. Trotzdem hab ich hier noch was gelernt. Gerne mehr davon und noch tiefer ins Detail!
Colles und auch aktuelles Thema. Gerne nochmal eine Fortsetzung dazu und wie man dann auch https zum Fliegen bringt.
Endlich mal jemand, der die Basics richtig erklärt und vor allem dabei passende praxis-Beispiele zeigt. :)
Ich setze (vor allem) LAMP based Server seit Jahrzehnten bis Heute manuell auf und harde sie individuell nach Anforderung. (Ja, das ist aufwendig, am Ende ist es das aber meist auch wert.) Mit eigenen individuell erstellten Docker-Images könnte ich mir vermutlich doch so einiges an Arbeit sparen. Das Video hat zumindest den Wunsch danach wieder aufkommen lassen.
Danke und Gruß aus Berlin nach Berlin: Wormaus
Das ist er ja wieder 🙂 -- Prima Video über Docker und Docker-Composer! Vielen Dank! -- Auf jeden Fall gerne weitere Videos zu dem Thema! Wer ein Synology NAS sein Eigen nennt, kann dort mit verschiedenen Modellen auch den Container-Manager nutzen (der früher auch Docker hieß). Auch hier entfällt die Kommando-Zeile und alles ist Clicki-Bunti
Ich liebe die Videos. Sind immer gut verständlich und aufs nötigste reduziert. Vielen lieben Dank❗❤
Danke :) kurz und kompakt als Teaser zum Selbstprobieren 👍
Wie immer extrem geil vorgestellt und Du machst damit für buchstäblich jeden den Weg frei, der Willens ist sein bisschen Hirn zu benutzen und es stimmt: Das Geld liegt auf der Straße und ist Dreck, der nebenbei hängenbleibt, wenn Du fit bist in so einem Thema und noch ein paar dazu, wie Cloud und Dev/Ops z.B. Einfach eine geile Arbeit und Welt in der ich mich total versenken kann.
Super Video. Kurz und knapp das Wichtigste erklärt. Genau das, was ich gesucht habe! Danke 😊
Tolle Zusammenfassung ! Nachdem portainer erwähnt wurde, fehlt eigentlich nur noch eine Abhandlung zu dockge - finde ich zumindest ... ;-)
Hallo Keno, mir geht es mit Docker genau wie von Dir beschrieben. Hab bisher auch 'nur' indirekte Erfahrungen über Unraid und mir fehlte noch der letzte Schritt/Tritt, Docker selbst mal auszuprobieren. Aber den habe ich jetzt von Dir bekommen . DANKE und gerne das Thema weitertreiben. Denn genau die Themen, die Du schon kurz genannt hast (Zertifikate, Backup ... braucht man auf jeden Fall wenn man etwas 'bleibendes' aufbauen will.
Hurra, Knallervideo! Und besser als meine Kollegen es mir erklärt haben! Der liebe Johannes vom Make Magazin hatte schon ein gutes Video vor einem Jahr gemacht, das ist in dieser Kombi nun unschlagbar. Wünsche mir nun nur noch Troubleshooting Hilfe bei Port Vergaben... 👌👌
Kurz und knackig, sehr gut. Vielen Dank dafür.
Super video. Das erste Mal das jemand Docker wirklich einfach erklärt.
Ich würde mich freuen über ein Video wie man mit Docker auf einem VPS (inkl. was muss der VPS Leisten können) einen Webserver mit NextCloud auf einer richtigen Domain + SSL Zertifikat einrichtet.
Jetzt hab ich mal verstanden, warum alle so auf die Container abfahren 😂👍
Das klingt, als wärst du von Kollegen, Freunden oder anderen Menschen umgeben, die irgendwas mit Containern machen. (jam)
Sehr interessant ist auch DDEV was extrem einfach z.B. eine komplette Wordpress Umgebung mit Docker erstellt und sogar noch per https... nutzt auch Docker aber ohne das man eine Konfigurationsdatei erstellen muss.
Das mit den VMs stimmt meine ich nicht so ganz. Auf Linux wird das native Linux genutzt unter Mac/Windows wird ein "light" Image mit einem Linux gebaut. Die Performance unter Linux ist also besser, was aber nicht heißt das es unter MacOS schlecht wäre... im Gegenteil, das rennt wie sau und man merkt nicht das der komplette Stack in einem Container mit einer VM läuft. Genial!
Ja... das Thema ist angesagt und heiß.. gerade bei Entwicklern die auch mit Node.js, Frontend-Sachen oder auch PHP arbeiten und das früher vielleicht in VMware gemacht haben. Bitte mehr davon ;)
Danke Keno, das nenn ich mal Wissen kompakt und Druckbetankung! Super! Ich heb auch die Pfote für eine Fortsetzung 🙂
Top Video! Gerne mehr zu diesem Thema. Würde gerne mehr über Container Services der Cloudanbieter wissen.
der hauptunterschied zwischen docker und podman ist, dass man in podman systemd in einem container benutzen kann, ist also quasi ein hybrid zwischen docker und einer VM!
das bedeutet dass man innerhalb eines podman containers mehrere dienste (also webserver und datenbankserver im gleichen container) starten lassen kann was bei docker nicht möglich ist
Bzgl. Portainer hast du meiner Meinung nach noch etwas wichtiges vergessen zu erwähnen:
Es gibt eine CE (Community Edition) und eine nicht-CE Version.
Wenn ihr als Nutzer nicht irgendwann aufgefordert werden möchtet, für Portainer zu bezahlen, solltet ihr immer die CE Edition installieren!
Das war einer meiner ersten Fehler, die ich auf meinen Rasperrypi gemacht hatte!
Yes. Die Firma hinter Portainer hat das Geschäftsmodell, dass der Kern der Software frei ist, Zusatzfeatures aber kosten. Mittlerweile "erinnern" sie auch recht prominent auf der Oberfläche, dass es auch noch Funktionen zu kaufen gibt. Das war früher nicht so stark der Fall. (jam)
Drei Nodes also Docker server können als private oder schulungs zwecke gratis lizenziert werden.
Es gibt aber auch 3 Nodes Free auf der Portainer Seite, wenn man sich auf deren Seite registriert.
Man kann sich auch (kostenlos) die Business Version mit Lizenz installieren 😉
Finde es ziemlich schade, dass Portainer das Feature der 2 Faktor Authentifizierung hinter die "Paywall" versteckt hat.
Perfektes Timing, da ich mich gerade seit vorgestern intensiver mit Docker Desktop für Windows auseinandersetze.
Gerne noch einen Teil 2 zum vertiefen. Themen-Ideen z.B. wie geht man mit Volumes (vielleicht auch im Netzwerk) um um die Daten zu persistieren? Kann man die dann auch mit mehreren Docker-Servern nutzen? Wie kann man Hardwareressourcen wie z.B. eine GPU einem Docker zur Verfügung stellen?
Danke für das Video - ein guter Einstieg in Docker.
Ich würde gerne noch mehr zu Docker sehen, insbesondere zu den besten Backup-Lösungen.
Wie bestimmt viele hier habe ich einen NAS, auf dem ich gerne Container- oder Konfigurations-Backups, z.B. von Nextcloud, Home Assistant oder auch Pi-hole speichern wollen würde.
Da ich aber keinen Linux-Server habe und bei mir alles über Windows läuft, interessiert mich besonders, wie ich Backups von Docker-Containern in WSL in Windows auf meinen NAS bekomme (auf dem ich keine Docker-Container laufen haben möchte.)
Eine wirklich wichtige Sache fehlt. Erklärung, wie man Daten des Kontainers dauerhaft erhält. Sonst wird bei einem Update alles verloren gehen. Also Volumes hätten noch dazu gehört, und in dem Zuge gleich mitgenommen, dass in der docker-compose.yml immer nur der linke Bereich vom Doppelpunkt verändert werden darf.
Eine Sidenote: Wenn man Docker Desktop unter Windows nutzt, ist Docker Desktop by default recht arbeitspeicherhungrig. Das verbraucht die Hälfte des Arbeitsspeichers, den man zur Verfügung hat. Das kann man aber in den Griff kriegen, indem man das in den erweiterten Einstellungen unter "memory limit" limitiert.
Sehr schönes Video was betont wie einfach Docker ist. Ich Docker gerade auch für eine Liveshow (für Bühnen). Was leider nicht erwähnt wurde:
- Skalierbarkeit mit Dockerswarm
- Container alt? Container weg Container neu.
Und das man Container zusammenstecken kann. Also SQL Container spricht mit Frontend.
So bleibt über das es vieles einfacher macht, aber das ist nicht der Punkt.
Wer Geld fürs aufsetzen bekommt ist es mehr oder minder egal.
Aber Skalierbarkeit, Ausfallsicherheit, etc. Das sind (m.M.n) die Punkte
Ich nutze Docker im Rahmen meiner Arbeiten als hardwarenaher Softwareentwickler gern. Es ist einfach sehr angenehm und Zeit sparend, wenn man in einem speziellen Software-Projekt die Build-Umgebung und alles, was es zum Erstellen des Binary braucht, zentral verwalten kann. Bevor ich Docker kennengelernt habe, war es immer sehr zeitaufwendig, das ganze SDK und den Build-Prozess auf seinem lokalen Rechner einzurichten. Dank Docker muss man nur noch das entsprechende Image ziehen und kann die Applikation direkt bauen. Es braucht nur jemanden, der das passende Dockerfile erstellt.
Hi, ich bin auch im embedded Systems unterwegs und konnte leider noch nicht mit Docker arbeiten, da ich 1. Docker noch nicht ganz verstanden habe. 2. Fehlt mir ein zentrales Startpunkt.
Wir nutzen sehr viele Pythonskripte für den Buildprozess auf Jenkins Wenn man alle Skripte, die Pythonumgebung und Compiler in einen Container packen könnte, dann kann Jenkins und jeder lokale Anwender diesen Container nutzen
Ist so das der Use-Case?
@BinGanzLieb ganz genau. Es braucht jemanden von euch, der das Image erstellt. Das Rezept zum Erstellen des Images wird im Dockerfile beschrieben.
portainer abstrahiert ganzschön viel weg und hat einige defaults, die gerne mal probleme machen, wenn man mit volumes nicht aufpasst. dockge ist da deutlich simpler (quasi nur ein web-ui für docker compose)
ich bin als anfänger mit portainer voll reingerutscht, top verständlich alles ... kp läuft seit 3 Jahren alles was ich machen will.
Aber sobald Mal was nicht läuft ist man aufgeschmissen. Ich musste paperless über portainer neu aufsetzen und alle Daten waren weg :( das mit den volumes Mappen sollte ich mir Mal genauer anschauen bzw. Docker von Grund auf lernen.
Bitte zu Portainer ein Video 😊 das wäre sehr cool! Vielen lieben Dank für dieses Video hier! Ich bin zwar schon einigermaßen im Server Game, aber diese simple Erklärung hat mir echt noch ein paar Dinge beantwortet. Thanks ❤
Ja wie einige auch schon geschrieben haben ich liebe Portainer damit steuert man den docker über ne Web Oberfläche. Richtig schön und praktisch.
Wow, selbst ich als DevSecOps konnte etwas neues lernen... Ich hab schon einige Container gestartet und eingerichtet, aber watchtower und portainer kannte ich noch nicht und sind unfassbar gute services :D
Ich feiere deine Videos seit locker 4 Jahren... Danke für deine geilen Videos und bitte mehr von sowas :D
Was ist ein DevSecOps? 🤔
Ich kenne den Begriff als Philosophie/Arbeitsweise, aber nicht als Jobbezeichnung.
Bitte mehr solche Videos vielleicht auch mal mehr zu linux und befehlen das wäre cool. Gerade für linux Anfänger wäre es echt cool. Auch ein video wie man ein Linux Server erstellt und wie man ihn sicher von außerhalb über eine domain erreichbar macht wäre auch sehr interessant.
@@qualle1159 Linux ist learning by doing. Schau dir mal die anderen Videos zum Thema Heimserver an. Wenn man damit klar kommt, kann man vieles selbst und bekommt den Rest wahrscheinlich selbst geregelt. :)
Klasse Keno. Die Frage nach dem Unterschied zwischen VMware und Docker hatte ich mir gleich zu Anfang Deines Videos gestellt. Hast Du ja am Schluss gleich beantwortet. 👍
Cool! Gerne mehr zu dem Thema! Vor allem SSL würde mich interessieren! :)
Richtig gut erklärt, danke. Nun schau ich mal ob ich das hinbekomme was ich vorhabe.
Wie immer ein super Video, Danke! Macht doch mal einen Vergleich Docker vs Proxmox, bzw. Container vs VM.. Und was ist der Unterschied zw. Linux Containern (z.B. in Proxmox) und Docker Containern.
Einen gaaaanz wichtigen Vorteil habt ihr noch vergessen zu erwähnen (oder er hat nicht mehr in das mit Infos rappelvolle Video gepasst ;)): Container ersparen einem viele Kopfschmerzen mit Abhängigkeiten.
Jeder der schonmal einen Raspi hatte und dort nach und nach immer mehr installiert hat, hat da irgendwann bestimmt auch schonmal Probleme mit gehabt.
Bitte unbedingt weitere Folgen für die nächsten Schritte, zB Backups (wobei die Dienste sich da leider sehr unterscheiden), docker exec…
+1 für den Nachklapp zum Thema "Backup and Restore".
Sehr gutes Video zu Docker! Der erste Schritt ist getan. Ich selbst "dockere" ja schon lange herum :D
feini
Super! Vielen Dank! Cooles Video, auch spitze zur Rekapitulation und Auffrischung.
Me too! Bitte eine Serie machen 😊!
wenn ich dieses Viedeo zuEnde Geguckt habe.... habe ich also Docker Drauf... 0:32. (Skeptisch aber Offen für Wunder)
Sehr anschaulich erklärt, vielen Dank. 💐
Sehr spannend. Bitte mehr zu Docker!
Mich würde interessieren wo z.B. die Dateien von Nextcloud gespeichert werden. gehen die bei einem Update nicht verloren? Und wie funktionieren Backups bei Docker?
Hab vor kurzem auch Container Blut geleckt... ist einfach angenehmer, wenn man Systeme versionieren und migrieren muss. Auch wenn es hier und da zuerst sehr kompliziert ist
Am Anfang muss man viele Konzepte gleichzeitig lernen, wenn man die ersten Anwendungen in Containern betreiben will, das stimmt schon. Aber wenn man Images, Ports, Volumes und Umgebungsvariablen mal verinnerlicht hat, schaut man immer seltener in die Doku. Nach ein paar Wochen kommt der Punkt, ab dem man eine Docker-Compose-Datei ohne Hinzuschauen runterschreibt. (jam)
Schade ich habe gehofft das Video geht tiefer in die Details wie Docker Container tiefgehend funktionieren. Das wäre sehr interessant gewesen, aber um Einsteigern einen guten Start zu bieten ist euer Video trotzdem ziemlich gut, toller content weiter so.
PS: watchtower kannte ich auch noch nicht
Das ist zwar technisch sehr interessant, aber von einem 16Minuten 'Bin ich schon drin? Das war ja einfach.' ;-) Video nicht zu behandeln.
Das imho sehr sehr gute an Docker bzw. der Container Technik ist die flache Lernkurve, trotz der dahinter stehenden Tiefe.
Ich fand das Video schon ganz angemessen.
@@Polgarta natürlich ist das viel zu komplex um mal eben in einem 16min Video thematisiert zu werden, aber bei dem Titel docker verstanden gehe ich davon aus
@@forestcat512Ging mir wie Dir. Bei mir bleiben die selben Fragezeichen übrig wie vorher..
Was ist mit Containern, die die selbe Ressource referenzieren, zB eine DB. Wird die Ressource dann in jedem Container mitgeliefert? Das klingt im Video so, wäre dann aber eben dann doch übertrieben Ressourcen hungrig (weshalb ich das nicht glaube).
Noch spannender wären Infos, wie man die Container selbst erstellt usw.
Ich würde nicht sagen, dass ich nach dem Video verstanden habe, was Docker ist. Nur dass Container Installation an sich toll ist (was man vermutlich schon vorher weiß, wenn man auf das Video klickt).
Interessant war's aber trotzdem. Motivierend, sich weiter mit dem Thema zu befassen.
@@GrischaBrockhaus Container sind Standardmäßig isoliert, also wenn in beiden Container Python benötigt wird dann hast du auch quasi 2 mal Python herunterladen und installiert. Aber der Vorteil ist dass du an beiden Installationen unabhängig voneinander Veränderungen an der Python Runtime machen könntest, oder verschiedene Versionen nutzen könntest. Das mag ineffizient klingen, aber ist angesichts der Preise für Speicher mittlerweile eine sehr effektive Methode um Probleme durch gemeinsame Abhängigkeiten zu verhindern. Ja das Video erzeugt eigentlich hauptsächlich Begeisterung für das Thema Docker Generell aber die genauen technischen Details fallen dann halt hinten runter. Vielleicht wird daraus ja auch eine Serie :)
Docker startet und stoppt Prozesse.
Um die ganze Isolation zu schaffen benutzt es die Features von Linux wie "cgroups". Damit sehen die prozesse nichts.
Und Container Image selbst ist nichts anderes als ein Archiv mit Dateien, welches vor dem Starten des Prozesses entpackt wird.
Man kann Chatgpt Fragen:
Bitte implementiere in Bash ein einfaches Container runtime.
Ihr bekommt in so 20-30 Zeilen im Grunde das, was docker so macht.
Bitte mehr solcher Videos, sehr interessant 👍🏻
nice, mehr zu dem Thema, ich bin nämlich seit dem Homeserver dabei und hab' mich in Docker verguckt.
Das war schon immer wieder Thema im Umfeld, aber so richtig wollte ich da nie dran.
Seit ich mir Unraid zugelegt habe, will ich mehr.
Also, hier ein weiterer Unterstützer für den Nachklapp ...
Cool Keno, muss demnächst auch mit Docker hantieren. Schöner Einstieg & gerne Nachschlag! 😃
Ich muss auch noch was „verbessern“, bei 15:25 der Befehl „docker compos pull“ updatet auch nur wenn man bei den Containern keine Versionsnummer angegeben hat, und z.B. „latest“ benutzt hat! Ist nicht immer sinnvoll, manche Container (wie gitlab) brauchen eine spezielle Updatereihenfolge!
Die Wahl des richtigen Tags (in Verbindung mit einem Auto-Updater wie Watchtower) ist ein eigenes Kapitel auf dem Lernpfad zum Docker-Profi. Eine Anregung für alle, die es interessiert: Hinter dem Namen des Images steht ein Tag, getrennt per Doppelpunkt. Gibt man keinen an, nimmt docker immer :latest. Das ist nur selten klug, weil die Entwickler ja spontan eine neue Major-Version v2 raushauen könnten, die ganz anders funktioniert. Dann ist über Nacht alles kaputt. Deshalb: Schaut im Docker-Hub, welche Tags es sonst so gibt. Die meisten arbeiten nach dem Schema Semantic Versioning (SemVer) und bringen zum Beispiel die Tags :v1, v1.5 und v1.5.2 raus. Ich würde in dem Fall :v1 nehmen dann bekomme ich alle Updates der Version 1 von Watchtower automatisch installiert, einen Wechsel auf :v2 muss ich aber aktiv wollen und in der Compose-Datei eintragen. (jam)
Wie wäre es mit einem CT-spezail Heft zu Docker Podman und Virtualisierung
12:45 Portainer bitte mehr dazu
Gibt's schon. c't Spezial Docker &Co von 2020.
Bitte Infos auffrischen und neu machen, dann kaufe ich es sofort😅😊
@@redfly7328 Ist in Planung :)
Bitte mehr davon. Bin letztens schon gescheitert bei meiner Nextcloud Installation. Aber so könnte ich dies eventuell hinbekommen. Nur HTTPS und andere Dinge um von außen darauf zugreifen zu Können fehlen noch.
niiice, direkt am Anfang meiner Kubernetes Vorlesung!
Danke!!❤
Cool, wo wird denn Kubenetes gelehrt und in welchem Fach?
Nett! Wirklich gut. Ich bin erfreut. Mit dem Zeug habe ich jeden Tag bei meiner Arbeit zu tun.
Schöne YT Videos sind immer wieder inspirierend, wenn Leuten, wie Du, mit allem Respect bei den Basics, wo auch ich IMMER wieder beginnen muss, wenn a new docker comes up, der Kopf raucht. - Macht nix - Ich war genau an derselben Stelle und erinnere mich noch heute! Ich hab's nicht erfunden, aber gelernt bzw. lernen müssen.
Danke für dieses YT-Video. Mach bitte weiter, so longe Du, JKJ, daran Gefallen findest. Ich jedenfalls bin begeistert und schon alt und weil ich weiß, wo von Du redest, kann ich nur "ALL TUMBS UP" signalisieren oder geben. Ach, es war/would have been/wäre(?) so viel mehr stressfreier gewesen, hätte es Leuten, wie Dich, JKJ, schon in der Zeit 2010 gegeben. Docker is great! A teachers like JKJ, teaching Docker is always the greatest everybody can find in the web!
Best Regards
Just from an old man from 68
👍 👍 👍 👍
Besser geht's kaum, dank JKJ, the most wanted presenter on Planet Earth. Doch! Er ist gut, weil ich das beurteilen kann. Warum? Weil ich schon zu alt erscheine. BJ68 ist sehr alt. -> So JKJ is a Black belt in IT and is more or less MWPoPE (Most wanted Presenter ... see above).
👍
Gerne mehr zu Docker!
Schönes Video für den Einstieg 👍
Bin auf Docker gestoßen als ich angefangen hab miniconda/jupyter notebooks Umgebungen zu verwalten. Brauche diese für Python ML/Quantum computing Projekte.
Man kommt schnell durcheinander bei speicherorte und welche pip Pakete installiert sind, Docker Images machen das um einiges einfacher und übersichtlicher!
ABO definitiv ON! Einfach herrlich Deine Beschreibung(en) für einen "Newbie".
Schließe mich hiermit einigen Vorrednern an!
Eine Art PLAYLIST/SERIE mit FOLLOW UP wäre eine SENSATION und sicherlich hilfreich, um sich in diese "fremde WELT" ein wenig einzuarbeiten.
Wie man an einigen Kommentaren erkennen kann, gilt es einiges zu berücksichtigen, wenn man zB. einen RASPI mit WEBSERVER, Datenbank, kleinem NAS, etc. ausstatten möchte.
Cool erklärt. Wie würdet ihr 3 Raspi 5 mit M.2 verwenden ? Alles via Docker oder wie ?
Mega danke, bitte mehr docker
Super interessant!!!
mehr davon!
Danke!
LG
Hallo Keno
Mit deinen/euren Videos belästige ich gern meine Teilnehmer in meinen Kursen. Container folgen im nächsten Jahr.
Was gefehlt hat aus meiner Sicht. Die Container enthalten keine Daten! Die befinden sich im Dateisystem des Severs und müssen angebergt werde.
In der Praxis hatte ich oft Schwierigkeiten mit Containern, wenn diese verschiedene Kernel oder bestimmte Kernel brauchten.
Chaos extrem war die Folge.
Container sind ideal wenn man große Mengen gleichartige Dienste braucht, zb 1000de Mailserver.
Wenn man verschiedene Kernel braucht, braucht man VMs. Der zentrale Unterschied zwischen Container und VM: Eine VM bootet einen kompletten Kernel, ein Userland und darin Prozesse. Ein Container ist nur ein (etwas beschränkter) Prozess und alle Container teilen sich den Kernel des Betriebssystems darunter. Das macht sie halt sehr sparsam und die von dir angesprochenen Tausenden Container auf einer Maschine sind kein Problem.
Zu den persistenten Daten: Ja, das Thema haben wir nicht mehr ins Video gesteckt, weil es ein weiteres seeehr tiefes Fass werden kann. Es wird nicht das letzte Video zum Thema bleiben. (jam)
@@ct3003 meine muss ich in das Fass tauchen oder taufen?
Tolles Video. Ich würde mich freuen wenn da noch mehr kommt
Na da habt ihr ja gerade mal so an der Oberfläche gekratzt... Ich nutze Docker seit zwei Monaten ca. Ich habe auch einen Umzug von Pi auf MiniPC hinter mir... Erst auf dem Pi alles in Docker gebracht und zum laufen bekommen und danach umgestiegen auf einen MiniPC. War eigentlich gar nicht so schwer mehr, das alles auf dem MiniPC zum laufen zu bekommen... Für mich ist natürlich Backup ein wichtiges Thema. Vor allem ETH ist echt cool unter Docker, da geht einiges. Volumes im Docker Ordner und man hat alles zusammen. Per Portainer sind eigentlich die Stacks mega interessant. Im übrigen: Sollte man nur eine CLI von einem Docker Container haben, kann da die KI helfen es in eine nutzbare yaml Variante zu ändern. Ich habe auch festgestellt, dass es oft überhaupt kein yml gibt... Und dann? CoPilot weiß wie.
Danke für die Idee, dass die KI von docker run auf eine Compose-Datei übersetzen kann. Weil das alles streng nach Regeln funktioniert (die man nach wenig Einarbeitung auch alle im Kopf hat), braucht man nicht mal KI dafür. Es gibt ein paar Konverter-Projekte wie dieses hier: www.composerize.com (jam)
Bitte unbedingt mehr zum Thema Docker. Ggf. auch im Zusammenspiel mit Homeserver
Super Video, gerne mehr davon bzw. in Themen etwas tiefer eintauchen.
❤❤Und nun bitte noch so einen schnellen Ritt für Kubernetes. 😁
Docker sudo rechte geben … also ich weiß ja nicht ob das wirklich eine gute Idee ist. Hier hätte ich mir zumindest gewünscht das ein Achtung hierzu ausgesprochen wird. Zudem ist der gravierende Unterschied zwischen Docker und Podman untergegangen. Podman kommt ohne Sudo-rechte aus!
Falls du auf "sudo usermod -aG docker $USER" anspielst, das gibt nicht Docker irgendwelche Rechte, sondern deinem User die Rechte der docker-Gruppe. Da ist kein Achtung nötig.
Alleine für die eingebauten Bilder kann man mal Klatschen. Schön gelacht.
Solche Videos lassen die größten Supernerds dieser Welt heranrauschen, um unreflektiert und ungebeten Fragen zu beantworten, die niemand gestellt hat. Sie retten erst Linux, dann PHP und zum Schluss Euch alle - ob ihr wollt oder nicht. Geil!
Vielen Dank, das war genau meine Flughöhe! Nachklappen, por favor...
Coole Sache mit Docker.
Was noch interessant wäre, wie lässt sich Hardware wie z.B: eine zweite Festplatte oder meiner wegen ein USB Stick etc. In den Container durchreichen?
Gerade bei Nextcloud wäre es interessant ein RAID Array für die Datenablage durch zu reichen.
Über das devices: Attribut in Docker compose
Bitte mehr von Docker!
das sieht ja aus als würdest du docker auf dem Proxmox host installieren ;-)
Schickes Video, vielen Dank Keno
Sehr gut beobachtet 😎
Sehr spannend, gerne mehr.
Docker ist ein richtig gutes Tool! Würde mich über eine Fortsetzung dieses Videos freuen!
Als Softwareentwickler nutzt man taglich Docker, Kubernetes und Co. Ist in der modernen Softwareentwicklung kaum wegzudenken
Bitte das Thema mit den Zertifikaten (am besten die selbstsegnierten) und Backups für das zukünftige Video.
Klasse Video ..... gerne mehr...z.B. mit dem neuen Apple Mac mini M4 und dort Docker installieren wäre doch auch nice 😉