Die 3h Videos Einführung und Fortgeschritten haben mir so viel mehr gebracht als 5h LinkedIn-Learning. Und keine Sekunde gedanklich weggedriftet :) Wie einfach und angenehm es sein kann, Wissen zu erlangen. DANKE!!!!!
Genau den selben Gedanken hatte ich auch.. Das Einführungsvideo hat so viel in 100 min in meinen Kopf rein gedrückt und ich konnte nahe zu alles mitnehmen. Um das überhaupt hin zu bekommen, muss der Präsentator wirklich gewaltige Skills haben. Daher Hut ab an Herrn Roden.
Einfach top. Die Geschwindigkeit ist sehr gut, die Stimme angenehm der Inhalt genau richtig dosiert. Man merkt sofort dass hier fundiertes Wissen vorhanden ist. Ich liebe den Kanal jetzt schon.
Also ab dem Kapitel Netzwerk wirkt es so, als ob du zusätzlich auf einem Stepper stehst. Ganz außer Atem xD. Sensationeller Content. Wenn man sich schon etwas mit docker auskennt, fasst das Video alles Wissenswerte nochmal zusammen. Richtig Stark.
[gr] Vielen Dank 😊 Ja, das mit den Klarsichtfolien finde ich auch sehr schön anschaulich, nur beim Entfernen von Dateien greift es leider etwas zu kurz - aber ich denke, es wird trotzdem verständlich.
Ich bin sauer, sauer auf mich, dass ich die Videos erst jetzt gefunden habe. Wirklich super erklärt. Mit dem Wissen hätte ich mein letztes Projekt anders umgesetzt.
Da muss man nicht viel zu sagen. Alles top. Erklären kannst Du wie kein anderer. Man versteht einfach und schnell, ohne dass man viel Schnickschnack zu hören bekommt. Macht Spaß Dir zuzuhören und somit neues zu lernen bzw Skills zu erweitern :) 10/10
Danke, habe auch in Docker Teil II wieder viel dazu gelernt. Multi-Stage-Builds kannte ich noch gar nicht und die NETWORK Details nur oberflächlich. Freue mich schon auf die nächsten Teile der Docker Serie.
[gr] Vielen Dank, das freut mich 😊 Dann steht ja noch Docker-Compose aus, siehe ruclips.net/video/0jC5B9iTF_g/видео.html Und danach kommt dann Kubernetes … und dazu gibt's bald eine große Neuigkeit von uns 🎉
Wow super gut erklärt Golo. Du gehörst zu den besten Dozenten die ich erlebt hatte, die viel Wissen klar und verständlich vermitteln, viele der Dozenten können sich gerne ein Scheibe davon abschneiden. Weiter so, mein Abo hast Du auf jeden Fall😊
Danke für diese Serie! Wie schon beim letzten Video zu Docker konnte ich auch dieses mal wieder ein paar Sachen dazulernen- ich freue mich schon auf die nächsten Video zu Compose und Kubernetes. Könntet ihr vielleicht beim Kubernetes Video auch kurz ansprechen inwiefern Docker swarm noch relevant ist?
[gr] Das freut mich sehr 😊 Wegen Docker Swarm … genau dazu haben wir tatsächlich schon ein Video gemacht, siehe ruclips.net/video/HqEwEt0AS5w/видео.html Und, vermutlich auch sehenswert in dem Kontext: ruclips.net/video/5qU8WYqEe6s/видео.html
Danke für die Dockervideos. Ich als "old school" ITler habe bislang dieses Thema eher gemieden, aber man kommt wohl nicht drum rum. Deine Einführung ist gut verständlich und lebendig gestaltet. Du dürftest gerne noch mehr auf die "interna" eingehen. Z.B. ist mir aufgefallen das die User IDs bzw. Prozesse aus den Containern in der Prozessliste des Hosts auftauchen - die User-ID wird dabei 1:1 durchgereicht (was zu etwas Verwirrung führen kann). Auch wie Docker das mit dem Netzwerk realisiert (Stichwort iptables / nftables) wäre mal einen Blick wert.
[gr] Beides. Ich würde sagen, es ist eine Mischung aus Erfahrung, Ausprobieren, genauem Lesen der Handbücher, Tutorials nachvollziehen, und sich einiges zusammenreimen 😊
Super Content! Wenn ich das nur damals vor 2-3 Jahren zur Verfügung gehabt hätte, anstatt es auf die harte Tour zu lernen ... 😅 Ein paar Anmerkungen: Du hast beim Installieren von cURL vergessen, den Package Cache zu leeren, damit deine Layer kleiner werden. Und beim Zusammenfügen von Kommandos hätte man z.B. zeigen können, wie man ein Tar-Archiv mit wget lädt und den Output gleich in den stdin vom Entpackungsprogramm piped. Damit kann man ziemlich gut demonstrieren, wie sich die Größe der Docker Layer ändert 😉
Die Stelle geht bei 32:15 los und du erklärst dort, wie man mehrere Runs zusammenfügt, und zwar am Beispiel, dass man ggf. cURL / wget im Docker Container installiert haben möchte. Also ich hab bei vielen offiziellen Docker Images gesehen, dass man nach einem apt / apk update und einer darauf folgenden Installation von Packages den Paketindex wieder löscht, um Platz zu sparen. Hintergrund ist, dass man ja im Folgenden keine Pakete mehr installieren möchte und somit auch der Cache weg kann. Wenn man einen 2-Stage-Build macht, ist es vielleicht nicht so wichtig, weil man die Build-Stage sowieso wegwirft, aber ja... Manchmal muss man auch im Runtime-Teil erstmal ein apt Paket installieren und dann ist es vielleicht ganz gut zu wissen, wenn's später mal um jedes MB geht. Die Sache mit dem Tar ist aber auch ziemlich brisant. Von der Uni haben wir vor Jahren mal ein custom Hadoop-Image bekommen und der HiWi hat anscheinend die Docker Layer nicht verstanden gehabt. Er hat also zuerst das Tar in einem Run heruntergeladen, dann im nächsten Run entpackt und zum Schluss noch das Tar in nem dritten Run wieder gelöscht. Tja leider funktioniert Docker halt nicht so wie er gedacht hatte und er hat praktisch mehrere Hundert MB verschenkt 😂 Und das Streamen eines Tar-Downloads in ein Entpackungsprogramm ist bei Linux echt elegant, find ich zumindest. Das macht echt was her in ner Demo zum Angeben 😂
[gr] Danke für den Zeitstempel! Ja, das habe ich an der Stelle tatsächlich nicht erwähnt, weil ich ja kurz danach auf die Multi-Stage-Builds eingehe und das die meiner Meinung nach deutlich sauberere Variante ist, wie man das Problem lösen kann. Aber es stimmt natürlich, wenn man das nicht macht, dann ist es nicht verkehrt, zu wissen, dass man da auch wieder aufräumen sollte.
Super Video. Höre dir sehr gerne zu! Was ist eigentlich, wenn ich in meiner Postgres Datenbank Daten habe (dafür ist sie ja schließlich da ...). Wenn ich ein docker system prune ausführe, ist ja dann alles weg. Ist das richtig? Wie geht man denn bei sowas vor?
Mutti, mutti, mir wird schwindlig ... ;-) ... Golo, ich habe jetzt den einführenden Teil und den fortgeschrittenen Teil konsumiert und muss feststellen, daß ich endlich (!) das, was in sooo vielen YT-Beiträgen impliziert - aber leider nicht erklärt- wird, verstanden habe. Weil ? Weil die notwendigen Infos in 2 Beiträgen verständlich vermittelt wurden. Danke, Danke, Danke !!! P.S.: Jetzt geht es mit den Beiträgen zu docker-compose und kubernetes weiter - aber nicht am Stück ... ;-) P.P.S.: Man verzeihe mir den Otto-Walkes-Slang ... Ich konnte nicht anders
Danke! Sehr anschaulich erklärt! Eine Problem habe ich noch: wie würde man vorgehen, wenn man auf einen Port aus einem anderen Docker-Netzwerk zugreifen will? Ein Beispiel wäre: ich habe ein Mailsystem in einem Netzwerk und einen Webserver in einem andern Netzwerk. Jetzt will ich vom Webserver aus Mails verschicken und muss daher auf Port 25 des Mailsystem zugreifen.
[gr] Zu Swarm werden wir eher nichts machen, da wir Swarm schon seit geraumer Zeit zu Gunsten von Kubernetes nicht mehr verwenden, und - um es kurz zu machen - auch niemandem mehr dazu raten würden, noch auf Swarm zu setzen. Falls Dich die Unterschiede zwischen Swarm und Kubernetes interessieren (und warum wir eher zu Kubernetes raten würden), guck mal hier: ruclips.net/video/HqEwEt0AS5w/видео.html
Danke für das Video. Zu den Volumes habe ich noch eine Frage. Wenn die Volumes direkt von Docker verwaltet werden, sollte man sie dann eher für temporäre Daten verwenden und Daten, die dauerhaft persistiert (z.B. Datenbankfiles) werden sollen, am besten in Bind-Mounts speichern?
[gr] Gerne 😊 Zu Deiner Frage: Ich würde Bind-Mounts dann verwenden, wenn Daten vom Host gelesen oder so geschrieben werden sollen, dass sie sich auf dem Host direkt weiter verarbeiten lassen. Wenn beides nicht gegeben ist und der Zugriff nur aus dem Container erfolgt, genügt auch ein Volume.
1 Container = 1 Prozess so als Daumenregel. Wie sieht das aus, wenn ich mehrere Webseiten in apache oder nginx betreibe, die unterschiedliche Datenbanken bspw. in einer mysql anbinden. Mach ich dann pro Seite zwei Container?
die Erklärung von volumes ist ein bisschen zu kurz geraten. Wenn ich über einen Bind Mount ein Verzeichnis mit dedizierten Dateien in mein Image mounten kann, wie schaffe ich es dann Dateien in mein Volume zu bekommen die ich dann in meinen Container bekomme. Das Beispiel zeigt ja nur ein leeres Volume?
Hallo, gibt es einen "sauberen" Weg 2 Container mit Wordpress/mysql von einem amd64 Server auf einen raspi4 mit Docker (arm64v8) umzuziehen? VG Hardy und ein großes Lob für Deine Mühe!
[gr] Ich habe keine Erfahrung mit Wordpress, insofern kann ich spezifisch dazu nichts sagen. Unter der Annahme, dass die Images für ARM zur Verfügung stehen, sollte das eigentlich kein großer Aufwand sein: Im Prinzip musst Du lediglich von der MySQL ein Backup machen, die MySQL auf dem Raspberry hochfahren und das Backup dort wieder einspielen, und dann den Wordpress-Container hochfahren. Mehr sollte es eigentlich nicht sein (mit Betonung auf "eigentlich").
@@thenativeweb Das hat soweit geklappt - man muss aber die gleiche Version nehmen. Aber die Seiten sind dann sehr sehr langsam. Es musste bei mir doch mariadb sein - die läuft flüssig. Nur kann mariadb die MySQL-Db nicht importieren... Hab aber noch ne andere Frage: Ich würde gern mehrere Wordpressinstanzen mit nur einem Mariadb-Container nutzen. Bekomme es nicht hin. Hast Du da evtl. auch n Tipp oder kennst Du ne Anleitung im Netz? Ich hab bisher nix Brauchbares gefunden. VG Hardy
Super Video! Die Einführung war schon klasse, und die Fortsetzung ebenso :) Eine Sache nur, ich mach gerne immer parallel mit und dass mir die tsconfig.json gefehlt hat zum Bauen der typescript App, hat mich leider dann aufhören lassen müssen. Habe auch nichts auf GitHub gefunden unter "ddd-docker".
Die 3h Videos Einführung und Fortgeschritten haben mir so viel mehr gebracht als 5h LinkedIn-Learning. Und keine Sekunde gedanklich weggedriftet :) Wie einfach und angenehm es sein kann, Wissen zu erlangen.
DANKE!!!!!
[gr] Wow, vielen lieben Dank - so soll es doch sein 😊
Genau den selben Gedanken hatte ich auch.. Das Einführungsvideo hat so viel in 100 min in meinen Kopf rein gedrückt und ich konnte nahe zu alles mitnehmen. Um das überhaupt hin zu bekommen, muss der Präsentator wirklich gewaltige Skills haben. Daher Hut ab an Herrn Roden.
Selten, das ich mir so ein langes Video anschaue. Ich finde den Sprecher irgendwie sympatisch, wie er das alles erklärt. Vielen Dank und weiter so!
[gr] Danke schön 😊
Klar und auf das wesentliche konzentriert erklärt. Und das auf einem gewissen Niveau. Danke, sehr, sehr gut und sehr hilfreich.
Einfach top. Die Geschwindigkeit ist sehr gut, die Stimme angenehm der Inhalt genau richtig dosiert. Man merkt sofort dass hier fundiertes Wissen vorhanden ist. Ich liebe den Kanal jetzt schon.
Also ab dem Kapitel Netzwerk wirkt es so, als ob du zusätzlich auf einem Stepper stehst. Ganz außer Atem xD. Sensationeller Content. Wenn man sich schon etwas mit docker auskennt, fasst das Video alles Wissenswerte nochmal zusammen. Richtig Stark.
[gr] Haha, ja, da habe ich mich dann in Fahrt geredet 😊
Vielen Dank für das Lob, das freut mich sehr!
Sehr gute Erklärung mit den Klarsichtfolien für die Image Layer! So kann man auch den letzten abholen, was da so vor sich geht 🌺
[gr] Vielen Dank 😊
Ja, das mit den Klarsichtfolien finde ich auch sehr schön anschaulich, nur beim Entfernen von Dateien greift es leider etwas zu kurz - aber ich denke, es wird trotzdem verständlich.
Ich bin sauer, sauer auf mich, dass ich die Videos erst jetzt gefunden habe. Wirklich super erklärt. Mit dem Wissen hätte ich mein letztes Projekt anders umgesetzt.
Da muss man nicht viel zu sagen. Alles top. Erklären kannst Du wie kein anderer. Man versteht einfach und schnell, ohne dass man viel Schnickschnack zu hören bekommt. Macht Spaß Dir zuzuhören und somit neues zu lernen bzw Skills zu erweitern :) 10/10
[gr] Vielen, vielen Dank 😊
Ich nutze Docker schon länger, aber ich habe trotzdem eine Menge gelernt! - Danke!
Wirklich gut erklärt👍. Gerade das mit Deployment des Sourcecode auf einem Docker Container ist einfach so praktisch😊
Vielen lieben Dank 😊
Danke, habe auch in Docker Teil II wieder viel dazu gelernt. Multi-Stage-Builds kannte ich noch gar nicht und die NETWORK Details nur oberflächlich. Freue mich schon auf die nächsten Teile der Docker Serie.
[gr] Vielen Dank, das freut mich 😊
Dann steht ja noch Docker-Compose aus, siehe ruclips.net/video/0jC5B9iTF_g/видео.html
Und danach kommt dann Kubernetes … und dazu gibt's bald eine große Neuigkeit von uns 🎉
Wow super gut erklärt Golo. Du gehörst zu den besten Dozenten die ich erlebt hatte, die viel Wissen klar und verständlich vermitteln, viele der Dozenten können sich gerne ein Scheibe davon abschneiden. Weiter so, mein Abo hast Du auf jeden Fall😊
danke, sehr für die ausführliche und strukturierte Einführung.
Wieder ein sehr interessantes Video, vor allen Multi Stage Builds waren sehr interessant.
Vielen Dank.
[gr] Gern geschehen - und freut mich, wenn es gefallen hat 😊
Deine Videos sind echt hilfreich Danke für die tolle Arbeit und Danke an dein Team!
[gr] Danke für Dein Feedback 😊
Danke für das geteilte Wissen und ich bin sehr gespannt auf die weitere Videos
[gr] Vielen Dank 😊
Tolle Informationen, Golo. Danke dafür.
[gr] Gern geschehen ☺️
Danke für diese Serie! Wie schon beim letzten Video zu Docker konnte ich auch dieses mal wieder ein paar Sachen dazulernen- ich freue mich schon auf die nächsten Video zu Compose und Kubernetes. Könntet ihr vielleicht beim Kubernetes Video auch kurz ansprechen inwiefern Docker swarm noch relevant ist?
[gr] Das freut mich sehr 😊
Wegen Docker Swarm … genau dazu haben wir tatsächlich schon ein Video gemacht, siehe ruclips.net/video/HqEwEt0AS5w/видео.html
Und, vermutlich auch sehenswert in dem Kontext: ruclips.net/video/5qU8WYqEe6s/видео.html
Super Tutorial, wie immer. Danke😊
[gr] Das freut mich sehr, vielen Dank 😊
Dankeschön für diesen tollen Einsatz ❤
Danke für die Dockervideos. Ich als "old school" ITler habe bislang dieses Thema eher gemieden, aber man kommt wohl nicht drum rum. Deine Einführung ist gut verständlich und lebendig gestaltet. Du dürftest gerne noch mehr auf die "interna" eingehen. Z.B. ist mir aufgefallen das die User IDs bzw. Prozesse aus den Containern in der Prozessliste des Hosts auftauchen - die User-ID wird dabei 1:1 durchgereicht (was zu etwas Verwirrung führen kann). Auch wie Docker das mit dem Netzwerk realisiert (Stichwort iptables / nftables) wäre mal einen Blick wert.
[gr] Danke für das Lob und für Dein Feedback 😊
Das ist Gold. 🙏
[gr] danke ☺️
Ist es einfach Erfahrung oder woher holst du dir, bzw. woher holt man sich die Informationen die über das was in der Referenz steht hinaus gehen?
[gr] Beides. Ich würde sagen, es ist eine Mischung aus Erfahrung, Ausprobieren, genauem Lesen der Handbücher, Tutorials nachvollziehen, und sich einiges zusammenreimen 😊
Einfach ein super Video! Und sehr gut erklärt weiter so!
[gr] Vielen lieben Dank 😊
Super Content! Wenn ich das nur damals vor 2-3 Jahren zur Verfügung gehabt hätte, anstatt es auf die harte Tour zu lernen ... 😅
Ein paar Anmerkungen: Du hast beim Installieren von cURL vergessen, den Package Cache zu leeren, damit deine Layer kleiner werden. Und beim Zusammenfügen von Kommandos hätte man z.B. zeigen können, wie man ein Tar-Archiv mit wget lädt und den Output gleich in den stdin vom Entpackungsprogramm piped. Damit kann man ziemlich gut demonstrieren, wie sich die Größe der Docker Layer ändert 😉
[gr] Danke für das Lob und Dein Feedback!
Kannst Du mir wegen CURL kurz sagen, welche Stelle Du meinst? Also welchen Zeitstempel im Video?
Die Stelle geht bei 32:15 los und du erklärst dort, wie man mehrere Runs zusammenfügt, und zwar am Beispiel, dass man ggf. cURL / wget im Docker Container installiert haben möchte.
Also ich hab bei vielen offiziellen Docker Images gesehen, dass man nach einem apt / apk update und einer darauf folgenden Installation von Packages den Paketindex wieder löscht, um Platz zu sparen. Hintergrund ist, dass man ja im Folgenden keine Pakete mehr installieren möchte und somit auch der Cache weg kann. Wenn man einen 2-Stage-Build macht, ist es vielleicht nicht so wichtig, weil man die Build-Stage sowieso wegwirft, aber ja... Manchmal muss man auch im Runtime-Teil erstmal ein apt Paket installieren und dann ist es vielleicht ganz gut zu wissen, wenn's später mal um jedes MB geht.
Die Sache mit dem Tar ist aber auch ziemlich brisant. Von der Uni haben wir vor Jahren mal ein custom Hadoop-Image bekommen und der HiWi hat anscheinend die Docker Layer nicht verstanden gehabt. Er hat also zuerst das Tar in einem Run heruntergeladen, dann im nächsten Run entpackt und zum Schluss noch das Tar in nem dritten Run wieder gelöscht. Tja leider funktioniert Docker halt nicht so wie er gedacht hatte und er hat praktisch mehrere Hundert MB verschenkt 😂
Und das Streamen eines Tar-Downloads in ein Entpackungsprogramm ist bei Linux echt elegant, find ich zumindest. Das macht echt was her in ner Demo zum Angeben 😂
[gr] Danke für den Zeitstempel! Ja, das habe ich an der Stelle tatsächlich nicht erwähnt, weil ich ja kurz danach auf die Multi-Stage-Builds eingehe und das die meiner Meinung nach deutlich sauberere Variante ist, wie man das Problem lösen kann.
Aber es stimmt natürlich, wenn man das nicht macht, dann ist es nicht verkehrt, zu wissen, dass man da auch wieder aufräumen sollte.
Klasse, danke!
Super Video. Höre dir sehr gerne zu!
Was ist eigentlich, wenn ich in meiner Postgres Datenbank Daten habe (dafür ist sie ja schließlich da ...). Wenn ich ein docker system prune ausführe, ist ja dann alles weg.
Ist das richtig? Wie geht man denn bei sowas vor?
Alles fein. Alles drin. :)
[gr] Hach, das freut mich 😊
Mutti, mutti, mir wird schwindlig ... ;-) ...
Golo, ich habe jetzt den einführenden Teil und den fortgeschrittenen Teil konsumiert und muss feststellen, daß ich endlich (!) das, was in sooo vielen YT-Beiträgen impliziert - aber leider nicht erklärt- wird, verstanden habe. Weil ? Weil die notwendigen Infos in 2 Beiträgen verständlich vermittelt wurden. Danke, Danke, Danke !!!
P.S.: Jetzt geht es mit den Beiträgen zu docker-compose und kubernetes weiter - aber nicht am Stück ... ;-)
P.P.S.: Man verzeihe mir den Otto-Walkes-Slang ... Ich konnte nicht anders
Bester Mann 🙏🙏
[gr] Vielen Dank 😊
Top Video!
[gr] Danke schön 😊
Danke! Sehr anschaulich erklärt!
Eine Problem habe ich noch: wie würde man vorgehen, wenn man auf einen Port aus einem anderen Docker-Netzwerk zugreifen will? Ein Beispiel wäre: ich habe ein Mailsystem in einem Netzwerk und einen Webserver in einem andern Netzwerk. Jetzt will ich vom Webserver aus Mails verschicken und muss daher auf Port 25 des Mailsystem zugreifen.
Was für eine Theme benutzt du?
„Atom Dark One“ IIRC
Freue mich schon auf das Video zu compose. Email Antwort von mir kommt auch noch. Viele Gruesse :)
PS: Wird es auch noch eins zu Swarm geben?
[gr] Zu Swarm werden wir eher nichts machen, da wir Swarm schon seit geraumer Zeit zu Gunsten von Kubernetes nicht mehr verwenden, und - um es kurz zu machen - auch niemandem mehr dazu raten würden, noch auf Swarm zu setzen.
Falls Dich die Unterschiede zwischen Swarm und Kubernetes interessieren (und warum wir eher zu Kubernetes raten würden), guck mal hier: ruclips.net/video/HqEwEt0AS5w/видео.html
Danke für das Video. Zu den Volumes habe ich noch eine Frage. Wenn die Volumes direkt von Docker verwaltet werden, sollte man sie dann eher für temporäre Daten verwenden und Daten, die dauerhaft persistiert (z.B. Datenbankfiles) werden sollen, am besten in Bind-Mounts speichern?
[gr] Gerne 😊
Zu Deiner Frage: Ich würde Bind-Mounts dann verwenden, wenn Daten vom Host gelesen oder so geschrieben werden sollen, dass sie sich auf dem Host direkt weiter verarbeiten lassen.
Wenn beides nicht gegeben ist und der Zugriff nur aus dem Container erfolgt, genügt auch ein Volume.
1 Container = 1 Prozess so als Daumenregel.
Wie sieht das aus, wenn ich mehrere Webseiten in apache oder nginx betreibe, die unterschiedliche Datenbanken bspw. in einer mysql anbinden. Mach ich dann pro Seite zwei Container?
die Erklärung von volumes ist ein bisschen zu kurz geraten. Wenn ich über einen Bind Mount ein Verzeichnis mit dedizierten Dateien in mein Image mounten kann, wie schaffe ich es dann Dateien in mein Volume zu bekommen die ich dann in meinen Container bekomme. Das Beispiel zeigt ja nur ein leeres Volume?
Hallo, gibt es einen "sauberen" Weg 2 Container mit Wordpress/mysql von einem amd64 Server auf einen raspi4 mit Docker (arm64v8) umzuziehen? VG Hardy und ein großes Lob für Deine Mühe!
[gr] Ich habe keine Erfahrung mit Wordpress, insofern kann ich spezifisch dazu nichts sagen. Unter der Annahme, dass die Images für ARM zur Verfügung stehen, sollte das eigentlich kein großer Aufwand sein: Im Prinzip musst Du lediglich von der MySQL ein Backup machen, die MySQL auf dem Raspberry hochfahren und das Backup dort wieder einspielen, und dann den Wordpress-Container hochfahren. Mehr sollte es eigentlich nicht sein (mit Betonung auf "eigentlich").
@@thenativeweb Vielen Dank für die Info. Werde ich nachher mal testen. VG
@@german1966 [gr] Viel Erfolg 🍀
@@thenativeweb Das hat soweit geklappt - man muss aber die gleiche Version nehmen. Aber die Seiten sind dann sehr sehr langsam. Es musste bei mir doch mariadb sein - die läuft flüssig. Nur kann mariadb die MySQL-Db nicht importieren...
Hab aber noch ne andere Frage: Ich würde gern mehrere Wordpressinstanzen mit nur einem Mariadb-Container nutzen. Bekomme es nicht hin. Hast Du da evtl. auch n Tipp oder kennst Du ne Anleitung im Netz? Ich hab bisher nix Brauchbares gefunden. VG Hardy
[gr] Sorry für die späte Antwort. Was ist denn das Problem, wenn du einen Datenbank-Container für mehrere Instanzen nutzen möchtest?
👍👍👍
[gr] 😊
Super Video! Die Einführung war schon klasse, und die Fortsetzung ebenso :) Eine Sache nur, ich mach gerne immer parallel mit und dass mir die tsconfig.json gefehlt hat zum Bauen der typescript App, hat mich leider dann aufhören lassen müssen. Habe auch nichts auf GitHub gefunden unter "ddd-docker".
Habs mit pausieren abtippen können, weiß nicht ob ich alle exkludes habe, aber mit "node_modules" und "build", passt es zumindest
Super Video. Top erklärt. Vielen Dank!