Schönes Video. Finde es richtig gut, dass du ein Video über deine Doktorarbeit machst. Auch super erklärt freut mich richtig. Schonmal herzlichen Glückwunsch zur Doktorarbeit. Ich denke in der Zukunft wird eine Ki uns prägen. Automatisieren war schon immer der größte Ansporn der Menschheit. Liebe Grüße vom Physik Kanal "EinfachPhysik"
Wirklich ein super-interessantes Thema. Da wird in den nächsten Jahren noch einiges passieren. Stellt euch vor, bald kann die KI lernen, wie man am effektivsten lernt ;) Bitte in Zukunft keine Cyberdyne-Aktien kaufen.... und Dr. Phil sollte Bundeskanzler werden.
@@thezodiak6666 Hi Du: *_"Stellt euch vor, bald kann die KI lernen, wie man am effektivsten lernt ;) "_* Genau! "Technologische Singularität" Wenn die KI lernt, wie man am effektivsten lernt, dann wird sie wahrscheinlich, schneller als exponentiell dazulernen. Gruß
Klar, weil ein KNN (ANN) KEIN Computer ist, sondern ein primitives Miniminiminimini-Gehirnleinchen, auch dann, wenn es auf einem Computer simuliert wird. Daher kommt auch diese Tendenz zum Faschismus und zum Rassismus. Weil sie so primitiv sind.
Ich habs durchgerechnet, mit meinem eigenen NN, und eine KI kann das nicht - so wie ich dich verstehe. Kognitionspsychologisch betrachtet wuerde er "denken" du sollst das denken, wenn er das tut.
Der Roboter kann garnichts ankreuzen 🥲 in dem Fall wäre es dann das Script, das geschrieben wurde (auf "Deutsch", der Code) bzw. der auch ggf. daraus resultierende Algorythmus.
Hi Philip. Erst mal mein Respekt zu Deinem Video. Echt gelungen ein komplexeres Thema einfach und authentisch zu vermitteln. Doch als Du über Eure genial einfache Methode durch künstlich erstellte Fotos und Videos, maschinelles Lernen so beeindruckend zu revolutionieren, erkannte ich das Ihr nichts geringeres als eine Imaginationsmethode bzw. Modell für ML entdeckt habt. Genial.
Grandiose Vorstellung Deiner Dissertation; vielen Dank dafür! In diesem Sinne, herzlichen Glückwunsch! Gerne weitere Videos über KI's! Wunderbar. TOP Video, genial!
Super Video. Da hast du dir ein paar echte Perlen des Deep Learning gesucht und toll behandelt. ich würde gerne deine Doktor- Arbeit lesen. Ich schreibe meine Master- Arbeit im Bereich Deep Learning und OCR. Mir gehen da nach deinem Video ein paar coole Sachen durch den Kopf. Es feuert. Danke.
Wow ich habe deine Technik an meinem Datensatz von meinem aktuellen Job angewendet und nach einem unglaublich kurzen Training mit teilweise weniger als 100 samples pro klasse trainiert und eine so gute Genauigkeit erhalten. Danke für das Video. Bei mir gehts jetzt mit Image Segmentation mit Transfer learning mit dem neu trainierten model weiter. Ich hoffe dadurch eine neue Technik für computer vision zu entwickeln.
Echt mal. Der/die gefilmt hat, wäre besser als Kameramann/frau bei einem Low Budget Horrorfilm aufgehoben. Bei diesem Video hier hätte ein Stativ einen 1000x besseren Job gemacht.
@@theultimateshadow7232 was für eine kacke schriebst du da? Ich habe Master in Informatik und mein Schwerpunkt ist AI. Natürlich verstehe ich das. Ist halt nichts neues. Selbst meine Masterarbeit liefert deutlich mehr Content als das.
Ein komplexes Thema sehr verständlich erklärt. Smarter und charismatischer Typ! Viel Erfolg bei der Verteidigung, wir werden es ja sehen, wenn der Kanal plötzlich "Dr. Phils Physik" heißt
Dieser Beitrag ist herausragend gut strukturiert und einfach zu verstehen. BEIDES ist auf diesem Feld außerordentlich selten anzutreffen. Danke dem Autor für die viele Arbeit! Denn beides macht sehr viel Arbeit für das (sein) Gehirn... Oder fällt ihm das vielleicht sogar leicht und er ist entsprechend begabt? Nun, eigentlich zählt nur das Ergebnis. Wer sagt das? Ein früherer IT-Berater mit Abschlüssen in Maschinenbau, Informatik und (analytischer) Philosophie.
Sehr schöner Überblick. Ich hab gerade meine Bachelorarbeit fertig zum Thema Verkehrsschilderkennung. Mach bitte ein Video, das mit diesem Thema mehr in die Tiefe geht, was dann zwar Leuten ohne Vorbildung nichts bringt aber Leuten mit ein wenig Erfahrung in dem Bereich umso mehr.
Interessantes Video! Toll dass du dein Wissen mit uns teilst. Kleine Anmerkung noch am Rande weil es danach schreit: Dieses Denglisch klingt abschreckend! Ob die Dinger nun „ struggeln“ oder ein „gelabeltes subset“ beinhalten oder „ungelabelt“ sind oder „randomly“ initialisiert werden, u.s.w....Es gibt auch wunderbar selbsterklärende und klare deutsche Bezeichnungen dafür. Im Übrigen auch für „Slides“, einen „failure case“ oder für den „nächsten großen approach“ :)
Super Video, Respekt. Zum optischen Flow: Davinci Resolve macht in der höchsten Transformationsstufe genau das, wenn man z.B. die Frame rate eines Videos von 30fps auf 60fps transformiert.
Sehr inspirierend! Zum Ende hast du gesagt du darfst es evtl. nicht veröffntlichen von der Uni aus, da bin ich etwas gespalten... Wissen sollte frei sein, aber natürlich muss entsprechender Datenklau mit Profihintergrund geahndet werden.
warum ändert sich die Anzahl der Zahlen von dem Diagramm in Minute 21 und 21:30 ? waren die restlichen Zahlen fehlerhaft oder wurde das neuronale Netzwerk nur trainiert und das Diagramm in 21:30 enthält neue Inhalte in Form von Zahlen
Unglaublich interessante Anwendungsmöglichkeiten! Ich hab zwar erst bald meinen Bachelor (Biologie), aber ich hoffe, dass mir deine Technologie irgendwann mal im Labor begegnet! Sowas nimmt mir hoffentlich in Zukunft mal viel Arbeit ab! ;)
@@fopperer Falsch. Als Wissenschaftler stehst du nicht 24/7 vor deinem Bildschirm und guckst Zellen an. Das ist Denksport, den in 100 Jahren noch keine Maschine annähernd hinkriegen wird. Wissenschaftler wird man nie ersetzen können.
Ich finde es toll, was solch ein Neuronales Netz heute schon kann. Wenn ich bei meinem iPhone in Bilder suche eingebe "Hund", dann sucht er alle Bilder für mich wo ein Hund drauf ist, ebenso wie Auto oder Kirche etc. Es gibt Kameras (Netatmo), die erkennen Gesichter. Wenn man sie benannt hat, kann die Software in der Kamera dir sagen: "Werner" wurde gesehen oder wenn ich es bin sagt sie Willkommen zuhause. Brauche nur in die Kamera sehen, einfach genial.
Bin nicht vom Fach, Thema ist interessant deswegen hab ich mir das Video angesehen. Finde es gut rübergebracht. Wäre es nicht möglich die KI die ja kein Mensch ist, sich nicht einfach selber entwickeln zu lassen? Ich meine das assoziieren gebündelt mit Augen ( Bilder & Videos / Bewegungen), Ohren (Geräusche, Sprache usw), vielleicht sogar Gerüchen? Es soll eigene Codes für das was es sieht erstellen und später vielleicht assoziieren, mit einem Mentor (Programmiere) an der Seite. Alles aufzeichnen um efür uns eine Art Übersetzung zu haben. Die KI als "neue" Lebensform?! Nur Gedanken Spielerei....
Vielen Dank für das Video! Sehr informativ und ein außerst spannendes Thema. Könntet ihr das in einem zukünftigen Video einmal praktisch umsetzen? Bspw. das trainieren von der Handschrift-Erkennung?
Auch wenns nicht mehr aktuell ist und ich wenns hoch kommt 10% verstanden habe. Es war sehr interessant. Ich würde gern wissen, hast du dann immer die selber "K.I." trainiert und wenn ja, wo speichert sie die ganzen daten und wie groß werden die daten durch mehrere lernphasen? Ich mach gerade aus spaß ein paar durchläufe der K.I. aus eurem 3teiler. Finde das voll spannend wie nah er immer an meine Zahl kommt. Würde gerne viel mehr machen, aber da muss ich erstmal bei 0 Anfangen hab die Programiersprache nie gelernt. Hab zwar mit DOS System angefangen zu zocken, aber das ist nicht das gleiche ;-) LG und danke für die ganzen Infos
Bis heute lässt sich diese Frage nicht beantworten. Wenn wir nicht wissen wie unser Gehirn funktioniert, dann wird es auch nicht möglich sein ein künstliches System zu erstellen, welches wie der Mensch lernt. Darüber hinaus unterliegen alle Algorithmen, welche man auf Computern ausführen kann, mathematischen Modellen. Man simuliert Intelligenz mit Hilfe von Mathematik und deren Teilgebieten wie z. B. Graphentheorie, Fuzzy-Mengen usw. Und hierbei liegt das große Problem. Unterliegt die Natur mathematischen Prinzipien oder ist die Mathematik nur von uns Menschen erfunden, um sie z. B. in der Physik zu nutzen, damit wir die Natur zu beschreiben können? Sollte der erste Fall zutreffen, wäre es zumindest theoretisch möglich Computer zu bauen, die genau wie wir Menschen lernen. Weiterführend wäre das ein Hinweis darauf, dass das Universum in dem wir leben eine Simulation ist, denn dafür ist nun mal eine Berechnungsvorschrift notwendig. Ich persönlich GLAUBE aber daran, dass die Natur keine Mathematik kennt und wir Menschen die Mathematik benutzen, um sie zu beschreiben. Daraus kann man folgern, dass es nicht möglich ist künstliche Systeme, welche mit Mathematik funktionieren, so lernen zu lassen wie natürliche Systeme (z. B. der Mensch), die ohne Mathematik auskommen. Achtung! Ich rede hierbei von der Implementierung der Lernverfahren. Das bedeutet nicht, dass kein Mensch Mathematik kann! Darüber hinaus existiert noch das Problem der endlichen Präzision von Computern. So lassen sich z. B. Fließkommazahlen (z. B. die Naturkonstante Pi) nicht mit unendlicher Präzision darstellen.
Ich befinde mich im 3. Semester des Masterstudiums der Informatik, lese sehr viel und schaue sehr viele Videos und Dokumentation. Da sollte man sowas wissen. Natürlich werde ich mir nicht anmaßen genau so viel über das Themengebiet "KI" bzw. um genauer zu sein "CI" zu wissen, wie jemand der darin promoviert hat wie z. B. Phil Physics. Es ist jetzt auch nicht das worauf ich mich spezialisiere. Man kommt aber nicht um dieses Themengebiet herum :) Ich hatte mal im Bachelorstudium 3 Vorlesungen in diesem Themengebiet. Ich fand das ganz interessant. Davor konnte ich mir nie vorstellen, wie Computer lernen können. Durch die Vorlesungen hat man aber sehr schnell gemerkt, dass das absolut kein Hexenwerk ist und vor allem, dass das keine neue Erfindung ist. Wenn ich mich richtig entsinne, bestehen die grundlegenden Algorithmen für neuronale Netze schon seit den 60ziger Jahren. Da man allerdings nur über sehr geringe Rechenpower verfügte, hatten diese nicht sonderlich viele Anwendungsgebiete und verloren etwas Beachtung. Heutzutage hat man diese Rechenpower und die notwendigen Protokolle und Paradigmen. Man hat nicht nur wesentlich stärkere Prozessoren und schnelleren Arbeitsspeicher, sondern man auch Methoden, um diese noch sehr stark zu skalieren (ohne das man sich verbiegt), indem man z. B. die lokale Rechenpower verbessert durch hinzunahme der Grafikkarte, welche jeden Prozessor im Bereich Parallelisierung schlägt (ich glaube KI Frameworks wie PyTorch oder TensorFlow nutzen dieses Konzept ganz stark um überwachtes Lernen extrem zu verbessern) oder man nutzt gar ganze Rechencluster. Daraus entstand dann schließlich der Modebegriff Deep Learning.
@@johannes-7710 Ähm zu was genau jetzt? :D AI? Durch den Hype gibt es dazu doch Tonnenweise Literatur. Ich weiß jetzt nicht wie Tief du in der Informatik drin bist, aber ich empfehle für sowas erstmal ein Tutorial. Dadurch kommt man auch besser in die Thematik hinein, ohne sich zu tief mit der Mathematik befassen zu müssen. Das ist ähnlich wie beim Autofahren. Ich muss nicht genau wissen wie ein Auto fährt oder warum es fährt, um ein Auto fahren zu können. Ich muss nur die Schnittstellen kennen (Lenkrad, Gaspedal usw.). Wie genau es funktioniert, dass kann im Anschluss kommen.
Das ist ein sehr nützlicher Ansatz! Es wundert mich aber, dass mit der doppelten Assoziationsfunktion die Schätzgüte besser ist als wenn man einfach die klassische Prognose hernimmt. Ich dachte, dass mit der Backpropagation der Informationsgehalt schon maximal ausgeschöpft würde. Vor Allem wundert es mich, dass die Assoziation richtungsabhängig ist. Ist aber echt cool, dass man mit solchen probabilistischen Tricks noch mehr aus seinen Daten herausholen kann. Wird das auch demnächst in Tensorflow implementiert bzw. kommen Vorlagen raus oder muss man es sich noch selber zusammenbasteln?
Ich glaube Leute die auf der Suche nach dem "i" scheitern haben nicht genug Kapazitäten in ihrem neuronalen Netz für mehr Infos zu neuronalen Netzwerken :D aber definitiv ein interessantes Video und ein spannendes Thema!
So lieb ich deine Videos, ich hatte richtig Spaß beim Anschauen. Und wenn es um Informatik geht bin ich nicht wirklich der Beste, aber du hast es echt gut erklärt, sodass auch ich etwas aus dem Video mitnehmen konnte. Meine Frage wäre: Es gibt ja diese Tests, die schauen sollen, ob man ein "Mensch" oder eine "Maschine" ist, bei denen man z. B. alle Bilder, die eine Hausnummer/ Katze zeigen, anklicken muss, um zu zeigen, dass man ein "Mensch" ist. Könnte ein gut programmiertes neuronales Netzwerk so etwas dann meistern? Falls das so wäre, wie könnte man einen Test gestalten (also Datensatz), den ein Netzwerk nicht schafft (oder deutlich schwerer)? Wäre das dann z. B. eine sehr sehr spezifische Frage wie: "Klicke alle Bilder mit grau-schwarz gestreiften Katzen mit grünen Augen an."? Aber auf jeden Fall nochmal großes Lob für das schöne Video👍🏻🙂
Das, was du meinst, heißt reCAPTCHA und ist von Google. Wird für seine Einfachheit gelobt und immer wieder kritisiert für Anti-Datenschutz, Anti-Barrierefreiheit und dafür, dass du kostenlos Arbeit für Google übernimmst (um Google Maps zu verbessern oder was auch immer).
Devon Ah, danke für den Hinweis, das, was ich so kurz dazu gelesen habe, ist ja wirklich interessant, wie und wieso die das machen. Damit haben die früherer analoge Bücher digitalisiert und dann als die KIs die Wörter auch lesen konnten haben sie dann die Buchstaben und Zahlen verzerrt, und dann konnten KIs das auch irgendwann und dann sind sie wohl zu diesen Bildern übergegangen. Aber noch cooler sind ja diese Boxen, die man nur mit einem Hacken versehen muss. Die schickt dann die Daten zu der Bewegung deines Mauszeigers, wie schnell du scrollst etc. von ein paar Sekunden vor dem Drücken des Kästens ab. Und anhand dieser Daten wird dann festgestellt, ob du ein "Mensch" bist oder nicht. Das ist ja wirklich hammermäßig. Die Analyse von deinem Verhalten bezüglich scrollen und der anderen Parameter wird wahrscheinlich auch von einer KI gemacht, oder? Das wäre dann ja KI gegen KI. Die eine versucht immer besser das Konzept "menschlich" anzuwenden, während die andere versucht immer besser das Konzept "menschlich" zu verstehen
Diese konzept "ki gegen ki" wird tatsächlich mamchmal angewandt um neuronale netzwerke zu trainieren und noch besser zu machen. Google macht das wahrscheinlich auch, indem sie immer bessere kis versuchen lassen die recaptchas zu überwinden um damit die eigentliche ki trainieren, diese versuche als computer zu identifizieren
Hi, super tolle Sache, ich mache es auch so das ich Trainingsdaten erzeuge inklusive Lösung und dann das Netzwerk mit tanh Aktivierungsfunktion, aber auch mal mit Sigmoid Funktion, lernen lasse. Wieviele Trainingsdaten probiere ich und gucke mir das graphisch an. In der Zukunft werde ich das Lernergebnis von einer weiteren Ki dann klassifizieren lassen, dann muss auch ich nicht mehr dabei sein und kann mich auf die Implementierung eines Langzeitspeichers konzentrueren. Ich nutze aber keine komplexen Bilder sondern logische Gatter wie C-not usw. In den Diagrammen kann man sehr schön sehen wie das Netz Gwichtungen durchführt und immer besser wird bis es dann fast schlagartig immer richtig liegt aber manchmal halt doch noch falsch ist, sehr selten aber wie ein Mensch vertut man sich ja doch hier und da und das Netz macht das auch so und durch verschiedene konfigurationen von Netzparametern kann ich das lenken, vom Sonderschüler bis zum Doktor kann ich quasie alles einstellen. Schon cool.
Hi. Falls dich die Frage überhaupt noch erreicht... 18:27 Am Anfang ist das Neuronale Netz Zufallsgeneriert. Was ist, wenn man alle Neuronen mit dem selben Wert initialisiert? Macht es einen Unterschied, wenn man jede Schicht, mit jeweils einem eigenen Wert initialisiert? Also die erste Schicht mit einem Wert und die nächste Schicht mit einem anderen Wert usw. Falls es jemand anderes weiß, wäre nett, wenn's mir jemand sagen kann. Gruß
Hallo und erstmal Danke für die Präsentation. Die Identifikation von Objekten, dass heisst aus einem Bild ein Objekt einer Klasse zuzuordnen, reicht in der Wirklichkeit die Assoziation der Form nicht aus. Das Beispiel mit dem Delphin zeigt das sehr eindrucksvoll. Ein Mensch würde das Wasser erkennen und wissen, dass eine solche Form im Wasser nichts mit der gleichen Form mit einem Hintergrund aus dem Himmel oder einer Erdoberfläche zu tun hat. Die KI muss daher Zusammenhänge der Umwelt mit dem Objekt in Zusammenhang bringen und auf Plausibilität prüfen. Auch könntet Ihr hingehen und an die Klasse der gefundenen Identifizierung, weitere Prüfroutinen zu binden, auf die das Bild dann untersucht wird. Das ggf. als Anregung für einen weiteren Schritt.
Spannender Ansatz, befasse mich auch seit ca. 3 Jahren mit dem Thema. Konntest du irgendwelche Konvergenz-Garantien für deinen Ansatz beweisen, oder beruht das auf empirischen tests?
Aha. Viel Herumgeredet, tolles Denglish, und die neue Trainingsregel ist also ein typischer rückversichernder Umkehrschluẞ 😎 Was hier noch erwähnt gehörte wäre, ob die kognitive Assoziationsmechanik der visuellen Erfassung im Gehirn geklärt ist bzw. wo die gegenwärtige Erkenntnisschranke liegt 😎
Eine Frage. Mit welchem Verfahren kann man am effizientesten ein System trainieren, das erkennen soll ob eine Katze (also irgend eine Katze und nicht eine spezielle) eine Maus oder Vogel im Maul hat oder nicht?
Danke für die Präsentation. Ich könnte mir ein wenig mehr Tiefe wünschen. Frage: Dein Approach macht immer dann grosse Probleme, wenn neue noch ungelabelte Klassen vorkamen (SLT-10). Etwas als nicht bekannt zu erkennen ist doch sicher für den Lernprozess extrem wichtig. Wie kann man Klasse "unbekannt" einbringen , um diesen Sachverhalt abzubilden? (so etwas wie dieses Plus ist "keine Ziffer"). So, nun schau ich mal in die Papers. :)
Ja, das ist der Ansatz meines aktuellsten Papers (das heute für die GCPR akzeptiert wurde): „Associative Deep Clustering - Training a Classification Network with no Labels“
Klasse Video! Ich hätte noch eine Frage: In diesem Video wurde ja nur das Supervised learning angeschaut. Aber es gibt ja auch Neuronale Netze, die Musik generieren oder ein Game meistern. Wie funktioniert dann das? Da hat man ja keinen klaren y-Wert, auf den man das Neuronale Netz trainieren kann.
Bei Neuronalen Netzen die Musik generieren (meist sind dies Recurrent Neural Networks) gibt es ein y-Wert, zumindestens in der Trainingsphase: z. B. bei einem NN das Mozart Musik generiert wird als Input die erste Note eines Stückes in das Netzwerk "eingefügt". Darauß generiert das NN z. B. die nächsten 20 Noten der Musik. Diese werden dann mit den entsprechenden 20 Noten des original Stückes verglichen und eine Abweichung errechnet. Aus diesen errechneten Abweichung kann man Zurückrechnen wie die Neuronen im NN verändert werden müssten, damit es sich mehr nach Mozart anhört. Wenn man dann mit dem Training fertig ist kann man einen zufälligen oder sogar gar keinen Wert in das NN eingeben und es generiert die von selbst "gelernte" Musik. So habe ich es zumindest verstanden. Bin natürlich auch kein Profi und meine Erklärung kann Fehler enthalten.
@@nummber1706 ich versuche aktuell tatsächlich genau so etwas zu programmieren. Ist ziemlich richtig, was du schreibst. Nur das mit den nächsten zwanzig Noten würde man eher anders lösen. Ich z.B. nehme den Ansatz, die stücke in zeitschritte einzuteilen und in diesen immer zu speichern, welche noten aktiv sind. Ich sage dann immer den nächsten zeitschritt voraus.
beudetet jedesmal wenn ich captures eingebe muss um meine downloads zubekommen fütter ich die KI mit daten weil die gerne grad wissen will welches der bilder ein straßenschild zeigt?
Lieber Philip, vielen Dank für das schöne Video. Du bringst mich damit auf eine Idee und zu folgender Frage. Ich bin in der Lage mit Machine Learning Algorithmen Objekte in Bildern zu erkennen. Ich würde aber gerne eine zeitliche Abfolge von Bildern erkennen, d.h. ein "spatio-temporal pattern" erkennen. Auf den Sport übertragen würde dies z.B. bedeuten nicht nur einen bestimmten Spieler auf dem Platz zu erkennen, sondern eine bestimmte Passsequenz. Hast du eine Idee wie man die zeitliche Komponente als zusätzliche Dimension in die Objekterkennung mit einfließen lassen kann? Kennst du vielleicht hilfreiche Literatur zu dieser Fragestellung? Beste Grüße und viel Erfolg bei deiner Verteidigung!
das 2te Konzept hab ich mir mal im Brainstorming für die Gesichtserkennung überlegt. und gehe auch davon aus das es die sicherste Erkennungsstruktur ist :)
Hallo Phil, guter Beitrag..... aber ich habe an Dich eine andere Frage..... zu Longitudinalwellen in der Akustik. Stell Dir vor irgend eine Sinus Welle, sie hat eine Amplitude im positiven und negativen Bereich in der Zeit. Meine Frage der Punkt "0" ist doch gleich unendlich leise, dadurch muss der positive und negative Bereich immer lauter als null sein, bis zum maximalen der eingestellten Lautstärke in dB . Unser Dozent meinte der positive Wert wäre am lautesten und der negative am leisesten. Ich glaube das ist Falsch und würde sich auf eine Transversalwelle beziehen. Da wir mit dem Ton arbeiten, kann man das Model der Transversalwelle da nicht anwenden, da es Unterschiede zwischen den zwei Wellenmodellen doch gibt. Liege ich da richtig? Liebe Grüße Jessica
Ich hab jetzt noch nicht ganz verstanden, was bei dem Training bei 21:18 passiert ist. Machst du da einfach das bisschen Mathematik und dann kommt das dabei rum? Beeindruckend.
Wie fängt man denn in der Praxis am besten an ein selbstlernendes Netz aufzubauen? Ich selbst bin Programmierer, hatte bisher aber noch nie mit dem Thema zu tun. Nun würde ich gerne mein smarthome etwas smarter machen, und ihm die Steuerung von Licht und Heizung und Rolläden überlassen. Sensoren wie Temperatur, Luftfeuchtigkeit, Bewegungsmelder, Helligkeit, Fensterkontakte etc gibt es massig. Ebenso historische Daten in einer MySQL Datenbank.
mir stellt sich grade die frage ob das auch beim doppelspalt experiement anwendbar ist. also wenn sich die quanten bei einem beobachtbaren versuch verhalten wie sie es eben tun, wäre es bei einem nicht durch den menschen "beobachteten" aufbau anders und ändert sich das ergebnis beim rendern... grade auch im bereich quanten computer ahhhh ich sehne mich nach mehr verfügbarkeitsheuristik *flenn quengel stampf* @EinfachPhysik ?
Hast Du das alles mit CNNs gemacht oder auch mit Multilayer Perceptron Netzen? Und hast Du/ die TUM das Framework für das Netz selbst geschrieben oder ein existierendes verwendet?
MLPs sind dafür nicht stark genug. Die Arbeiten zum optical flow und scene flow haben wir mit caffe gemacht (das mussten wir ein bisschen hacken und anpassen). Die „learning by association“ papers habe ich alle mit tensorflow gemacht.
Genial einfach und anschaulich erklärt, so dass ich als Laie auch eine Vorahnung bekommen habe, dafür besten Dank.
Schönes Video. Finde es richtig gut, dass du ein Video über deine Doktorarbeit machst. Auch super erklärt freut mich richtig. Schonmal herzlichen Glückwunsch zur Doktorarbeit. Ich denke in der Zukunft wird eine Ki uns prägen. Automatisieren war schon immer der größte Ansporn der Menschheit.
Liebe Grüße vom Physik Kanal "EinfachPhysik"
EinfachPhysik besser kann ich es auch nicht schreiben...
Toll .....
Respekt.......
Du hier :D
Wirklich ein super-interessantes Thema. Da wird in den nächsten Jahren noch einiges passieren.
Stellt euch vor, bald kann die KI lernen, wie man am effektivsten lernt ;)
Bitte in Zukunft keine Cyberdyne-Aktien kaufen.... und Dr. Phil sollte Bundeskanzler werden.
@@thezodiak6666
Hi
Du: *_"Stellt euch vor, bald kann die KI lernen, wie man am effektivsten lernt ;)
"_*
Genau! "Technologische Singularität"
Wenn die KI lernt, wie man am effektivsten lernt, dann wird sie wahrscheinlich, schneller als exponentiell dazulernen.
Gruß
So kann der Computer dann ja auch das Kreuzchen "Ich bin kein Roboter" anklicken :D.
absolut!
Klar, weil ein KNN (ANN) KEIN Computer ist, sondern ein primitives Miniminiminimini-Gehirnleinchen,
auch dann, wenn es auf einem Computer simuliert wird.
Daher kommt auch diese Tendenz zum Faschismus und zum Rassismus. Weil sie so primitiv sind.
@@vanitacabral4951 was😂
Ich habs durchgerechnet, mit meinem eigenen NN, und eine KI kann das nicht - so wie ich dich verstehe. Kognitionspsychologisch betrachtet wuerde er "denken" du sollst das denken, wenn er das tut.
Der Roboter kann garnichts ankreuzen 🥲 in dem Fall wäre es dann das Script, das geschrieben wurde (auf "Deutsch", der Code) bzw. der auch ggf. daraus resultierende Algorythmus.
So... Video gerade bis zum Ende gesehen.
Also an sich sehr simpel, aber auch verständlich, warum das so viel Arbeit für euch war.
Super gemacht.
Das war echt spannend und anschaulich erklärt! Cooles Thema für die Dissertation :)
Hi Philip. Erst mal mein Respekt zu Deinem Video. Echt gelungen ein komplexeres Thema einfach und authentisch zu vermitteln. Doch als Du über Eure genial einfache Methode durch künstlich erstellte Fotos und Videos, maschinelles Lernen so beeindruckend zu revolutionieren, erkannte ich das Ihr nichts geringeres als eine Imaginationsmethode bzw. Modell für ML entdeckt habt. Genial.
Großen Dank das du solches wissen gratis für die Öffentlichkeit zur Verfügung stellst! Viel Erfolg Wünsche ich dir noch
Grandiose Vorstellung Deiner Dissertation; vielen Dank dafür! In diesem Sinne, herzlichen Glückwunsch! Gerne weitere Videos über KI's! Wunderbar. TOP Video, genial!
Mega gutes Video. Gute Arbeit geleistet. Hast dir deinen Doktor verdient!
Das kann weltverändernd sein!
Super Video. Da hast du dir ein paar echte Perlen des Deep Learning gesucht und toll behandelt. ich würde gerne deine Doktor- Arbeit lesen. Ich schreibe meine Master- Arbeit im Bereich Deep Learning und OCR. Mir gehen da nach deinem Video ein paar coole Sachen durch den Kopf. Es feuert. Danke.
Dein schlussendlicher Ansatz ist einfach genial! Das finde ich echt super, da ich die Probleme bei neuronalen Netzwerken kenne.
Sehr interessantes Video! Es ist schon sehr erstaunlich was unser Gehirn leistet!
Bitte Mehr Solcher Videos...dein Thema ist sehr interresannt und eröffnet Möglichkeiten...
Wow ich habe deine Technik an meinem Datensatz von meinem aktuellen Job angewendet und nach einem unglaublich kurzen Training mit teilweise weniger als 100 samples pro klasse trainiert und eine so gute Genauigkeit erhalten. Danke für das Video. Bei mir gehts jetzt mit Image Segmentation mit Transfer learning mit dem neu trainierten model weiter. Ich hoffe dadurch eine neue Technik für computer vision zu entwickeln.
Die Kameraführung erscheint etwas unruhig im Angesichte dieses edlen Themas.
Der Kameramann ist aus dem Häusschen
Kameraführung ist AI gesteuert
Echt mal. Der/die gefilmt hat, wäre besser als Kameramann/frau bei einem Low Budget Horrorfilm aufgehoben. Bei diesem Video hier hätte ein Stativ einen 1000x besseren Job gemacht.
Wer weis vielleicht wollte er ja seine neuronale kamera verfolgung trainieren ?
War bestimmt Jakob 😂✌️
Cooles Video Phil. Den Dr Titel bekommst du auf jeden Fall. 😃👍💪
Ich bin tief beeindruckt, vielen Dank für die tollen Erklärungen :)
wieso bist du beeindruckt? noch nie das Thema gegooglet? sonst würdest du sagen, habe ich schon alles gehört.
@@scholli99 es ist trotzdem interessant wenn du es verstehen würdest du nicht so eine Antwort liefern
@@theultimateshadow7232 was für eine kacke schriebst du da? Ich habe Master in Informatik und mein Schwerpunkt ist AI. Natürlich verstehe ich das. Ist halt nichts neues. Selbst meine Masterarbeit liefert deutlich mehr Content als das.
Ein komplexes Thema sehr verständlich erklärt. Smarter und charismatischer Typ! Viel Erfolg bei der Verteidigung, wir werden es ja sehen, wenn der Kanal plötzlich "Dr. Phils Physik" heißt
Dieser Beitrag ist herausragend gut strukturiert und einfach zu verstehen. BEIDES ist auf diesem Feld außerordentlich selten anzutreffen. Danke dem Autor für die viele Arbeit! Denn beides macht sehr viel Arbeit für das (sein) Gehirn... Oder fällt ihm das vielleicht sogar leicht und er ist entsprechend begabt? Nun, eigentlich zählt nur das Ergebnis. Wer sagt das? Ein früherer IT-Berater mit Abschlüssen in Maschinenbau, Informatik und (analytischer) Philosophie.
Sehr schöner Überblick. Ich hab gerade meine Bachelorarbeit fertig zum Thema Verkehrsschilderkennung. Mach bitte ein Video, das mit diesem Thema mehr in die Tiefe geht, was dann zwar Leuten ohne Vorbildung nichts bringt aber Leuten mit ein wenig Erfahrung in dem Bereich umso mehr.
hervorragend gemacht, das Video, aber auch deine Arbeit. Ich wünsche dir alles beste damit, du hast es verdient !
Interessantes Video! Toll dass du dein Wissen mit uns teilst.
Kleine Anmerkung noch am Rande weil es danach schreit: Dieses Denglisch klingt abschreckend! Ob die Dinger nun „ struggeln“ oder ein „gelabeltes subset“ beinhalten oder „ungelabelt“ sind oder „randomly“ initialisiert werden, u.s.w....Es gibt auch wunderbar selbsterklärende und klare deutsche Bezeichnungen dafür.
Im Übrigen auch für „Slides“, einen „failure case“ oder für den „nächsten großen approach“ :)
Wenn man aber alles erst auf Deutsch übersetzt macht das schnell den Redefluss kaputt.
Mega spannend, danke für dieses ausführliche Video dazu!
Danke für das Feedback!
Wirklich super gut gemachtes Video. Der Dr. ist verdient. Weiter so
Gutes Video und spannendes Feld KI. Viel Erfolg beim Bestehen !!!
Dr. Phil's Physics
tolles Video, endlich habe ich mal grundlegend verstanden, was bei uns auf der Arbeit gemacht wird
Danke für dieses großartige Video! Daumen hoch
Wow echt cooles Video und gut rüber gebracht. Größten Respekt!
Super Video, Respekt. Zum optischen Flow: Davinci Resolve macht in der höchsten Transformationsstufe genau das, wenn man z.B. die Frame rate eines Videos von 30fps auf 60fps transformiert.
Immer noch mehr zu lernen. Unds besonderes nach der Uni. Studium!
Sehr inspirierend!
Zum Ende hast du gesagt du darfst es evtl. nicht veröffntlichen von der Uni aus, da bin ich etwas gespalten...
Wissen sollte frei sein, aber natürlich muss entsprechender Datenklau mit Profihintergrund geahndet werden.
warum ändert sich die Anzahl der Zahlen von dem Diagramm in Minute 21 und 21:30 ? waren die restlichen Zahlen fehlerhaft oder wurde das neuronale Netzwerk nur trainiert und das Diagramm in 21:30 enthält neue Inhalte in Form von Zahlen
Unglaublich interessante Anwendungsmöglichkeiten! Ich hab zwar erst bald meinen Bachelor (Biologie), aber ich hoffe, dass mir deine Technologie irgendwann mal im Labor begegnet!
Sowas nimmt mir hoffentlich in Zukunft mal viel Arbeit ab! ;)
*Sowas nimmt mir in Zukunft die Arbeit weg
@@fopperer Falsch. Als Wissenschaftler stehst du nicht 24/7 vor deinem Bildschirm und guckst Zellen an. Das ist Denksport, den in 100 Jahren noch keine Maschine annähernd hinkriegen wird. Wissenschaftler wird man nie ersetzen können.
Anmaßend, so etwas zu wissen glauben.
Wenn du Biologie und Informatik kombinieren möchtest könntest du dich vielleicht auf Wetware spezialisieren.
Super spannend und dabei ist die grundlegende Idee so simpel :D
Ich finde es toll, was solch ein Neuronales Netz heute schon kann. Wenn ich bei meinem iPhone in Bilder suche eingebe "Hund", dann sucht er alle Bilder für mich wo ein Hund drauf ist, ebenso wie Auto oder Kirche etc. Es gibt Kameras (Netatmo), die erkennen Gesichter. Wenn man sie benannt hat, kann die Software in der Kamera dir sagen: "Werner" wurde gesehen oder wenn ich es bin sagt sie Willkommen zuhause. Brauche nur in die Kamera sehen, einfach genial.
Interessiert mich gerade brennend dieses Thema
Sehr schön. Finde längere Videos auch mal super.
Ich werde am Judgement Day an Dich denken... nein, im Ernst: richtig gutes Video. Danke dafür! Der Assoziations-Ansatz gefällt mir richtig gut.
Gute Arbeit. Ich gönn dir den Doktor Titel.
"24:00" Das ist wirklich genial gemacht echt super arbeit Hut ab!
Sehr gut erläutert. Danke.
echt interessant, ein zusätzlicher Kanal für dein Fachwissen mit aktuellen Themen zur Forschung wäre cool !!
Hi.
Die Idee, mit der Assoziation, ist genial.
Ich wette, das steht bald in Leerbüchern. Ähnlich der "Fast Fourier Transformation".
Grus
Sehr schönes Video. Auch mal interessant etwas über die Doktorarbeit zu erfahren. Bitte mehr Videos über KIs.
Auch wenn es noch längere Videos gibt. War eigentlich für mich ganz ok.
Noch spannender als ich erwartet habe...
Bin nicht vom Fach, Thema ist interessant deswegen hab ich mir das Video angesehen. Finde es gut rübergebracht. Wäre es nicht möglich die KI die ja kein Mensch ist, sich nicht einfach selber entwickeln zu lassen? Ich meine das assoziieren gebündelt mit Augen ( Bilder & Videos / Bewegungen), Ohren (Geräusche, Sprache usw), vielleicht sogar Gerüchen? Es soll eigene Codes für das was es sieht erstellen und später vielleicht assoziieren, mit einem Mentor (Programmiere) an der Seite. Alles aufzeichnen um efür uns eine Art Übersetzung zu haben. Die KI als "neue" Lebensform?!
Nur Gedanken Spielerei....
Tolles Video, Kompliment!! Ich habe viel mit Datenbanken zu tun - muss mich definitiv mit diesem Thema befassen :)
Erinnert mich an das Pattern Matching von Xerox 😀
Mit dieser Technologie wäre es erst sehr viel später aufgefallen xD
Sehr interessantes Video, danke!
Vielen Dank für das Video! Sehr informativ und ein außerst spannendes Thema.
Könntet ihr das in einem zukünftigen Video einmal praktisch umsetzen? Bspw. das trainieren von der Handschrift-Erkennung?
Richtig interessant, danke für die Arbeit
Denkst du, du darfst die Doktorarbeit demnächst noch veröffentlichen? Ich finde genial😍
Auch wenns nicht mehr aktuell ist und ich wenns hoch kommt 10% verstanden habe. Es war sehr interessant. Ich würde gern wissen, hast du dann immer die selber "K.I." trainiert und wenn ja, wo speichert sie die ganzen daten und wie groß werden die daten durch mehrere lernphasen? Ich mach gerade aus spaß ein paar durchläufe der K.I. aus eurem 3teiler. Finde das voll spannend wie nah er immer an meine Zahl kommt. Würde gerne viel mehr machen, aber da muss ich erstmal bei 0 Anfangen hab die Programiersprache nie gelernt. Hab zwar mit DOS System angefangen zu zocken, aber das ist nicht das gleiche ;-) LG und danke für die ganzen Infos
Bitte mach mal ein Video über KI's generell. Und kann man eine KI wie ein menschliches Gehirn strukturieren dass dann lernt wie ein Mensch?
Bis heute lässt sich diese Frage nicht beantworten. Wenn wir nicht wissen wie unser Gehirn funktioniert, dann wird es auch nicht möglich sein ein künstliches System zu erstellen, welches wie der Mensch lernt. Darüber hinaus unterliegen alle Algorithmen, welche man auf Computern ausführen kann, mathematischen Modellen. Man simuliert Intelligenz mit Hilfe von Mathematik und deren Teilgebieten wie z. B. Graphentheorie, Fuzzy-Mengen usw.
Und hierbei liegt das große Problem. Unterliegt die Natur mathematischen Prinzipien oder ist die Mathematik nur von uns Menschen erfunden, um sie z. B. in der Physik zu nutzen, damit wir die Natur zu beschreiben können? Sollte der erste Fall zutreffen, wäre es zumindest theoretisch möglich Computer zu bauen, die genau wie wir Menschen lernen. Weiterführend wäre das ein Hinweis darauf, dass das Universum in dem wir leben eine Simulation ist, denn dafür ist nun mal eine Berechnungsvorschrift notwendig. Ich persönlich GLAUBE aber daran, dass die Natur keine Mathematik kennt und wir Menschen die Mathematik benutzen, um sie zu beschreiben. Daraus kann man folgern, dass es nicht möglich ist künstliche Systeme, welche mit Mathematik funktionieren, so lernen zu lassen wie natürliche Systeme (z. B. der Mensch), die ohne Mathematik auskommen. Achtung! Ich rede hierbei von der Implementierung der Lernverfahren. Das bedeutet nicht, dass kein Mensch Mathematik kann!
Darüber hinaus existiert noch das Problem der endlichen Präzision von Computern. So lassen sich z. B. Fließkommazahlen (z. B. die Naturkonstante Pi) nicht mit unendlicher Präzision darstellen.
@@Frontmaker wohet weißt du das alles 😮
Ich befinde mich im 3. Semester des Masterstudiums der Informatik, lese sehr viel und schaue sehr viele Videos und Dokumentation. Da sollte man sowas wissen. Natürlich werde ich mir nicht anmaßen genau so viel über das Themengebiet "KI" bzw. um genauer zu sein "CI" zu wissen, wie jemand der darin promoviert hat wie z. B. Phil Physics. Es ist jetzt auch nicht das worauf ich mich spezialisiere. Man kommt aber nicht um dieses Themengebiet herum :)
Ich hatte mal im Bachelorstudium 3 Vorlesungen in diesem Themengebiet. Ich fand das ganz interessant. Davor konnte ich mir nie vorstellen, wie Computer lernen können. Durch die Vorlesungen hat man aber sehr schnell gemerkt, dass das absolut kein Hexenwerk ist und vor allem, dass das keine neue Erfindung ist. Wenn ich mich richtig entsinne, bestehen die grundlegenden Algorithmen für neuronale Netze schon seit den 60ziger Jahren. Da man allerdings nur über sehr geringe Rechenpower verfügte, hatten diese nicht sonderlich viele Anwendungsgebiete und verloren etwas Beachtung.
Heutzutage hat man diese Rechenpower und die notwendigen Protokolle und Paradigmen. Man hat nicht nur wesentlich stärkere Prozessoren und schnelleren Arbeitsspeicher, sondern man auch Methoden, um diese noch sehr stark zu skalieren (ohne das man sich verbiegt), indem man z. B. die lokale Rechenpower verbessert durch hinzunahme der Grafikkarte, welche jeden Prozessor im Bereich Parallelisierung schlägt (ich glaube KI Frameworks wie PyTorch oder TensorFlow nutzen dieses Konzept ganz stark um überwachtes Lernen extrem zu verbessern) oder man nutzt gar ganze Rechencluster. Daraus entstand dann schließlich der Modebegriff Deep Learning.
@@Frontmaker kannst du oder @breakinglab zu dem Thema irgendwelche spezielle Literatur empfehlen?
@@johannes-7710 Ähm zu was genau jetzt? :D AI? Durch den Hype gibt es dazu doch Tonnenweise Literatur. Ich weiß jetzt nicht wie Tief du in der Informatik drin bist, aber ich empfehle für sowas erstmal ein Tutorial. Dadurch kommt man auch besser in die Thematik hinein, ohne sich zu tief mit der Mathematik befassen zu müssen. Das ist ähnlich wie beim Autofahren. Ich muss nicht genau wissen wie ein Auto fährt oder warum es fährt, um ein Auto fahren zu können. Ich muss nur die Schnittstellen kennen (Lenkrad, Gaspedal usw.). Wie genau es funktioniert, dass kann im Anschluss kommen.
32:47 DAT SMILE THO ♥__♥ :D
Also ich wäre für eine Live Session! ^.^
So würde ich auch gucken, wenn ich dieses Thema in 30 Minuten vollständig erklärt hätte.
Glückwunsch zum Doktor, Ich finde dein Thema sehr interessant und äußerst gut erklärt.
Hi wann und woher bekommt man denn deine Doktorarbeit. Würde mir gerne durchlesen was du gemacht hast.
Viele Grüße
Daniel
Super Video! Respekt!
Starkes Video und echt interessantes Thema :D so interessant, dass ich überlege Informatik zu studieren.. ich bin mir aber noch nicht so ganz sicher
Mega gut erklärt👌
bitte mehr Videos will das noch lernen bevor ich Sterbe, und das ist nicht mehr weit hin.
Das ist ein sehr nützlicher Ansatz! Es wundert mich aber, dass mit der doppelten Assoziationsfunktion die Schätzgüte besser ist als wenn man einfach die klassische Prognose hernimmt. Ich dachte, dass mit der Backpropagation der Informationsgehalt schon maximal ausgeschöpft würde. Vor Allem wundert es mich, dass die Assoziation richtungsabhängig ist.
Ist aber echt cool, dass man mit solchen probabilistischen Tricks noch mehr aus seinen Daten herausholen kann.
Wird das auch demnächst in Tensorflow implementiert bzw. kommen Vorlagen raus oder muss man es sich noch selber zusammenbasteln?
richtig interessant, könnt ihr mehr darüber bringen?
Ich glaube Leute die auf der Suche nach dem "i" scheitern haben nicht genug Kapazitäten in ihrem neuronalen Netz für mehr Infos zu neuronalen Netzwerken :D aber definitiv ein interessantes Video und ein spannendes Thema!
langes Video, aber die 20 min (1.5fache gesehen) haben sich gelohnt!
Diese Mann gute gute: Große Bizeps 💪 & große Gehirn 🧠 .
Wie macht das Neuron eigentlich seine Berechnungen ? Digital oder analog ?
So lieb ich deine Videos, ich hatte richtig Spaß beim Anschauen. Und wenn es um Informatik geht bin ich nicht wirklich der Beste, aber du hast es echt gut erklärt, sodass auch ich etwas aus dem Video mitnehmen konnte.
Meine Frage wäre:
Es gibt ja diese Tests, die schauen sollen, ob man ein "Mensch" oder eine "Maschine" ist, bei denen man z. B. alle Bilder, die eine Hausnummer/ Katze zeigen, anklicken muss, um zu zeigen, dass man ein "Mensch" ist. Könnte ein gut programmiertes neuronales Netzwerk so etwas dann meistern?
Falls das so wäre, wie könnte man einen Test gestalten (also Datensatz), den ein Netzwerk nicht schafft (oder deutlich schwerer)?
Wäre das dann z. B. eine sehr sehr spezifische Frage wie: "Klicke alle Bilder mit grau-schwarz gestreiften Katzen mit grünen Augen an."?
Aber auf jeden Fall nochmal großes Lob für das schöne Video👍🏻🙂
Das, was du meinst, heißt reCAPTCHA und ist von Google. Wird für seine Einfachheit gelobt und immer wieder kritisiert für Anti-Datenschutz, Anti-Barrierefreiheit und dafür, dass du kostenlos Arbeit für Google übernimmst (um Google Maps zu verbessern oder was auch immer).
Devon Ah, danke für den Hinweis, das, was ich so kurz dazu gelesen habe, ist ja wirklich interessant, wie und wieso die das machen. Damit haben die früherer analoge Bücher digitalisiert und dann als die KIs die Wörter auch lesen konnten haben sie dann die Buchstaben und Zahlen verzerrt, und dann konnten KIs das auch irgendwann und dann sind sie wohl zu diesen Bildern übergegangen. Aber noch cooler sind ja diese Boxen, die man nur mit einem Hacken versehen muss. Die schickt dann die Daten zu der Bewegung deines Mauszeigers, wie schnell du scrollst etc. von ein paar Sekunden vor dem Drücken des Kästens ab. Und anhand dieser Daten wird dann festgestellt, ob du ein "Mensch" bist oder nicht. Das ist ja wirklich hammermäßig. Die Analyse von deinem Verhalten bezüglich scrollen und der anderen Parameter wird wahrscheinlich auch von einer KI gemacht, oder? Das wäre dann ja KI gegen KI. Die eine versucht immer besser das Konzept "menschlich" anzuwenden, während die andere versucht immer besser das Konzept "menschlich" zu verstehen
Diese konzept "ki gegen ki" wird tatsächlich mamchmal angewandt um neuronale netzwerke zu trainieren und noch besser zu machen. Google macht das wahrscheinlich auch, indem sie immer bessere kis versuchen lassen die recaptchas zu überwinden um damit die eigentliche ki trainieren, diese versuche als computer zu identifizieren
Ich finde deinen Kanal richtig cool
Hi, super tolle Sache, ich mache es auch so das ich Trainingsdaten erzeuge inklusive Lösung und dann das Netzwerk mit tanh Aktivierungsfunktion, aber auch mal mit Sigmoid Funktion, lernen lasse. Wieviele Trainingsdaten probiere ich und gucke mir das graphisch an. In der Zukunft werde ich das Lernergebnis von einer weiteren Ki dann klassifizieren lassen, dann muss auch ich nicht mehr dabei sein und kann mich auf die Implementierung eines Langzeitspeichers konzentrueren.
Ich nutze aber keine komplexen Bilder sondern logische Gatter wie C-not usw.
In den Diagrammen kann man sehr schön sehen wie das Netz Gwichtungen durchführt und immer besser wird bis es dann fast schlagartig immer richtig liegt aber manchmal halt doch noch falsch ist, sehr selten aber wie ein Mensch vertut man sich ja doch hier und da und das Netz macht das auch so und durch verschiedene konfigurationen von Netzparametern kann ich das lenken, vom Sonderschüler bis zum Doktor kann ich quasie alles einstellen.
Schon cool.
Hi.
Falls dich die Frage überhaupt noch erreicht...
18:27 Am Anfang ist das Neuronale Netz Zufallsgeneriert.
Was ist, wenn man alle Neuronen mit dem selben Wert initialisiert?
Macht es einen Unterschied, wenn man jede Schicht, mit jeweils einem eigenen Wert initialisiert?
Also die erste Schicht mit einem Wert und die nächste Schicht mit einem anderen Wert usw.
Falls es jemand anderes weiß, wäre nett, wenn's mir jemand sagen kann.
Gruß
Hallo und erstmal Danke für die Präsentation.
Die Identifikation von Objekten, dass heisst aus einem Bild ein Objekt einer Klasse zuzuordnen, reicht in der Wirklichkeit die Assoziation der Form nicht aus. Das Beispiel mit dem Delphin zeigt das sehr eindrucksvoll. Ein Mensch würde das Wasser erkennen und wissen, dass eine solche Form im Wasser nichts mit der gleichen Form mit einem Hintergrund aus dem Himmel oder einer Erdoberfläche zu tun hat. Die KI muss daher Zusammenhänge der Umwelt mit dem Objekt in Zusammenhang bringen und auf Plausibilität prüfen.
Auch könntet Ihr hingehen und an die Klasse der gefundenen Identifizierung, weitere Prüfroutinen zu binden, auf die das Bild dann untersucht wird.
Das ggf. als Anregung für einen weiteren Schritt.
Spannender Ansatz, befasse mich auch seit ca. 3 Jahren mit dem Thema. Konntest du irgendwelche Konvergenz-Garantien für deinen Ansatz beweisen, oder beruht das auf empirischen tests?
Wüster garnicht das ma schon soweit sind! Supper Arbeit! Weiter so. Das mathematische würde mich sehr interessieren
Aha. Viel Herumgeredet, tolles Denglish, und die neue Trainingsregel ist also ein typischer rückversichernder Umkehrschluẞ 😎
Was hier noch erwähnt gehörte wäre, ob die kognitive Assoziationsmechanik der visuellen Erfassung im Gehirn geklärt ist bzw. wo die gegenwärtige Erkenntnisschranke liegt 😎
Eine Frage. Mit welchem Verfahren kann man am effizientesten ein System trainieren, das erkennen soll ob eine Katze (also irgend eine Katze und nicht eine spezielle) eine Maus oder Vogel im Maul hat oder nicht?
krass, vielen dank!
Wie codierst du die Assoziationen? Läuft das über eine Art autoencoder?
Danke für die Präsentation. Ich könnte mir ein wenig mehr Tiefe wünschen.
Frage: Dein Approach macht immer dann grosse Probleme, wenn neue noch ungelabelte Klassen vorkamen (SLT-10). Etwas als nicht bekannt zu erkennen ist doch sicher für den Lernprozess extrem wichtig. Wie kann man Klasse "unbekannt" einbringen , um diesen Sachverhalt abzubilden? (so etwas wie dieses Plus ist "keine Ziffer").
So, nun schau ich mal in die Papers. :)
Ja, das ist der Ansatz meines aktuellsten Papers (das heute für die GCPR akzeptiert wurde): „Associative Deep Clustering - Training a Classification Network with no Labels“
Kudos für das ThinkPad. :)
Klasse Video! Ich hätte noch eine Frage:
In diesem Video wurde ja nur das Supervised learning angeschaut. Aber es gibt ja auch Neuronale Netze, die Musik generieren oder ein Game meistern. Wie funktioniert dann das? Da hat man ja keinen klaren y-Wert, auf den man das Neuronale Netz trainieren kann.
Bei Neuronalen Netzen die Musik generieren (meist sind dies Recurrent Neural Networks) gibt es ein y-Wert, zumindestens in der Trainingsphase: z. B. bei einem NN das Mozart Musik generiert wird als Input die erste Note eines Stückes in das Netzwerk "eingefügt". Darauß generiert das NN z. B. die nächsten 20 Noten der Musik. Diese werden dann mit den entsprechenden 20 Noten des original Stückes verglichen und eine Abweichung errechnet. Aus diesen errechneten Abweichung kann man Zurückrechnen wie die Neuronen im NN verändert werden müssten, damit es sich mehr nach Mozart anhört. Wenn man dann mit dem Training fertig ist kann man einen zufälligen oder sogar gar keinen Wert in das NN eingeben und es generiert die von selbst "gelernte" Musik.
So habe ich es zumindest verstanden. Bin natürlich auch kein Profi und meine Erklärung kann Fehler enthalten.
@@nummber1706 ich versuche aktuell tatsächlich genau so etwas zu programmieren. Ist ziemlich richtig, was du schreibst. Nur das mit den nächsten zwanzig Noten würde man eher anders lösen. Ich z.B. nehme den Ansatz, die stücke in zeitschritte einzuteilen und in diesen immer zu speichern, welche noten aktiv sind. Ich sage dann immer den nächsten zeitschritt voraus.
Ich finde dieses Video wahnsinnig spannend☺️
wie kann man Gene zur Datenverarbeitung verwenden? Wie kann man die Trägerwellen zur Energiespeicherung verwende?
beudetet jedesmal wenn ich captures eingebe muss um meine downloads zubekommen fütter ich die KI mit daten weil die gerne grad wissen will welches der bilder ein straßenschild zeigt?
Lieber Philip, vielen Dank für das schöne Video. Du bringst mich damit auf eine Idee und zu folgender Frage. Ich bin in der Lage mit Machine Learning Algorithmen Objekte in Bildern zu erkennen. Ich würde aber gerne eine zeitliche Abfolge von Bildern erkennen, d.h. ein "spatio-temporal pattern" erkennen. Auf den Sport übertragen würde dies z.B. bedeuten nicht nur einen bestimmten Spieler auf dem Platz zu erkennen, sondern eine bestimmte Passsequenz. Hast du eine Idee wie man die zeitliche Komponente als zusätzliche Dimension in die Objekterkennung mit einfließen lassen kann? Kennst du vielleicht hilfreiche Literatur zu dieser Fragestellung? Beste Grüße und viel Erfolg bei deiner Verteidigung!
Wer gerne Hörbücher hört und Interesse an KI`s hat, dem kann ich das Hörbuch "Singularity" sehr empfehlen.
wird auch mal erklärt wie diese KI Software funktioniert oder nur was man damit machen kann?
habe eine Frage. Kann man mit ann Technologie Energie gewinnen? auch an alle anderen die es lesen. Danke
das 2te Konzept hab ich mir mal im Brainstorming für die Gesichtserkennung überlegt. und gehe auch davon aus das es die sicherste Erkennungsstruktur ist :)
dieser Moment wenn man einfach nur das Nervensystem für ne Bio Klausur lernen muss und direkt komplett abschweift und hier landet...
Ich habe eine Frage wie programmiert man ein KI die sprechen soll wie z.B Siri?
richtig geil !!
Hi gibt es die Möglichkeit deine Doktorarbeit zu downloaden?!
Hallo Phil, guter Beitrag..... aber ich habe an Dich eine andere Frage..... zu Longitudinalwellen in der Akustik.
Stell Dir vor irgend eine Sinus Welle, sie hat eine Amplitude im positiven und negativen Bereich in der Zeit.
Meine Frage der Punkt "0" ist doch gleich unendlich leise, dadurch muss der positive und negative Bereich immer lauter als null sein, bis zum maximalen der eingestellten Lautstärke in dB .
Unser Dozent meinte der positive Wert wäre am lautesten und der negative am leisesten. Ich glaube das ist Falsch und würde sich auf eine Transversalwelle beziehen. Da wir mit dem Ton arbeiten, kann man das Model der Transversalwelle da nicht anwenden, da es Unterschiede zwischen den zwei Wellenmodellen doch gibt.
Liege ich da richtig?
Liebe Grüße Jessica
Ich hab jetzt noch nicht ganz verstanden, was bei dem Training bei 21:18 passiert ist. Machst du da einfach das bisschen Mathematik und dann kommt das dabei rum? Beeindruckend.
Wie fängt man denn in der Praxis am besten an ein selbstlernendes Netz aufzubauen? Ich selbst bin Programmierer, hatte bisher aber noch nie mit dem Thema zu tun.
Nun würde ich gerne mein smarthome etwas smarter machen, und ihm die Steuerung von Licht und Heizung und Rolläden überlassen. Sensoren wie Temperatur, Luftfeuchtigkeit, Bewegungsmelder, Helligkeit, Fensterkontakte etc gibt es massig. Ebenso historische Daten in einer MySQL Datenbank.
mir stellt sich grade die frage ob das auch beim doppelspalt experiement anwendbar ist.
also wenn sich die quanten bei einem beobachtbaren versuch verhalten wie sie es eben tun, wäre es bei einem nicht durch den menschen "beobachteten" aufbau anders und ändert sich das ergebnis beim rendern...
grade auch im bereich quanten computer ahhhh ich sehne mich nach mehr verfügbarkeitsheuristik *flenn quengel stampf*
@EinfachPhysik ?
Hast Du das alles mit CNNs gemacht oder auch mit Multilayer Perceptron Netzen? Und hast Du/ die TUM das Framework für das Netz selbst geschrieben oder ein existierendes verwendet?
MLPs sind dafür nicht stark genug.
Die Arbeiten zum optical flow und scene flow haben wir mit caffe gemacht (das mussten wir ein bisschen hacken und anpassen). Die „learning by association“ papers habe ich alle mit tensorflow gemacht.
17:50 Wenn die 2 wie ne 3 aussieht, wieso schaut ne 3 nicht wie ne 2 aus?