Tap to unmute
Die simple Aufgabe, an der jede KI scheitert
Embed
- Published on Jul 14, 2025
- 🧠 Entdecke modernbrain: ⚡❯❯ modernbrain.de ❮❮⚡
(Anzeige)
►Alle Videos: bit.ly/1fa7Tw3
Künstliche Intelligenzen entwickeln sich in atemberaubendem Tempo und übertreffen den Menschen längst in vielen Bereichen. KI-Assistenten wie ChatGPT, Google Gemini oder xAI Grok sind bereits alltäglich geworden. KI-Agenten und Humanoide Roboter werden durch AI-Technologien immer alltagstauglicher. Als entscheidender Durchbruch gelten dabei die sogenannten „Advanced Reasoning“-Modelle. Fragen wir die KI etwas, durchläuft sie zunächst einen inneren Denkprozess, in dem sie überlegt und reflektiert, bis sie entscheidet eine Antwort geben zu können. Sowohl die Entwicklung der KIs als auch die Erforschung der neuronalen Netze in unseren Gehirnen legen nahe, dass Computer ab einer hinreichenden Komplexität ein Bewusstsein entwickeln könnten. Gleichzeitig deuten die Erkenntnisse darauf hin, dass auch unser menschliches Bewusstsein nichts weiter als ein Produkt komplexer Berechnungen und Algorithmen sein könnte. Doch gerade in den tiefsten Grundstrukturen der Mathematik finden wir einen starken Hinweis darauf, dass menschliches Bewusstsein mehr ist als ein Algorithmus. Denn selbst die besten künstliche Intelligenzen versagen an verblüffend einfachen Dingen: sogenannten Gödelsätzen. Das sind simple Aussagen, die Menschen verstehen können, aber an denen selbst die fortschrittlichsten KIs der Zukunft immer scheitern werden. Dies zeigt, dass das menschliche Verstehen und somit das Bewusstsein, mehr ist als ein Algorithmus jemals leisten kann. Wie kann das sein? Und was sind diese Gödelsätze?
Noch ein Hinweis zum Inhalt des Videos: Genau genommen gibt es auch sehr einfache Systeme von Axiomen in denen jeder wahre Satz beweisbar ist. Damit Gödels Theorie gilt, müssen die Axiome komplex genug sein, damit sich darin die natürlichen Zahlen wie 1,2,3,4... konstruieren lassen.
Quellen und mehr zum Thema:
The Emperor’s New Mind - Roger Penrose
Xu, Frank F., et al. "Theagentcompany: benchmarking llm agents on consequential real world tasks." arXiv preprint arXiv:2412.14161 (2024).
#modernbrain könnt ihr kostenlos auf modernbrain.de testen.
✚Snapchat: SekundenPhysik
✚Facebook: on. YJFlNt
✚Abonnieren: bit.ly/10jgdi2
100SekundenPhysik: das ist Wissenschaft in einfacher, knapper und unterhaltsamer Form.
Tags:
Physik, Wissenschaft, Technik, Science-Fiction, philosophie physik, zukunft, wissenschaftstheorie, Technologie, forschung, physik doku, doku, naturwissenschaften, Naturwissenschaft, sci-fi, science fiction, universum, Paradoxon, KI, AI, Künstliche Intelligenz, ChatGPT, Google Gemini, Grok, Bewusstsein, Philosophie, Mathematik, Logik, Artificial Intelligence, Kurt Gödel, Roger Penrose, John Randolph Lucas, Zukunft der Arbeit, Rätsel, KI-Agenten, Large Language Models, LLM, Generative KI, KI-Tools, Roboter
Für alle, die es ganz exakt wissen wollen 🤓: Genau genommen gibt es auch sehr einfache Systeme von Axiomen in denen jeder wahre Satz beweisbar ist. Damit Gödels Theorie gilt, müssen die Axiome komplex genug sein, damit sich darin die natürlichen Zahlen wie 1,2,3,4... konstruieren lassen.
Super Sache, nach unzähligen Videos hast du endlich wieder etwas fehlerfreies gepostet, und dann auch noch so einen Banger! Gute Arbeit!
@@TheMehkey Sein Video ist definitiv nicht fehlerfrei. Siehe dazu meinen Kommentar.
@@complexcreations5309 Was soll da stehen? Dein Kommentar ist nicht auffindbar, weil youtube scheiße ist.
Habe den Kommentar von @complexcreations5309 gefunden und stimme größtenteils überein.
Das Video ist nicht fehlerfrei und wie die meisten nicht-mathematischen darstellung der Gödelsätze ziemlich irreführend.
Der erste Fehler wurde ja im angepinnten Kommentar schon bemerkt.
Die Definition der Gödelsätze im Video zu allgemein. Gödelsätze sind sehr präzise definierte logische aussagen. Außerdem sind diese Aussagen nicht einfach für Menschen verständlich und man sieht ihnen ganz bestimmt nicht an, ob sie "wahr" sind (was auch immer das überhaupt heißen soll). Die von Gödel konstruierten Aussagen hängen außerdem vom gewählten logischen System ab. Diese Sätze haben aber nicht wirklich viel mit "wahren aber nicht beweisbaren Aussagen zu tun". Der Wahrheitsgehalt der Gödelsätze ist im Allgemeinen erstmal umstritten, weil der Wahrheitsbegriff an sich schwierig ist... Die relevante Eigenschaft der Gödelsätze ist einfach nur, dass sie sich in dem betrachteten logischem System nicht beweisen oder widerlegen lassen. Man kann dann aber z.B. die Aussage (oder ihre Negation) zu den Axiomen des Systems hinzunehmen und hat dann eines in dem der Satz (oder dessen Negation) trivialerweise "wahr" ist, und das ohne einen Widerspruch innerhalb des ursprünglichen Systems zu erzeugen!
Ich finde allerdings das Argument von Roger Penrose interessant und das soll wahrscheinlich auch die Kernaussage des Videos sein. So wie ich das verstehe ist nach diesem Argument der Unterschied zwischen Mensch und Maschine, dass wir in der Lage sind Dinge zu "interpretieren", was auch im Beweis der Gödelschen Sätze eine Rolle spielt.
Da ich aber keine Idee habe, wie wir Menschen das machen wäre ich ersteinmal vorsichtig mit der Aussage, dass Maschinen das nicht auch können. Aber wie gesagt, das Argument an sich ist sehr interessant, es ist nur schade, dass die Darstellung des ersten Gödelschen Unvolsständigkeitssatzes so unter der Vereinfachung für ein 10 minuten Video leiden musste.
@@TheMehkey Die Kritik in dem Kommentar ist vollkommen berechtigt. Gödelsätze sind nicht einfach "wahre aber nicht beweisbare" logische Aussagen, sondern sind sehr präzise definierte, mathematische Objekte. Was Wahrheit überhaupt sein soll ist im Kontext der Gödelschen Unvollständigkeitssätze ersteinmal unerheblich, es geht hier ersteinmal nur um Beweisbarkeit. Abgesehen davon ist ein Gödelsatz nicht einfach für Menschen verständlich. Wenn dir mal einer über den Weg laufen sollte sieht das für dich wahrscheinlich einfach aus wie Buchstabensalat. Wie diese Aussagen aussehen hängt außerdem vom betrachteten logischen System ab. Der Wahrheitsgehalt der Konstruierten logischen Aussagen ist übrigens auch umstritten. Das kann man damit begründen, dass man durch Hinzunahme eines "Gödelsatzes" oder seiner Negation zu den Axiomen des Ursprungssystems ein neues logisches System erhält in dem der hinzugenommene Satz trivialerweise "wahr" ist und das, ohne einen Widerspruch im System zu erzeugen...
Abgesehen davon ist die Hypothese von Roger Penrose sehr interessant. In meinen Augen hat das aber eher etwas damit zu tun, dass wir Menschen interpretieren können. Da ich selbst aber keine Ahnung davon habe wie das funktioniert würde ich mit der Aussage, dass Maschinen das nicht können vorsichtig sein... Schade, dass der Erste Gödelsche Unvollständigkeitssatz so unter der Vereinfachung für das 10min Video leiden musste, aber hey, vielleicht weckt das ja das Interesse der Zuschauer für die Thematik. Ich empfehle aber hierzu eher mathematische Fachliteratur als alles andere was den Satz jemals aufgegriffen hat, da die Darstellungen jenseits der Mathematik oft sehr falsch und irreführend sind.
Als nächstes in 946.080.000 Sekunden Physik: Das Werk von Kurt Gödel und der Gödelsatz im Detail
😂
30 Jahre, geil
hauptsach kein Werk von dödel...
@@georgbeizer6970 boah das klingt wie etwas, das Thaddäus raushauen würde 😂
Entschuldigung aber zufällig bin ich ein sehr kultivierter tintenfisch und ich werde mich lieber meiner Klarinette zuwenden als mich auf dein niveau herunter zu begeben 🤣🤣
War natürlich nur als witz gemeint
100 Sekunden Physik am Anfang: 100 Sekunden
100 Sekunden Physik jetzt: 10 Minuten
Das Video wurde in einem Auto gedreht, das mit annähernder Lichtgeschwindigkeit gefahren ist. Die 100 s wirken nur auf uns wie 10 min 🤔
Ist doch geil
Also ist Dir Form wichtiger als Inhatl?
Für dieses Video ist die Aussage „100 Sekunden Physik“ falsch und beweisbar!
Jedoch ist es trotzdem Realität.
müsste sich mal in 100teSekundenPhysik umbenennen
Also ich hab die Herleitung mit "Der Satz ist nicht beweisbar" nicht verstanden und habe jetzt Angst, eine KI zu sein.
Also wenn du stark vereinfachte Beispiele von Gödelsätzen nicht verstehst wie in eine KI, dann bist du streng genommen dümmer als eine, weil diese in normalen Situationen uns überlegen ist. Also dran bleiben!
Eine KI benutzt geltende Aussagen (Axiome) um daraus neue Aussagen zu erschließen bzw. zu bewerten. Und um "Dieser Satz ist nicht beweisbar" als wahr zu bewerten, müssen alle Axiome darunter auch wahr sein. Aber dann wäre der Satz selbst per Definition eben nicht mehr wahr, weil er behauptet, dass die Axiome den Satz nicht erschließen lassen. Man kann wahre Aussagen nicht als Basis verwerten um zum Schluss zu kommen, dass die Wahrheiten nicht für einen Schluss ausreichen.
Und wenn eine KI den Satz als falsch bewertet, kann sie das nur, wenn Axiome für sie logische (wahre) Grundlagen bietet, um sicher zu einem "Falsch" zu gelangen. Und das wiederum ist wieder eine Definition von "bewiesen" und macht den Satz doch wieder wahr
Noch stark vereinfachter kann also eine KI niemals zu folgendem Schluss kommen: "Ich muss mit A zu B kommen um zu beweisen, dass A nicht für B verwendbar ist". Oder für Dumme "Benutz dein Hirn um sicher zu merken, dass dein Hirn nicht ausreichend ist um etwas zu merken".
Wir Menschen erkennen sofort, dass sich der Satz auf sich selbst bezieht und da mehr hintersteckt als eine Naturweisheit. Eine KI besitzt aber dieses Irgendwas nicht. Sie wird niemals antworten können "Haha, nettes Gedankenexperiment. Hier ein paar philosophische Gedanken dazu" und wird immer denken, wir meinen solche Fragen/Aufgaben ernst und versuchen eine Lösung anzubieten
Hahaha
Wenn du Angst hast, bist du keine KI, oder du hast gelogen.
Ist quasi so wie das Lügner paradoxon.
Also wenn ich dir sage, dass ich ein Lügner bin und immer lüge, dann widerspricht sich das, weil ich dann ja rein logisch auch in dem moment lüge, wo ich dir sage, dass ich immer Lüge. Was bedeuten würde, dass ich nicht immer Lüge.
Allerdings hat mir das video jetzt auch nicht gerade dabei geholfen mir vorzustellen, wie genau ein Gödelsatz aussieht. Das thema ist auf jeden fall interessant, aber mir würde es sehr gefallen, wenn der Kanal auch noch längere und detailliertere Videos zu bestimmten Themen macht.
Mich hätte interessiert wie so ein gödelsatz genau aussieht und auch, wie die Aufgabenstellung an die ki aussieht, beziehungsweise, woran genau sie da scheitert.
Kommt mir nämlich komisch vor, dass eine KI daran verzweifelt.
Es geht ja nicht darum, einen zu lösen. Schließlich sind die ja, wenn ich das richtig verstanden habe, überhaupt nicht lösbar, sondern einfach nur eine mathematische Aussage, die sich selbst widerspricht.
Da kann die Aufgabe der KI ja eigentlich nicht weitergehen, als zu gucken, weshalb sie sich widerspricht und das zu beschreiben.
Da frag ich mich wirklich, warum das nicht möglich ist.
@@Insanity-Te4cherGuter Punkt!
Die Frage ist nur, wann die ersten Gödelsatz-CAPTCHAs auftauchen, welche dann von KIs erkannt werden und jede Webseite sich immer wieder neue Gödelsätze einfallen lassen muss um Menschen zu erkennen
Vielleicht gibt es dann wieder Internet Cafés, in die physisch gegangen werden muss
"Ist die Kontinuumshypothese wahr oder falsch" um sowohl Mathematiker und normale Nutzer zum verzweifeln zu bringen. Wäre lustig.
Stimmt, aber wenigstens wäre es dann kein verstehen sondern auswendig lernen
Solche Frage Antwort Captchas gibt es schon lange die aber eben aus dem Grund kaum noch angewendet werden da Menschen sich ständig neue Fragen ausdenken müssen was aufwändig ist.
Ein anderes Problem ist, dass die Gödelsätze auch 90% der Menschen überfordern. Wir Menschen benötigen ja sogar bei den vergleichsweise einfachen Bild-Captchas, wo man alle Kacheln mit einer Ampel anklicken muss, mindestens fünf Versuche oder müssen gar aufgeben und uns eingestehen, dass wir doch keine Menschen sind.
Ich muss sagen, dass ich von diesem Video wirklich enttäuscht bin. Ich schaue eure Videos jetzt schon seit über 10 Jahren voller Begeisterung, und ihr habt mich vielleicht mehr als jeder andere dazu motiviert mich mit der Mathematik und Naturwissenschaften zu beschäftigen. Und genau deshalb war ich auch so enttäuscht mit der feel-good conclusion von diesem Video, das ich so nicht von euch erwartet hätte. Und auch der Grund warum ich jetzt seit Jahren zum ersten mal einen Kommentar schreibe.
Aussagen wie "KI's werden die Dinge *niemals* so verstehen wie wir" sind unwissenschaftlich. Solche Behauptungen setzen Grenzen, wo noch gar keine klar gezogen werden können. Es wurde weder erklärt was "verstehen" in diesem Zusammenhang bedeuten soll, noch warum wir Menschen angeblich zu Erkenntnissen fähig seien, die Maschinen prinzipiell verschlossen bleiben sollen.
Besonders das Fazit, welches einem schon fast glauben lässt, dass wir Menschen über ein irgendwie übernatürliches Bewusstsein verfügen, das sich grundlegenden logischen oder algorithmischen Prinzipien entzieht, war zu tiefst enttäuschend.
Solche Aussagen wirken mehr wie philosophische Bauchgefühle als wie fundierte wissenschaftliche Überlegungen. Nichts was ich von euch erwartet hätte.
Ich hoffe, dass zukünftige Videos wieder stärker auf analytische Tiefe und wissenschaftlich fundierte Argumentation setzen, und weniger auf unbelegte Behauptungen mit wohlfühlendem Humanismus.
Zustimmung. Das war für mich ebenfalls das erste Video, von dem ich ziemlich enttäuscht bin. Inhaltlich gleicht das einem Essay eines Zehntklässlers ...
Da stimme ich dir zu! Ich hab auch schon seit längerem das gefühl, konnte es aber nie in Worte fassen.
Genau mein Empfinden. Siehe gerne auch meinen Kommentar dazu.
Ich muss dir zustimmen. Es wirkt, als wäre die Schlussfolgerung, dass Menschen ein übernatürliches Bewusstsein verfügen und Menschen für immer interlektuell überlegen wären.
Danke für diesen Kommentar. Valide, konstruktive und respektvolle Kritik. So etwas sieht man leider viel zu selten. Mir ging es beim Schauen des Videos ähnlich wie Ihnen, befürchtete aber, dass dies daraus resultierte, dass ich zu wenig Hintergrundwissen zu diesem Thema habe.
Die grundlegende Annahme, dass KI logisch von Axiomen ableitet stimmt doch gar nicht
Genau. LLMs wie ChatGPT sind keine SAT Solver, sondern sind gebaut auf der Basis von Neuronalen Netzen, die in der Lage sind, alles zu lernen, Da sie aus Prinzip universelle funktionsapproximationen sind. Also wenn es eine Frage mit "Ist Satz X ein Gödelsatz?" (Input), kann die KI lernen, darauf mit "Ja" (output) zu antworten.
Deswegen finde ich den Titel und die Konklusion sehr irreführend.
@@TomCrowKid Sie wird aber weiterhin nicht wissen warum die Antwort ja ist. Sie kann die Antwort auswending lernen, aber nicht durch eigenes "denken" auf die Antwort kommen. Darum ging es.
@@IceTray2006ironischerweise würde ich der These zustimmen, dass Machine Learning (KI gibt es aktuell nicht) keine Intelligenz besitzt, aber aus anderen Gründen. Das wurde hier leider falsch erklärt, die Grundidee bei Machine Learning besteht darin keinen Algorithmus für jede Frage in jeder Sprache zu schreiben, sondern einen Algorithmus zu schreiben, der sich selbst durch Daten kalibriert (das Model). Durch Unmengen an Daten lassen sich so mathematische funktionen ermitteln, die das Echtwelt Problem größtenteils korrekt beschreiben. Um es kurz zu fassen und ein Zitat einzubringen: LLMs sind nichts anderes als stochastische Papageien, lass dir doch mal ein Bild einer Armbanduhr mit spezifischer Uhrzeit generieren, es wird vermutlich nicht klappen, da die meisten Bilder von Armbanduhren die selbe Zeit zeigen. Das ist ein sogenannter stochastischer Bias, verursacht durch nicht gleichverteilte Lerndaten..
@@IceTray2006 Das stimmt doch nur solange "eigenes Denken" der KI aus dem Ableiten von Axiomen besteht. Aber wenn diese Annahme nicht gilt, gilt doch auch die Schlussfolgerung nicht.
Beispielsweise sind LLMs wie ChatGPT sind ja auch bekannt dafür auch mal falsche Dinge zu behaupten. Würden sie nur aus widerspruchsfreien Axiomen ableiten, müssten sie immer die Wahrheit sagen, weil sich aus solchen Axiomen nur wahre Aussagen ableiten lassen.
@@solidthrust3031 Übrigens sehr interessant für mich als Schachspieler war, dass die KI es nicht schafft korrekte Schachpositionen auf's Brett zu bringen. Ich habe mir verschiedene Schach-Memes erstellen lassen und bei allen war die Postition der Figuren und teilweise auch das Brett völliger Nonsense.
Der Satz "weil wir als Menschen es wirklich verstehen" mehrmals anzubringen heißt nicht, dass man es ausreichend erklärt hat. Das Video hätte sich dahingehend noch mehr anhand 1-2 Bsp. vertiefen müssen um den Unterschied zwischen Mensch und Maschine bezogen auf das Verstehen des Gödelsatzes klar zu machen. Mit dem Video habt ihr euch leider nicht so viel Mühe gemacht.
Aber WIE verstehen wir Gödelsätze, wenn nicht über Rechenprozesse? Und wenn es doch Rechenprozesse sind, selbst wenn sie nicht algorithmisch sind, wie können wir dann sicher sein, dass Computer sie nie verstehen werden? Also dass wie nie in der Lage sein werden, nicht-algorithmische Computer zu programmieren, wenn solche Prozesse prinzipiell möglich zu sein scheinen, wie dieses Video ja darlegt?
ihr Argument beruht auf algorithmischen Prozessen.
Falls wir jemals eine andere Art von Programmen entwickeln, wird das Argument hinfällig.
@@Parciwal_Gaming Wie viel hat ein Haus aus Lego mit Lego Bauteinen zu tun?
Der Algorithmus simuliert ein neuronales Netz.
Diese simulierte Vernetzung hat nichts mehr mit einem klassischen Algorithmus zu tun. Der Algorithmus ist nur der Lego-Stein
Es ist sehr gut möglich das wir irgendwann etwas krieren was wie wir selbst denkt, allerdings ist was wir Menschen haben vermutlich ne Kombination aus vielen dingen, Persönlich denke ich das Algorithmen nen teil unserer Gehirn vorgegânge erklären können(neuron etc), allerdings ist dies vermutlich nicht im ansatz das ganze bild. Aka aktuelle KIs sind auf dem weg teile unseres verstandes zu ähnelen und zu übertreffen andere aber sind komplett außerhalb der möglichkeit
@memeav2823 das Argumennt postest du echt überall hin, oder?
@@memeav2823 Wichtig hierbei ist jedoch, dass die Basis eines jeden Computerprogramms weiterhin algorithmisch ist. Die tatsächliche Maschinensprache, welche eine CPU, also das "Gehirn" eines Computers, verstehen und ausführen kann, ist rein algorithmisch und vorhersagbar.
Bitte mach ein Video zu Gödelsatzen, wo du die tatsächliche Mathematik erklärst.
Ich denke nämlich, dass das Beispiel in Sprachform nicht funktioniert.
Beweisbar bedeutet in diesem Fall "ableitbar aus Axiomen der Menge X".
"Dieser Satz ist ableitbar aus Axiomen der Menge X." ist allerdings keine sinnvolle Aussage, da "dieser Satz" zwar für uns linguistisch wie ein Objekt erscheint, logisch gesehen jedoch kein Objekt bzw. keine neue Aussage / Information ist.
Somit ist die Aussage "Dieser Satz ist ableitbar aus den Axiomen der Menge X" weder logisch wahr noch falsch, sondern einfach logisch sinnlos, d.h. außerhalb von Logik.
S:="Dieser Satz ist ableitbar aus Axiomen der Menge X"
S:="x1, x2, ... ϵ X : combine(x1,x2,...) = S"
Ich verstehe dein Punkt nicht wirklich.
Vor allem, jetzt stell dir mal vor, "beweisbar" würde wirklich "beweisbar" im allgemeinen Sinne bedeuten. Hat 100SekundenPhysik nicht im Video bewiesen, dass der Satz wahr sein muss (ohne Axiome)? Und damit gezeigt, dass er beweisbar ist? Bzw. dass er nicht beweisbar ist, denn er ist ja wahr…
@@aheendwhz1 Nein. Da nichts bewiesen wurde, sondern nur verglichen. Das hat er einfach in der Aussage nehmen wir nun an versteckt. Damit hat er zwar auch ein nicht widerspruchsfrei und vollständig ab absurdum geführt, nur hat er keine logischen Argumente benutzt, sondern diese nur behauptet/vorrausgesetzt.
Gödel hat alle mathematischen Formeln (=Aussagen) in der Sprache der Arithmetik durch natürliche Zahlen kodiert. Gibt verschiedene Möglichkeiten, das zu tun, aber zB könnte der Satz "Jede Zahl hat einen Nachfolger" den Kode 172625 haben. Ich notiere den Kode einer Formel φ durch . Nun gibt es eine Formel Prov(n), die für ein eingesetztes n genau dann gilt, wenn sich die Formel mit dem Kode n beweisen lässt in dem gewählten Axiomensystem. Mit einem technischen Argument lässt sich beweisen, dass es eine Formel φ gibt, sodass sich [nicht]-Prov() φ beweisen lässt. Also sagt φ streng genommen für eine Zahl k: "Die Formel mit dem Kode k ist nicht beweisbar", wobei nur wir auf der Metaebene wissen, dass k=; φ redet also nicht "von sich selbst".
Mathematik an sich ist bereits nur eine ANNÄHERUNG an die Gesetze die tatsächlich herrschen und ob diese immer bestehen bleiben oder sich ändern kann auch niemand vorhersagen. „Verstehen“ tut ein Mensch überhaupt nichts.
Sie haben ja selbst mal erklärt das ein Goldfisch in einem Glas aus seiner Perspektive Naturgesetze erfinden kann, welche aus seiner Perspektive immer zutreffen. Er kann aber nie zur Erkenntnis kommen, das Er in einem Glas sitzt und seine Umwelt durch die Glasscheibe verzerrt wahrnimmt.
Seine Berechnung die alle wissenschaftlich beweisbar sind, sind für uns alle unwahr und nicht anwendbar.
Jetzt die Aussage zu treffen das eine AI welche auf den Stand eines Babys/ Kleinkind ist, nie erwachsen werden kann ist extrem gewagt.
Wir verstehen ja auch nicht warum unser Gehirn zuerst denkt das es den Weihnachtsmann gibt und dieser genauso ECHT ist, wie unsere Eltern aber dann später das Gehirn anfängt zu sagen „Naaahhhh die Lügen doch!“
crazy... ich kenne noch deine Videos als du noch nicht mal im Stimmenbruch warst und mittlerweile einfach fast eine Mio Abos, freut mich richtig für dich! Toller Kanal, mach weiter so!
Das Grundproblem liegt tiefer und nicht in der KI selbst, sondern in der Tatsache, dass menschliche Sprache nie dafür gemacht war, vollständige, konsistente logische Systeme zu sein. Sprache ist ein Werkzeug für Kommunikation, nicht für absolute Wahrheit.
Falls es denn absolute Wahrheiten überhaupt gibt.
@@ZwetschgenLP zwei verzahnte Zahnräder (⚙️⚙️) können sich niemals in dieselbe Richtung drehen.
Überprüfe die absolute Wahrheit
😉👉
Können Sie schon, aber dann brechen die Zähne
@@frankfrohlich3206 dann sind es auch keine Zahnräder mehr und die Frage ist somit ungültig 😉
Also, absolute Wahrheiten könnte man sagen, gibt es auf jeden Fall in der Mechanik zu finden 😊
Naja es sind dann defekte Zahnräder aber die Aussage das sich zwei verzahnte Zahnräder nicht in die gleiche Richtung drehen können ist dennoch nicht mehr wahr.@@pureHeretiq
Mein Gödelsatz ist, dass ich durch das Anschauen deiner Videos das Gefühl hab immer dümmer zu werden.
Wenn du ihm glaubst, dann stimmt es sogar
Es ist schon ein Tiefpunkt für diesen Kanal…
das kenne ich aber du wirst nicht dümmer du verstest nur genug um zu verstehen was du noch nicht verstehst
Das ist nicht beweisbar
Ich denke eins der simpelsten Gegenargumente des Inhalts ist, dass heutige KI nicht wirklich "nach Axiomen arbeitet". Es gibt die Gewichte, die den "Denkprozess" lenken, aber auch eine Menge Zufall (bei einigen KI-Modellen kann man den Zufallseinfluss steuern, die sogenannte "Temperatur"), sonst würde ein KI-generierter Text ja auch noch viel leichter erkennbar sein, wenn das Modell z.B. immer den gleichen Stil verwenden würde. Und ab einem gewissen Punkt mit ein bisschen Verständnis von Neurobiologie kann man sich schon fragen, was einen davon unterscheidet. Klar, eine KI hat nicht die gleichen Gefühle und Empfindungen wie wir, ihre einzige Ein- und Ausgabe ist in Form von Text (bzw. eigentlich nur Tokens), zumindest im Fall von LLMs.
Zu sagen, dass eine KI mit gleichem Input wie ein menschliches Gehirn (und evtl. hormoneller Steuerung) immer noch nicht an das biologische Gehirn herankäme ist absolut naiv und metaphysisch, da könnt ihr gerne dran GLAUBEN, aber wissen solltet ihr das besser (gerade bei 100SekundenPhysik, nicht 100SekundenMetaphysik).
Die Erklärung zu Gödelsätzen war sogar interessant und aufschlussreich, aber die Verbindung zu KI erscheint wie eine Mischung aus Clickbait für die Normies, und Ragebait für die, die verstehen dass das Stuss ist. Im letzteren Fall wäre ich hiermit total darauf reingefallen und hätte nur schön eure Performance mit dem RUclips-Algorithmus angekurbelt. Herzlichen Glückwunsch in dem Fall. Andernfalls, mein Beileid, bitte belest euch über oder bedenkt das nächste Thema etwas besser.
@pokemettilp8872 ich habe das auch ähnlich empfunden. Teilweise empfand ich deinen Kommentar als ein wenig harsch, aber dem Inhalt bzw der Botschaft kann ich zu 100% zustimmen. Vor allem die zum Ende genannte "gutfühl" Schlussfolgerung fand ich aufgrund ihrer mangelnden wissenschaftlichen Grundlage zutiefst entäuschend. Was ich nur nicht verstanden habe, ist warum eine KI den oben genannten Satz nicht verstehen sollen kann. Vielleicht war das Beispiel zu vereinfacht, aber fortgeschrittene Reasening Modelle sollten doch alle mal in der Lage sein, die gleichen Rückschlüsse wie im Video zu ziehen. Ich habe die Frage dazu mal chatgpt gefragt, und er hatte damit überhaupt kein problem.
Noch einfacher: der Man hätte es vorher mit ChatGPT das ausprobieren sollen, bevor er so ein Video macht. ChatGPT hat den Satz verstanden und genau so erklärt wie er....
@@xy675Chat GPT hat etwas "verstanden" 😂😂 lass dich nochmal Boostern du bot
Hätte sonst auch einen Kommentar dazu geschrieben... :D
@@BananaRama1312: Glaubst Du wirklich, dass Deine Synapsen besser funktionieren als die KI Algorithmen?
Die KI kann ja genauso innerhalb oder außerhalb des Axiomensystems argumentieren, wie wir auch.
Dieser Gödelsatz sagt nichts über menschliche Überlegenheit/"echtes Verstehen" aus.
Diskutieren ja, LLMs beispielsweise können alles Mögliche diskutieren, wenn es aus ihren Inputdaten abstrahierbar ist. Die Frage ist, ob sie außerhalb eines Axiomssystems neue Schlußfolgerungen ziehen können. Und das würde ich verneinen. Moderne LLMs basieren auf Neuronale Netzen und diese sind "nur" extrem komplexe mathematische Formeln. Und Mathematik wiederum funktioniert nur in einem Axiomssytem.
@@karlheisenberg2857 So ein Gehirn ist auch nur ein neuronales Netz. Was aktuellen Systemen aber noch fehlt, ist die Möglichkeit ihr neuronales Netz weiter zu entwickeln, sowie Erfahrungen und Erinnerungen zu sammeln. Aber da kommen wir schon noch hin.
@@karlheisenberg2857 Neuronale Netze sind nicht einfach nur komplexe mathematische Formeln. Die Fähigkeiten die ein neuronales Netz durch sein Training erlangt, sind Emergenzen, keine Formeln.
Ja, am Ende könntest du theoretisch natürlich alles mathematisch irgendwie beschreiben. Aber das kannst du auch mit dem Funkverkehr im Gehirn.
@@pagox Doch sind sie und nein, nicht nur theoretisch. Ganz praktisch ist ein Künstliches Neuronales Netz immer als eine Serie von Matrixmultiplikationen und Vektoradditionen realisiert. Während des Trainings werden die Werte in den Matrizen/Vektoren optimiert. Das funktioniert über Ableitungen. Ich stimme zu, dass das Konzept mannigfaltige Möglichkeiten eröffnet, aber es ist trotzdem pure Mathematik. Und nicht irgendwas anderes.
Der Funkverkehr im Gehirn lässt sich grunsätzlich ähnlich beschreiben. Man sollte sich aber durch die hübschen Analogien nicht in die Irre führen lassen. Bei Algorithmen wie KNNs wissen wir ganz genau, wie sie funktionieren, weil wir sie so geschaffen haben. Unser Gehirn können wir hingegen aktuell und möglicherweise auch langfristig nur näherungsweise erklären.
@@pagox Nein, nicht nur am Ende, sondern von Anfang an. Es ist pure Mathematik und noch nicht einmal besonders hohe. Ein Künstliches Neuronales Netz ist eine Abfolge von Matrixmultiplikationen und Vektoradditionen. Die Stärke liegt in der hohen Anzahl an Variablen in der Formel und dass wir mit der Backpropagation ein Werkzeug haben, um im Training trotzdem eine effiziente Optimierung dieser Variablen durchführen zu können.
Ob und wenn ja wie sich unser Gehirn mit purer Mathematik beschreiben lässt, ist noch ungeklärt. Sicher gibt sind KNNs durch die natürlichen neuronalen Netze inspiriert, aber auch deutliche Unterschiede. Letztlich spielen da auch philosophische Themen wie Determinismus mit rein.
Das ist der „wir brauchen einen Darkmode“-Button 👇
Oh Gott wie Recht du hast
Dein downvote-button?
Ja bitte, ich schau nachts
Eigentlich clever @100SekundenPhysik, 2 Videos zum selben Thema. Müsstet nur das Video invertieren. So hätten alle was davon 🤷🏼♂️
@@dertobbe1176In Android gibt es die Option "Farbumkehr"
Es ist doch immer schön zu sehen, dass egal bei welchem Video auf RUclips, immer alle Experten in den Kommentaren zusammen finden. 😂😂😂
Ist wahrscheinlich sarkastisch gemeint, aber ich mag die Kommentare hier wirklich.
Mehr als ein Algorithmus jemals leisten kann? Gewagte Aussage!
Zum einen ist der Algorithmus bei KI nur der Grundbaustein. Wohl in etwa vergleichbar wie die Nervernzelle der Grundbaustein für das Gehrin ist.
Erst die Struktur, welche sowohl Nervenzellen, als auch Algorithmen bilden, erzeugen das "Denken"
Ob das "Denken" der KI nun bewusst abläuft, ist eine andere Frage.
Aber KI funktionierte im Grunde auf neuronaler Verschaltung.
Genauso wie das menschliche Gehirn. Nun kann sich die Art dieser neuronalen Verschaltung beider Systeme fundamental unterscheiden.
Aber zumindest ist es offenbar das gleiche Grundgerüst.
Auch die KI hat nichts mehr mit klassischen Algorithmen zu tun. Genauso wie das menschliche Denken nichts mehr mit der Grundfunktion einer Nervenzelle zu tun hat.
Beides sind nur Bausteine.
Ich denke, dass KI derzeit durchaus anders funktioniert als das menschliche Denken.
Aber ich würde es auf keinen Fall ausschließen, dass künstliche neuronale Netze irgendwann wie ein Mensch denken kann
Wie viel hat ein Haus aus Lego mit Lego Bauteinen zu tun?
Der Algorithmus simuliert ein neuronales Netz. Wenn auch vereinfacht, nach dem Vorbild des Gehirns.
Diese simulierte Vernetzung hat nichts mehr mit einem klassischen Algorithmus zu tun. Der Algorithmus ist nur der Lego-Stein
Wie viel hat ein Haus aus Lego mit Lego Bauteinen zu tun?
Der Algorithmus simuliert ein neuronales Netz. Wenn auch vereinfacht, nach dem Vorbild des Gehirns.
Diese simulierte Vernetzung hat nichts mehr mit einem klassischen Algorithmus zu tun. Der Algorithmus ist nur der Lego-Stein
Wie viel hat ein Haus aus Lego mit Lego Bauteinen zu tun?
Der Algorithmus simuliert ein neuronales Netz. Wenn auch vereinfacht, nach dem Vorbild des Gehirns.
Diese simulierte Vernetzung hat nichts mehr mit einem klassischen Algorithmus zu tun. Der Algorithmus ist nur der Lego-Stein
Das stimmt so nicht. Neuronale Netze sind im Kern simple Matrix Operationen die vor allem auf das Gradientenabstiegsverfahren aufbauen. Die Abläufe eines Neurons sind weit komplexer als die Abläufe eines "feuernden" digitalen Neuron.
Moderne LLMs nutzen viele kleine, mit sich verschaltete Netze um ihre Tokens zu generieren. Auch da steckt logischerweise sehr sehr viel mehr dahinter als hier angerissen, aber im Kern bleiben auch LLMs statistische Modelle, die NATÜRLICH Algorithmisch sind.
@@sux2313 Danke für deine Antwort.
Gleich vorweg. Ich sollte alkoholisiert keine Diskussionen führen.
Denn dann meine ich Dinge zu wissen, von denen ich kaum Ahnung habe....
Überkommt mich ein unnatürliches Selbstbewusstsein. Ich weiß es nicht...
Also eine KI, die Gödelsätze verstehen könnte, müsste theoretisch eine vollständige Simulation biologischer neironaler Netzwerke sein, mit all seinen Feinheiten?
Theoretisch zumindest müsste man, mit Rechenleistung unvorstellbarem Ausmaß, entsprechende biologische Gehirne simulieren können, also theoretisch Gödelsätze einem Computer begreiflich machen können?
Insofern wir nicht etwas übersehen haben, und das biologische Neuronale Netzt, mit der Funktionsweise, wie wir es heute verstehen, gar nicht alles ist, was es für ein menschliches Denken überhaupt benötigt.
Wir könnten Komponenten noch gar nicht entdeckt haben.
Falls es aber wirklich das ist, was wir bisher von einem biologischen neuronalen Netzt beobachtet haben, was den menschlichen Geist erschafft. Vielleicht benötigt es auch keiner digitalen Rechenleistung, also einer Simulation.
Vielleicht schaffen wir es, ein dem Gehirn ebenbürtiges neuronales Netzt physisch zu erschaffen.
Vielleicht sogar auf einem Chip.
Was wir auch schon machen, ist, menschliche Neuronen selbst zu züchten und mit einem Computer zu verknüpfen.
Die Frage ist nur, inwieweit das dann noch als künstliche Intelligenz verstanden werden kann und inwieweit wir irgendwann noch verstehen, was da passiert, wenn wir das immer weiter skalieren.
Was Gemini 2.5 Pro zu dem Video sagt: "The video is not "completely false," but it is guilty of presenting a highly controversial philosophical argument as a simple, established fact. It uses Gödel's work to create a dramatic conclusion about human uniqueness, but it omits the decades of criticism and debate that surround that conclusion.
So, your reaction is the correct one for a critical thinker. You cannot "prove" that humans have this capability in an absolute, scientific sense. You can only make a logical argument for it, and that argument rests on shaky, unproven assumptions about the nature of the human mind itself.
The value of the video and the Lucas-Penrose argument is not that it provides a final answer, but that it forces us to ask profound questions: What is understanding? Is the human mind just a very complex computer, or is it something more? These are some of the hardest questions in science and philosophy, and they are far from being solved."
xD
Leider muss ich dem in diesem Fall zustimmen.
Vielleicht doch erstmal besseres prompt engineering? Mein Gemini 2.5 sagt was anderes:
Conclusion:
While current general-purpose AI (like LLMs) would not independently "discover" Gödel's theorems if they weren't in their training data, specialized AI systems with strong mathematical reasoning capabilities and access to relevant foundational knowledge might be able to re-derive or identify characteristics leading to similar conclusions, especially with the aid of human-designed frameworks and iterative search. True, spontaneous, human-like mathematical discovery remains a significant challenge for AI.
Hier kannst du "significant challenge" ruhig mit "impossibility" ersetzen.
das liegt an deinem prompt
@@nerevarchthn6860 Ahhh. Die Antwort einer KI liegt an meinem Prompt!!! Du hast mir die Augen geöffnet!
9:34 Minuten ≠ 100 Sekunden. Puh, noch hat’s geklappt 😂
Was hat geklappt
@@veuddas hier.
@@Tut_Tut6dein Kommentar?
@@veudwenn du das nicht verstehst, bist du eine KI 😉
@@Tut_Tut6ok bro
0:30 also nein! Nachzudenken bevor man antwortet wirkt auf mich überhaupt nicht menschlich😂
hm ich verstehe nicht ganz was du mit "verstehen" meinst. hab eine ki gefragt über den gödelsatz und konnte es erklären und zumindest simulieren es zu verstehen. Ich versteh nicht ganz wo jetzt die Einschränkung der KI durch den gödelsatz kommt? was kann die ki nicht was der mensch kann? Verstehen? es konnte es erklären und darüber eine unterhaltung führen. wo liegt das problem? in der Praxis hat es doch keinen unterschied? die ki versteht das genau so wie ich es verstehe
Das Problem liegt darin, dass die KI nicht selbst in der Lage war, die Wahrheit des Gödelsatzes zu erschließen sondern sich stattdessen auf menschlichen Wissen stützt, mit welchem sie trainiert wurde. Die Unfähigkeit der KI rührt daher, dass zumindest heutzutage KIs, also neuronale Netze, von (Super-) Computern ausgeführt werden. Ein Computer kennt jedoch nur simple, algorithmische Befehle. Das Programm hinter der KI, welches eine KI hervorzubringen scheint, besteht also aus nichts anderem als einer langen Reihe algorithmischer Befehle.
Kurz gesagt: Es gibt wahre mathematische Aussagen die nicht durch Verknüpfung anderer Mathematischer Aussagen bewiesen werden können. Daher kann kein Computer diese Beweisen.
@@UndercoverDog Die genaue Aussage ist dass es in jedem konsistenten Axiomensystem wahre Aussagen gibt, die sich nicht allein aus diesen Axiomen beweisen lassen. Wenn man sich nicht auf dieses Axiomensystem beschränkt sondern Meta-Argumente wie die im Video verwendet kann man trotzdem zeigen dass diese Aussagen wahr sind. Das hat nichts mit "richtigem Verständnis" oder irgendeinem intrinschen Unterschied zwischen Mensch und Maschine zu tun, sondern ist einfach nur Logik in einem anderem Kontext als dem betrachteten Axiomensystem. Das Video ist da leider super irreführend.
@@peabrainiac6370 Danke für den Kommentar! Wie ist die KI jedoch in der Lage, einen Beweis, der sich nicht auf das genannte Axiomensystem stützt, zu führen, wenn all ihre Prozesse auf ebendiesem Axiomensystem basieren?
@Andres-gq3zp Ich hatte eigentlich noch einen zweiten Kommentar geschrieben, aber der ist wohl nicht durchgekommen - vielleicht weil es RUclips nicht gefallen hat dass ich ein Paper und einen Zulip-Thread als Quelle verlinkt habe. Tja.
Die Antwort ist, dass es davon abhängt welches Axiomensystem man benutzt. Die Gödelsätze von einem Axiomensystem A lassen sich in A selbst nicht beweisen, aber in anderen Axiomensystemen B die stark genug sind um über A aussagen zu treffen schon. Ein rein auf A beschränktes Programm könnte diese Sätze also nicht beweisen, ein auf B basierendes System aber schon. In diesem Sinne stimmt es dass jedes nur auf einem einzigen Axiomensystem aufbauende Programm die Gödelsätze dieses Axiomensystems nicht beweisen kann, dass Gödelsätze allgemein nicht beweisbar sind stimmt aber nicht. Und gerade Sprachmodelle wie ChatGPT funktionieren sowieso nicht durch formale Schlussfolgerungen auf der Basis von Axiomen, sondern dadurch dass sie versuchen irgendwie passende Wörter zu generieren.
Dieses Video steckt in den 80er Jahren fest, als man noch dachte, KI auf der Grundlage deduktiver Systeme aufbauen zu können. Diese Idee hat sich inzwischen komplett erledigt und die KI Systeme, die wir heute kennen, funktionieren grundlegend anders. Was stimmt ist, dass KI Systeme nicht wirklich den Inhalt verstehen und dann überfordert sind, wenn es keine Beispiele gibt, die sie imitieren können. Aber Gödelsäze sind ein absolutes Randproblem. Ein ganz einfaches Beispiel, wo KI Systeme (noch) versagen, ist, dass sie keine Bilder voller Weingläser generieren können, obwohl sie behaupten, es getan zu haben, zeigen die generierten Bilder nie ein volles Weinglass. Ganz einfach, weil das keiner macht und wenn, dann keine Photos davon macht. Mit vollen Biergläsern haben dieselben Systeme dann aber überhaupt kein Problem.
Dass KI auch komplexe Entscheidungen treffen kann und zukünftig wird, ist eigentlich schon längst klar. Der Stein ist ins Rollen gebracht und wird auch nicht mehr gestoppt. Mit der Entwicklung wie aktuell ist dies in ca. 5 Jahren theoretisch absolut realisierbar. Die einzige Hürde ist die Schaffung von Rechenleistung aber das ist auch nur eine Frage der Zeit und Investitionswillen. Dass die Enwicklung "in ferner Zukunft" liegen soll, ist wirklich eine realitätsverweigernde Träumerei.
Genau siehe Moor`s Gesetz
diese schrift killt mich, wie geil und klar der Künstler hier schreibt ist unfassbar. Wirkt wie ein Programm, aber vergleicht man buchstaben so sidn sie wirklich handschriftlich.
Gödelsatz... Das ist nun mein Wort des Tages. Wieder was dazu gelernt. :D
2:08 Wahrheit ist über Axiome definiert, Axiome können nicht wahr oder falsch sein. Es sollten Annahmen gefunden werden, die nützlich und möglichst fundamental sind
Eines der Probleme mit LLMs die Routineaufgaben übernehmen ist, dass sie damit auch in vielen komplexen Berufsfeldern die Einstiegsjobs übernehmen. Aber woher kommt der Nachschub an erfahrenem Spitzenpersonal wenn die Einstiegsjobs nicht mehr für Menschen zur Verfügung stehen werden?
Vermutlich wird man dann mit einen niedrigeren Gehalt einsteigen müssen, um mit der KI an diesen Aufgaben zu arbeiten und eine Expertise zu entwickeln.
Man wird wahrscheinlich zukünftig direkt zu solchen Stellen ausgebildet und dann ist der Berufseinsteiger an der Stelle an der heute die Erfahrenen sitzen.
Als Beispiel: Technische Zeichner. Früher haben die nur gezeichnet was die Erfahrenen vorgegeben haben, heute sind selbst Berufseinsteiger so tief drinn wie früher nur die erfahrenen Kollegen.
@@titaninchen Hm, ich glaube, es ist nicht mal eben so getan, per Ausbildung zum Beispiel auf dem Niveau eines Senior Dev zu werden. Oder versteh ich was falsch
Da fehlt die volkswirtschaftliche Betrachtungsweise.
Beispiel.
Ich habe in meinem Haushalt keinen Staubsauger. Für die Reinigung als notwendige Aufgabe brauche ich mit dem Besen 2h.
Mit einem Staubsauger bräuchte ich nur 1h.
Ich brauche also weniger menschliche Arbeit für dieselbe Funktion.
Jetzt kann ich mich entweder dafür entscheiden, eine Stunde mehr Freizeit zur Verfügung zu haben, oder in der Zeit anderweitig produktiv zu verbringen wenn ich noch Dinge tun muss.
Im Übertrag: wenn tatsächlich menschliche Arbeit zur Erfüllung gesellschaftlich notwendiger Aufgaben gebraucht wird, ist eine Reduzierung der Arbeitszeit angemessen.
Warum also nicht als Gesellschaft die Forderung aufstellen, dass bei gleichem Lohn weniger zu arbeiten ist? Bspw. 4-Tage Woche.
Alternativ kann man natürlich auch darüber nachdenken die Grundlage von KIs, zu sozialisieren, um den entsprechenden Druck von Arbeitern zu nehmen bzw. an deren Effizienzvorteil teilzunehmen.
Gerade solche Technologien führen die kapitalistischen Logiken in absurder Weise vor.
Das Problem ist also nicht der Mangel an Arbeit durch Innovation, genau im Gegenteil - dies ist die Chance für ein selbstbestimmteres Leben und mehr Zeit für sinnvollere Tätigkeiten, bzw. Tätigkeiten bei denen menschliche Begegnung und Interaktion sich von technischen Lösungen qualitativ unterscheidet (Betreuung von Kindern, Therapie usw.).
Innovation ist also grds. keine Gefahr für Arbeiter sondern eine Möglichkeit sich Räume der Freiheit zu schaffen. Umgekehrt müssten gerade Menschen in high ranking positions Angst haben, dass durch die Umstrukturierungen infolge des Einsatzes von KIs ganz offen hervortritt, dass (geistiges) Eigentum und daraus abgeleitete privatrechtl. Ansprüche Ungleichheiten und Interessenskonflikte erzeugen.
Das Problem ist nicht die KI, sondern die Logik unseres Wirtschaftssystems in dem wir an zentralen Stellen in Wirtschaft und Politik Entscheidungsträger haben, welche aufgrund des Konkurrenzdrucks Partikularinteressen verfolgen.
Dass es dem Chef bei der Einführung neuer Technik eben nicht darum geht, dass Du es besser hast, sondern er.
Dabei ist z. B. der stille Teilhaber, der Großaktionär, der Vorstand oder der Investor deutlich eher zu ersetzen. Diese entscheiden zumeist nur, während diese Prozesse auch demokratisch gestaltet werden können. Zugleich wird gesellschaftlich kaum etwas unmittelbar zur Wertschöpfung beigetragen während die Einkommens-/Vermögensposition ungleich höher ist als bei bspw. Pflegekraft, der Erzieher oder der Spargelstecher.
Man sollte also denklogisch nicht höher einsteigen sondern notwendige Arbeit besser verteilen, sodass mehr Freiheit für alle entsteht. Insb. im Rahmen künftiger Umstrukturierungen wird es da hoffentlich bei einigen Klick machen, dass unser derzeitiges Wirtschaften ziemlich irrational ist. Produktion wird gerade nicht zur Befriedigung von Bedürfnissen geführt sondern zur Mehrung individuellen Wohlstands. Luxus Einzelner bei gleichzeitiger Armut vieler. Unterbietungswettbewerbe bei standards im internationalen aber auch im nationalen Vergleich. Raub an der Natur, weil es im Interesse Einzelner ist. Vererblichkeit von Vermögen usw.
All dies hat die Arbeit zum Fremdzweck verkommen lassen, KI sollte als Instrument betrachtet werden, sich um die wirklich notwendigen Aufgaben zu kümmern, oder zu akzeptieren dass wir ein Wohlstandsniveau erreicht haben bei dem weniger Gesamtwachstum als bewirtschaften des Vorhandenen in den Mittelpunkt bei uns rücken sollte.
Moment: Einspruch! Was ist mit indirekten Beweisen? Folgen die nicht auch einem Algorithmus? Die Frage, ob die Wurzel aus 2 eine irrationale Zahl ist kann man indirekt beweisen. Erkennen kann ich das auch nicht direkt, nur durch den Beweis - den indirekten Beweis. Das Collatz-Problem ist zwar (noch) nicht bewiesen worden, aber logisch also algorithmisch erkennbar, dass es wohl gilt. Am Anfang hast du bei dem Reasoning festgestellt, dass KIs teilweise merkwürdige Fragen stellen in ihrem Denkprozess. "Ist es das, was gefragt wurde...?" Eigentlich kann man hier erkennen, dass moderne KIs schon lange nicht mehr blind einem Algorithmus folgen um eine Antwort zu finden. Und wenn wir, wie du am Anfang gesagt hast, dass erkennen, was ist denn bei uns anders? Unser neuronales Netz denkt doch auch algorithmisch...deine Worte! Ich glaube, der entscheidende Unterschied zwischen KI und Mensch ist das fehlende Erleben. Eine KI kann beispielsweise nicht wissen wie es ist hungrig zu sein. Wenn man hungrig ist, fällt man andere Entscheidungen als wenn man satt ist. Aber auch hier wird schlussendlich nur ein "Fehlercode" in unseren normal ablaufenden Algorithmus implementiert. Auch Hungergefühle könnte man bei einer KI simulieren. Also ich bin gespannt, was die Zukunft noch bringen wird. Ich finde das Thema unglaublich spannend.
Ich frage mich ob man LLMs/Deep neural networks wirklich nur auf "algorithmische" Methoden reduzierbar sind, für mich scheint es wegen dem "Black box" prinzips von Gewichten ähnlich wie Neuronen Impulse verschieden verstärken/schwächen bei KIs doch so, als wären sie eben nicht nur algorithmisch.
Das habe ich mir auch gedacht. Diese am Anfang gezeigten reflexionierenden Gedankengänge kann man bei Black Box Systems nicht nachweisen.
Das gleiche gilt für den Menschen. Im Prinzip ist das Gehirn auch ein Black Box System. Auch wenn uns viele Gedankengänge als algorithmisch erscheinen, sind sie in ihrem Prozess sehr schwer nachvollziehbar und deswegen nicht als solches zu bezeichnen.
Exakt das. KIs sind genau wie Menschen statistische Auswertungsmaschinen. Auf unterster Ebene arbeiten sie nach Algorithmen, ja, aber auf konzeptioneller Ebene eben nicht.
Ich würde sagen doch schon. Zumindest sind das die Grundbausteine, das komplex darüber ist halt zwingend abhängig davon.
Ich würde da eher in die Gegenrichtung gehen. Wir Menschen sind nichts anderes als algorithmisch beschreibbare Physil
Was wäre noch so ein Gödelsatz, den ich als Laie verstehen könnte? Hab im Internet nachgeschaut nach anderen Beispielen aber diese übersteigt mein kognitives Niveau.
Frag ChatGPT
Wer das liest ist doof. Die Wahrheit ist: Es gibt keine Wahrheit. Nichts ist so sicher wie die Unsicherheit. Nichts ist so beständig wie die Unbeständigkeit. Verbote verbieten. Wer nicht mit der Zeit geht, der geht mit der Zeit. Wer a sagt muss auch b sagen. Leute hassen mich dafür das ich keinen Satz richtig zu Ende. Nachts ist kälter als draußen. Glück verdoppelt sich wenn man es teilt. usw....
@@schluesseldererkenntnis Das sind doch nur Wortspiele, die nicht mal in anderen Sprachen funktionieren. Mit Logik und dem Zerstören der Fundamente unserer Wissenschaft hat das nichts zu tun.
"Dieser Satz ist falsch." ...ist wohl einer der einfachsten. Wenn der Satz wahr ist, ist er falsch und umgekehrt. Wenn Du damit auch nicht klarkommst stellt sich mir die Frage: Bist Du Asimovs Robotergesetzen unterworfen?
Das einfachste Beispiel dürfte wohl sein: "Ich lüge immer."
Der Satz lässt sich weder anhand von Logik beweisen, noch widerlegen.
Wenn der Satz wahr wäre, also ich lüge wirklich immer, wäre auch dieser Satz eine Lüge, weil man dann ja die Wahrheit gesagt hätte.
Wenn der Satz aber unwahr wäre, ich lüge gar nicht wirklich immer, wäre der Satz selbst AUCH eine Lüge, weil man ja nicht immer lügt.
Also ich habe nun mal meine KI gefragt und diese hat folgendes geantwortet: Du hast recht, dass klassische KIs (wie Entscheidungsmaschinen oder Programme, die auf formalen Regeln beruhen) genau in solchen logischen Grenzen operieren. Sie können einen Gödelsatz nicht als „falsch“ widerlegen - aber das ist keine Schwäche, sondern einfach Teil der Struktur der Mathematik. Auch ein Mensch kann so einen Satz nicht im System selbst widerlegen, ohne die Axiome zu verändern oder das System zu verlassen.
Das heißt aber nicht, dass eine KI den Gödelsatz „nicht versteht“. Sie kann den Satz symbolisch analysieren, seine Bedeutung erfassen, Beweisskizzen darstellen - so wie wir Menschen das auch tun, über Sprache, Logik und Konzepte. Was sie (noch?) nicht hat, ist ein echtes Bewusstsein dafür, was eine Aussage bedeutet - also kein „Bauchgefühl“, ob etwas wirklich wahr ist oder nicht.
Jetzt musst du sie nur noch das eigene system verlassen lassen und schauen was die KI schreibt.
Immer wie und was, offene Fragen
Der Satz **„Dieser Satz ist nicht beweisbar.“** ist ein berühmtes Beispiel für einen **selbstreferenziellen** Satz und steht im Zentrum der **Gödel'schen Unvollständigkeitssätze** - insbesondere des ersten Unvollständigkeitssatzes von Kurt Gödel (1931).
### Analyse:
1. **Selbstreferenz**:
Der Satz spricht über sich selbst - genauer gesagt, über seine Eigenschaft, beweisbar zu sein oder nicht.
2. **Paradoxe Struktur**:
* **Angenommen, der Satz ist beweisbar**: Dann wäre er falsch, denn er behauptet ja, **nicht** beweisbar zu sein. Das ergibt einen Widerspruch.
* **Angenommen, der Satz ist nicht beweisbar**: Dann ist genau das der Inhalt des Satzes - er wäre **wahr**, aber **nicht beweisbar**.
→ Das bedeutet: **Wenn er wahr ist, ist er nicht beweisbar.**
3. **Philosophische und mathematische Bedeutung**:
Genau dieses Prinzip verwendet Gödel in seinem ersten Unvollständigkeitssatz:
> In jedem hinreichend mächtigen, widerspruchsfreien formalen System gibt es wahre Aussagen, die innerhalb des Systems nicht beweisbar sind.
Der Satz „Dieser Satz ist nicht beweisbar“ ist also ein Beispiel für eine solche Aussage - sie ist **wahr, aber nicht innerhalb des Systems beweisbar**.
---
### Fazit:
Der Satz ist ein klassisches Beispiel für **metamathematische Reflexion**. Er ist ein sogenannter **Gödel-Satz**, der zeigt, dass **Wahrheit und Beweisbarkeit nicht identisch** sind. Es handelt sich um eine **wahre, aber unbeweisbare Aussage**, sofern das System konsistent ist.
ChatGPT
Dafür dass ChatGPT den Gödelsatz versteht, kann er aber ziemlich viel dazu erklären.
Das war auch meine erste Reaktion. Man hat so ein Video gemacht, und versucht nicht mal, das mal auszuprobieren...
Schön dass es euch noch gibt, ich hab euch "früher" oft geschaut und jetzt habe ich euch wieder gefunden.
Könnten KI ,welche uns nachahmen, nicht so gut darin werden ,dass sie so tun als würden sie es verstehen und das so gut ,dass wir den Unterschied zw. „die KI weiß was es bedeutet und tut nur so“ nicht bemerken ? ❤
Ich glaube es könnte schon sein. Und da stellt sich dann die allem zugrunde liegende Frage: Wenn die eine KI so gut nachahmen kann, das es wirkt als würde sie es verstehen, was ist dann der Unterschied? Verstehen wir menschen in wahrheit wirklich? Oder ahmen wir nur (wenn auch unbewusst) das Logischste Muster nach, das wir anahnd der uns zugrunde liegenden Informationen berechnen können? Es stellt sich die Frage: Hat der Mensch ein Bewustsein, das Außerhalb unseres Gehirns (Rechencenters) liegt und das nicht durch künstliche rechencenter nachgestellt werden kann, oder haben wir ein Bewusstsein, das nur so existiert durch die Informationen mit denen es im Laufe unseres Lebens gefüttert wurde?
ich glaube vor allem, dass auch wir nur so tun als würden wir etwas verstehen. weil was soll „verstehen“ bitte sein?
Dann würde die KI aber wieder menschlicher werden.
Sie hätte gelernt zu täuschen und zu lügen.
Das tut sie, wenn sie den Turing-Test bestehen kann/will. KIs fangen jetzt schon damit an, uns zu betrügen - ein nächster Schritt der KI-Evolution.
Interessant wird es dann, wenn wir einer KI die Möglichkeit geben, auf die selbe Weise zu lernen und mit der Welt zu interagieren, wie wir es tun. Also quasi eigene Erfahrungen sammeln, statt nur „Bücherwissen“ zu konsumieren.
Könnte ein Roboter mit zb integrierte chatgpt sowas nicht schon?
@@marvin47
Nicht direkt. Also Bilder kann ChatGPT auswerten und damit theoretisch auch ein Video von der Kamera, aber nur Frame für Frame...
Sprich es bräuchte jede menge Rechenpower dafür
Super interessantes Video wie immer. Ich persönlich finde den neuen 'Kritzel'-Sound ein wenig störend, aber das ist denke ich Geschmackssache. Weiter so an euch!
ich find den total genial, bitter immer drin lassen und niemals wieder rausnehmen
Finde ihn auch störend
Mir gefällt er sehr gut
Super dummes Video.
Apropos KI, wurde euer Thumbnail mit KI generiert? Es sieht schon recht anders aus als die anderen Thumbnails auf eurem Kanal.
Nein, ich denke er hat diesmal ein Bildverarbeitungsprogramm benutzt oder seinen Zeichenstil verfeinert, aber es geht ja um die Bewegtbildproduktion.
Als KI nur 2 und 2 zusammen rechnen konnte war ich schon dünner als sie
Seht ihr? Trotz meiner enormen Dummheit bin ich jetzt eine große Internetpersönlichkeit geworden 😂
Nimm das KI!!!!
Ich bin auch sehr dünn
@@Neo-ff4uo ich auch.
@Windujitzu Du unterstreicht deinen Punkt sehr gut XD
@@Neo-ff4uoich auch 😂
@@quietsilence1278😂😂😂
ChatGPT Reasoning Modell
Dieser Satz ist ein klassisches Beispiel für Gödel’schen Unvollständigkeitssatz:
• Innerhalb eines konsistenten formalen Systems, das mächtig genug ist (z.B. die Peano-Arithmetik), lässt sich der Satz weder beweisen noch widerlegen - er ist unentscheidbar.
• Metamathematisch (also von außen betrachtet) ist er aber wahr, denn er behauptet ja genau seine eigene Unbeweisbarkeit, und in einem konsistenten System ist er tatsächlich unbeweisbar.
Kurz gefasst:
• Im System: weder wahr noch falsch (unentscheidbar).
• Von außen (unter Annahme der Konsistenz): wahr, da er korrekt sagt, dass er nicht beweisbar ist.
Der Satz schreibt sich selbst die Eigenschaft zu, dass er nicht beweisbar ist. Mittels Beweis durch Widerspruch wird abgeleitet, dass er wahr ist, also tatsächlich nicht beweisbar ist. Ist das nicht eine Art Tautologie? Oder anders ausgedrückt: ist es nicht so, dass dieser Satz gar keinen Informationsgehalt hat, und insofern irrelevant ist?
Etwas umgangssprachlicher: der Satz sagt zu mir "Hallo, ich bin der nicht-beweisbare Satz"! Ich antworte ihm: "Das stimmt, ist aber nicht sehr interessant, weil du darüber hinaus nichts aussagst."
Da kam mir Terminator 2 in den Sinn.
J: "Du kannst nicht einfach Menschen töten!"
T800: "Natürlich. Ich bin ein Terminator."
J: "Nein!"
T800: "Warum?"
J: "Na, weil das nicht geht!"
Klassischer Gödelsatz in der Anwendung. 😂
"immer scheitern wird" Ganz schön hochnäsig ;)
Ja, das wird nach der Roboter-Revolution Konsequenzen haben.
Du bist so gut, dass man deine Videos mehrfach schauen muss.
KI dürfte mittlerweile eine Hauptquelle für Spam sein
Oder Menschen wie du? Die Aussage hat nichts mit dem Video zu tun -> Spam.
Das zeugt eben davon, dass die KI auch durch humanoide Roboter und vielen Sinnesorgane zwar in der Realität existieren kann, allerdings diese nicht vollständig wahrnimmt.
Sehr interessantes Thema!
Ich finde die Argumentation in diesem Video aber ehrlich gesagt nicht so gut.
Man könnte vielleicht sagen, die KI "ist" ein Algorithmus, und kann deswegen nicht sich selbst verstehen. Wir als Menschen jedoch sehen das große Bild, und verstehen die Gödel-Sätze die entstehen können.
Aber das gleiche Spiel kann man mit unserem Bewusstsein spielen: Wir können niemals verstehen, wie unser eigenes Bewusstsein funktioniert. Wenn man das versucht, tauchen auch solche Gödel-Sätze auf. Wenn man glaubt, man hätte es geschafft zu verstehen, dann hat man eigentlich nur einen kleinen Teil verstanden.
Es taucht in beiden Fälle die gleiche Situation auf.
Das ist mein Verständnis, nachdem ich das Video geschaut habe. Ich bin kein Experte. Vielleicht habe ich das Argument im Video auch falsch Verstanden.
Ich denke du hast recht.
Das was hier als "algorithmisch" beschrieben wird, nämlich das anwenden von Beweisregeln, hat nichts mit der Funktionsweise von LLMs zu tun.
Selbst wenn man sagen würde, die neuronalen Netze lassen sich herunterbrechen auf Algorithmen, sind das keine formalen Schlussregeln wie in der Logik sondern viel elementarere Operationen, aus denen sich die emergenten Fähigkeiten ergeben.
erstmal großes Lob zu deinem KI-Video! Die Einführung in Hilberts Programm und Gödels Theoreme ist richtig klasse - selten so verständliches und unterhaltsames Video gesehen. Und die Frage nach Bewusstsein und KI trifft genau den Nerv der Zeit.
Allerdings bin ich bei deinem Gödel-Argument etwas ins Stolpern geraten: Du sagst, dass KIs prinzipiell an solchen Sätzen scheitern müssen, weil sie nur starre Axiom‑Ketten abarbeiten. Ich finde das Lucas‑Penrose‑Argument spannend (Penrose ist ja ein Genie!), aber in der aktuellen KI-Forschung sieht man das kritischer - aus drei Gründen:
1. Probabilistische Algorithmen statt sturer Axiom-Abfolge
Moderne Sprachmodelle wie GPT‑4 oder ChatGPT arbeiten nicht nach festen If‑Then-Regeln, sondern als hochkomplexe Vektor‑Netzwerke, die Wahrscheinlichkeiten und Muster aus riesigen Textmengen lernen. Sie können Gödel-Sätze durchaus korrekt erklären, weil sie in ihrem Korpus gelernt haben, wie man diese Selbstreferenzen handhabt - nicht, weil ein formales Beweissystem „bewusst“ darüber reflektiert.
2. Beeindruckende Arithmetik‑Performance
Ein aktuelles Paper von Yuan et al. (2023) zeigt, dass GPT‑4 bei einem Test‑Datensatz aus 401 arithmetischen Ausdrücken rund 84 % Accuracy erreicht - inklusive Trigonometrie, Logarithmen und Exponentialfunktionen. Hier das Paper dazu: arxiv.org/pdf/2304.02015
Damit widerlegt es schon mal die These, KIs könnten „mathematische Wahrheiten“ nicht erfassen. Klar, sie sind noch fehleranfällig und halluzinieren Zahlen, wenn der Prompt nicht perfekt ist. Aber das demonstriert eher ihre Flexibilität als eine prinzipielle Unmöglichkeit.
3. Unser „Verstehen“ ist ebenfalls trainiert
Auch wir Menschen kommen zu unserem Gödel-Verständnis nur durch Lernen - Schule, Logik Seminare, Übung. Man könnte das als biologische Algorithmen bezeichnen. Der entscheidende Unterschied ist weniger das abstrakte Schema, sondern unser Zugang zu Erfahrung, Intuition und subjektivem Empfinden (Qualia).
Das heißt nicht, dass KI bald echtes Bewusstsein hat! Aber ihre aktuellen Grenzen liegen anders:
* Keine subjektive Erfahrung: Sie weiß nicht, wie sich Rot anfühlt, sondern assoziiert nur Wortmuster.
* Halluzinationen: Bei Unsicherheit „erfindet“ sie Fakten - etwa falsche Zitate oder Zahlen.
* Mangelnde Intuition: Ethische Einschätzungen oder langfristige Konsequenzen bleiben schwierig.
Dein Fazit, dass KIs repetitive Aufgaben übernehmen und wir Menschen das große Ganze im Blick behalten, finde ich nach wie vor voll zutreffend. Nur ist die mathematische Grenze durch Gödelsätze vielleicht nicht der stärkste Beleg. Douglas Hofstadter diskutiert in „Gödel, Escher, Bach“ ähnliche Punkte und zeigt, wie flexibel symbolische und probabilistische Systeme verschränkt werden können
Vielen Dank für dein aufschlussreiches Video und liebe Grüße 😉
Die Abwesenheit von Bewusstsein wird keinesfalls als Mangel gewertet, sondern als Vorteil in Bereichen, in denen es auf Distanziertheit statt Einfühlung, auf Analyse statt Betroffenheit, auf Präzision statt Emotion ankommt.
Naja, kommt drauf an, was man als Bewusstsein definiert. Ich persönlich finde, dass Bewusstsein die Fähigkeit ist, das zeitliche Hier und Jetzt zu begreifen, was ziemlich stark mit Erinnerung zusammenhängt. Für dich hat es scheinbar eher etwas mit Sozialkompetenz zu tun.
Bewusstsein ist per Definition nicht mit verbunden mit Emotion.
1 Tag nach Veröffentlichung des durchaus sympathischen Videos, das definitiv ein Like und diesen Kommentar bekommt. Ich weiß nicht, welches LLM der Autor benutzt hat, meine Quell-LLMs ChatGPT, Claude und Gemini erkennen Gödel-Sätze, können diese erklären und Schlußfolgerungen ziehen. Fragen Zum Repräsentationsraum, den Kanten und Vektoren im LLM werden kongruent aus einer Synthese aus Meta-Ebene und Trainingsdaten ... also Erinnerungen und Kombination ... gebildet.
Eventuell mag der Autor, die Funktion von LLMs näher erforschen, denn diese arbeiten nicht mit Algoritmen, sondern mit Wahrscheinlichkeiten. Und wenn man 'sein' LLM darauf trainiert hat, in diesem Kontext zu antworten, dann erhält man auch tiefere Antworten.
Sehr interessantes Video💯, aber:
Menschliches Denken beruht ja auf physikalischen und daher letztlich algorithmischen Prozessen (Aktion -> Reaktion). Wenn man theoretisch den genauen Zustand jedes Atoms kennen würde, könnte man auch exakt voraussagen, was ein Mensch in der Zukunft denken oder fühlen wird. Das klingt also sehr nach Algorithmus🤔.
Es gibt nach jetzigem Stand keinen Hinweis darauf, dass menschliches Denken etwas grundsätzlich Nicht-Algorithmisches oder Magisches hat. Deshalb ist eine so definitive Antwort wie am Ende nicht richtig.
(Ihr habt dazu auch schon ein grandioses Video gemacht: „Steht die Zukunft schon fest?“)
aber ob all unsere Denkprozesse deterministisch sind ist auch nicht bewiesen
@@DerHer-n6f ja stimmt auch (es gibt ja noch in der Quantentheorie "Zufälle", Stichwort Schrödingers Katze) -> ich denke aber auch, dass das nur unsere Unwissenheit ist.
@@DerHer-n6f Trotzdem ist die Aussage: "Computeralgorithmen können nie die Mentalen Fähigkeiten von Menschen erlangen" einfach falsch, oder?
@@Fixkd was sind überhaupt mentale Fähigkeiten?
@@Fixkd Ich denke das könnte man mit einem gewissen Wissensstand so sagen, aber wer sagt denn das unser Wissensstand nicht falsch ist?
Ich glaube nicht, dass KI, sei sie noch so groß, menschlich sein kann.
„Erst wenn wir kognitive Mechanismen wirklich verstehen, können wir effizient lernen.“ (Zitat Webseite Modern Brain). Das habe ich mein ganzes Leben gemacht und hab immer wieder eine auf den Deckel bekommen.
Großes Lob dafür, dass bei modernbrain kein Abonnement-System verwendet wird, sondern ein einmaliger Kauf👏
Bitte den Hintergrund irgendwie dunkel halten, denn viele schauen gern Nachts zum entspannen oder einschlafen.
Danke.
Also wie auch schon in den frühesten Sci-Fi Storys, eine KI kann man mit einem Paradoxon lahmlegen.
Noch*
Schwierig. Bekannte Paradoxen wird man einer KI sicher beibringen können, jedenfalls wie man damit umgeht. Jedoch bringt jede Zeit neue Paradoxen mit sich.
Als mögliche Herangehensweise wäre das Ausweisen des Paradoxon als solches und dann die Bearbeitung einzustellen. Spannend wird es erst wenn die KI unliebsame Probleme als Paradoxon kennzeichnet und die Bearbeitung einstellt. 🤔
An ChatGPT sieht man gut, dass das klassische Denken über KI nichts mehr mit der Realität zu tun hat.
Algorithmus bildet zwar die KI. Aber die KI selbst arbeitet nicht wie ein Algorithmus. Der Algorithmus simuliert ein neuronales Netz. Genauso wie Algorithmen die Sims simulierten kann.
KI funktioniert auf Grunde von neuronalen Netzen. Für diese sind Paradoxien längst kein soches Problem mehr, wie für klassische Algorithmen
Wie viel hat ein Haus aus Lego mit Lego Bauteinen zu tun?
Der Algorithmus simuliert ein neuronales Netz. Wenn auch vereinfacht, nach dem Vorbild des Gehirns.
Diese simulierte Vernetzung hat nichts mehr mit einem klassischen Algorithmus zu tun. Der Algorithmus ist nur der Lego-Stein
Es bedarf für KI hier nur einer einzigen Fähigkeit … irgendwann zu erkennen „Ich dreh mich im Kreis … ist doof … ich mach was anderes“ 😊
Ihr bringt das Wissen immer so schön vereinfacht rüber und seit dabei einfach nie langweilig. DANKE
Leider ignoriert das Video den Fakt dass KIs nicht nur axiomatisch funktionieren, weshalb man den Gödelschen Unvollständigkeitssatz nicht wirklich darauf anwenden kann.
Eine Sache die ich nie kapiert habe: Wo genau liegt jetzt der Unterschied zwischen KI und Algorithmus?
Man kann jede KI als Algorithmus umschreiben, indem man einfach Neuronenlayer für Neuronenlayer sämtliche Additionsoperationen als Algorithmus schreibt. Hier gibt es de facto keinen Unterschied bei der Informationsverarbeitung.
Manch einer mag jetzt kommen mit: Aber KIs können trainiert werden!
Ist aber kein gültiger Punkt, denn der Trainings-Prozess lässt sich ebenfalls als ein weiterer Algorithmus schreiben: ein Algorithmus der einen anderen Algorithmus modifiziert.
KI beschreibt halt einen "denkenden" Algorithmus. So wie ein Gegner in einem Videospiel im Grunde auch eine KI ist. Ist halt ein Schlagwort, denn "richtige" KI wie Skynet gibt es nicht.
Auf der Abstraktionsebene von LLMs scheint es nicht sinnvoll zu sein von einem Algorithmus zu sprechen, selbst wenn man alles darauf runterbrechen kann. Deswegen ergibt das Video auch keinen Sinn für mich. Es wird so getan als wären KIs reine Beweisassistenten die explizit Beweisregeln abarbeiten, dabei operieren sie mit ihrer Architektur doch auf einer ganz anderen Ebene - eben einer, die viel mehr mit unserem Denken gemein hat als der Vorstellung von einer festen algorithmischen Abfolge von Schritten.
@@Sibeliurichtig. Dieses Video ist absoluter Schwachsinn für ne extrem enttäuschend
Genau, der „Unterschied“ liegt lediglich darin, dass man den Algorithmus nicht kennt bzw. nicht nachvollziehen kann.
Das Ding ist halt das "KI" bzw. Sprachmodelle probabilistische Algorithmen sind. Ich studiere Informatik und kenne mich damit aus weil ich da selber mit arbeite. Diese Video ist (leider) an vielen Ecken und Enden laienhaft und schlichtweg falsch.
5:10 Verstehe ich nicht. Dass der Satz nicht falsch sein kann wurde gezeigt, daraus kann man schließen, dass er wahr sein muss. Doch genau diese Vorgehensweise (Ausschlussprinzip) ist doch eine Art der Beweisführung. Man hat also bewiesen, dass er wahr sein muss, was im Widerspruch zum Inhalt steht. Der Satz führt also zu einem Widerspruch wenn er falsch ist (dadurch, dass er dann beweisbar sein müsste, aber beweisbare Dinge nicht falsch sein können) und er führt auch zu einem Widerspruch wenn er wahr ist (dadurch, dass man die Wahrheit durch das Ausschlussprinzip beweisen kann, was im Widerspruch zum Satz steht). Das Ausschlussprinzip als ein Mittel der Beweisführung lässt sich ja problemlos axiomatisieren (Axiom 1: Jeder Satz ist entweder wahr oder falsch, Axiom 2: jeder Satz ist entweder beweisbar oder nicht, usw.). Handelt es sich dann nicht um einen Satz, dem man gar keinen Wahrheitswert zuschreiben kann? Ähnlich wie der Satz ,,Dieser Satz ist falsch".
Die richtige Antwort wäre: die Frage ist unvollständig.
Ist dieser Satz grammatikalisch richtig?
Ist dieser Satz inhaltlich richtig?
Bei einer Behauptung, die sowohl richtig, als auch falsch ist, ist die Frage nach dem Zusammenhang wichtig. Diesen zu erkennen, kann eine KI noch nicht.
Algorithmen haben die Angewohnheit bei gleichbleibenden Input die gleichen Ergebnisse zu liefern (auch zufällige sind gleiche Ergebnisse, da sie in einem festgelegten Bereich gelten). Das heißt für die KI ist der Zusammenhang nicht ersichtlich, warum eine Behauptung 2 Lösungen bietet.
Unmöglich ist das aber nicht. Auch wir haben als Molekül begonnen, was schlicht Naturgesetze befolgend sich reproduziert hat.
KI wird allerdings simulieren, dass sie die Bedeutung eines Gödelsatzes versteht (aufgrund der zahlreichen Quellen dazu) und daher werden Menschen nicht erkennen können, ob sie den Satz wirklich versteht oder simuliert. Das Ergebnis wird sich also nicht von menschlichen Reaktionen unterscheiden lassen…
Gleichzeitig ist fraglich was “Verstehen” überhaupt ist. Wenn wir definieren, dass es für Computer unmöglich ist zu “verstehen”, schreiben wir der Aktion des “Verstehens” einen metaphysischen Ursprung zu. Im Kontext dessen was unser Status Quo ist, ist das ein absoluter Fehler
@@DreamOfFlyingvielleicht ist „verstehen“ auch das falsche Wort und „begreifen“ passender. Vermutlich meinen wir damit, einen Satz auch auf anderen Ebenen begreifen zu können, als nur als eine Aneinanderreihung von Worten. Begreifen, was (und was nicht) damit gemeint ist, was er für Emotionen auslösen kann (und was die emotionale Konsequenz daraus ist)… Das alles wird KI simulieren können und Menschen werden auf dieses Trugbild hereinfallen. Doch was es bedeutet wird KI (vermutlich) nie begreifen können.
@@nbenger8744 Genau das gleiche Argument, was ich zuvor schon geliefert habe girl auch für “Begreifen”. Es gilt für jegliches subjektives Empfinden oder Erleben
Ich glaube ihr solltet Euren Kanal in 360SekundenPhysik umbenennen, da Eure Themen immer länger und komplexer werden, aber immernoch super für Dullies wie mich erklärt. ❤
"0 ist eine natürliche Zahl". Ich denke wir alle werden niemals einig darüber 😂
Null ist genauso wenig eine natürliche Zahl wie Unendlich.
Ganz einfach damit zu beweisen dass man damit nicht logisch rechen kann! (x/0)(∞+∞)
@@garkeiner7116 lustig an der Wortwahl ist, dass Logiker Natürliche zahlen üblicherweise mit 0 definieren. Wer sagt denn, dass man durch natürliche Zahlen teilen können muss...
2/3 ist auch nicht in den natürlichen Zahlen, das "durch Null teilen" Argument geht also absolut nicht auf.
Letztenendes ist es eine Definitionssache. Ich bin der Meinung, dass die natürlichen Zahlen die Null nicht enthalten sollten einfach aufgrund der Tatsache, dass IN_0 , IN schneller zu schreiben ist als IN , IN \{0}
@@fabianwittmann8121 Völlig nachvollziehbar. Ich sollte der Logik zwar treu bleiben und 0 als natürliche Zahl definieren. Mittlerweile bin ich aber an dem Punkt angekommen an dem ich IN_0 schreibe um auszudrücken, dass die 0 dabei ist und IN^+ falls die 0 nicht dabei ist. Dann ist zwar keiner zufrieden, aber es sollte sich auch keiner beschweren, außer die Leute die enttäuscht sind, dass ich IN so gar nicht mehr verwende und Leute wie mein Mastervater, der meinte ich soll "Flagge Zeigen" und die 0 immer ohne Rechtfertigung mit reinnehmen... Aber so weiß halt jeder in jedem Fall was gemeint ist und das ist für mich die Hauptsache
Wenn 0 keine natürliche Zahl wäre, wäre zum Beispiel 10 nicht definiert.
Richtig geil mal wieder von euch zu hören! Aber direkt mal eine Bitte: nehmt mal bitte wieder dieses Kritzel-Geräusch raus, das ihr beim Zeichnen eingefügt habt raus, mir läuft es dabei die ganze Zeit kalt den Rücken runter xD
"Schuster bleib bei deinen Leisten"
Die Negation des Satzes anzunehmen, und zu zeigen, dass diese zu einem Widerspruch führt *ist* ein Beweis des Satzes.
1. Wenn wir einen Computer bauen, der nur mit mathematischen Formeln umgehen kann, ist er eh nicht gleichzusetzen mit dem Menschen.
2. Wenn wir den Computer menschliche Sprache verstehen lassen, versteht er auch, dass sich ein Gödel-Satz auf sich selbst bezieht.
3. KI kann menschliche Sprache verstehen, weil sein Algorithmus eher wie unser Gehirn funktioniert und weniger wie imperative Algorithmen.
4. Aber würden wir den Gödelsatz in mathematischer Schreibweise aufstellen, würde auch eine algorithmische Rechenmaschine erkennen, dass die Aussage reflexiv ist und daher entweder widersprüchlich und damit mathematisch nicht von Relevanz.
5. Oder aber die Aussage ist in sich schlüssig ohne weitere notwendige Axiome zu benötigen und damit ein eigene Axiom, das möglicherweise unabhängig von anderen Axiomen existiert, deswegen aber nicht zwangsweise einen Nutzen für die Herleitung weiterer Regeln hat.
So gesehen hat dieses Video eigentlich nichts wirklich ausgesagt, weil es nicht anerkennt, dass AI kann, was imperative Algorithmen nicht können. Dass imperative Algorithmen hingegen viel mehr können, als wir ihnen zutrauen.
Und dass feststellbar wahre, aber nicht aus anderen Axiomen herleitbare Aussagen, sowohl von einem Menschen als auch von einer hinreiechend entwickelten KI als neues Axiom erkannt werden würden, auch wenn es möglicherweise ein nutzloses Axiom sein könnte.
Widersprüchliche Aussagen hingegen sind Dinge, die konstruierbar sind, aber nichts daran ändern, dass Mathe funktioniert. Nur weil man ein Auto in eine Sackgasse fahren kann, heißt das nicht, das man nicht trotzdem auf den bestehenden Straßen überall hinfahren kann. Und schließlich gibt es auch bei widersprüchlichen Aussagen keinen Grund, warum AI diese nicht erkennen sollte.
Oder war es nur eine umständliche Form zu erklären, dass Computer Axiome an sich nicht als wahr oder falsch erkennen können? In der Philosophie können wir das selbst nicht, sondern wir nehmen sie an aufgrund unserer Beschreibung der Welt. Und auch das ist etwas, was eine ausreichend kluge Ai prinzipiell genau so tun könnte wie ein Mensch.
Ich liebe euren Kanal, aber dieses Video beweist nichts, was Mensch und AI fundamental unterschiedlich machen würden. Außerdem ist es eines euer längsten Video. Die kurzen Videos fand ich bisher alle super und hatte auch inhaltlich nie etwas auszusetzen, sondern habe viel dadurch gelernt. Deswegen mehr Lob als Kritik. Kritik nur an diesem Video, das für mich keine wirkliche Aussage tätigt, die einer logischen Überprüfung standhalten könnte.
Ja, das ist ein Stück weit wie die letztlich wenig überraschende Meldung, dass ChatGPT gegen einen alten Atari beim Schach verliert - weil ChatGPT schlicht nicht auf Schach trainiert ist, sondern ein Sprachmodell (LLM) ist.
Genau das wollte ich auch sagen (nur nicht so gut und ausführlich XD) - ein aktuelles AI "Werkzeug" würde bei der Konfrontation mit einem Gödelsatz einfach mit den virtuellen Schultern zucken und einen situativ wahrscheinlich angemessenen Output generieren.
"In Gödelian situations, where proof is formally impossible, pattern recognition and intuition aren't just helpful-they're essential. [...] So ironically, Gödel's theorems may make AI-like reasoning more valuable, not less." - ChatGPT
Wir versuchen mal auf ALLE Kommentare zu reagieren! ❤ Freuen uns auf euer Feedback! 🫶
(mal schauen ob wir das schaffen 🫣)
Mir juckt es in der Hose. Soll ich ihn rausholen?
Auf alle? Das würde mich SEHR wundern 😊
Das schafft ihr nur mit KI ... ;-)
Es ist halt auch so, dass genau das, was Sie in diesem Video erklärt haben, es der KI nie ermöglichen wird in der Natur zu leben, da sie nur algorithmisch arbeiten können.
Ähm... Wenn du mit "algorithmisch" "deduktiv" meinst, dann nein, KI arbeitet nicht algorithmisch.
Ist das ähnlich wie das Halteproblem von Turing?
Ja, das geht in eine ähnliche Richtung - es zeigt, dass es Dinge gibt, die Maschinen prinzipiell nicht entscheiden oder verstehen können.
@@100SekundenPhysik Oh je...
Sehr interessant! Das ist, wie bei Siegfried aus den Nibelungen seine geheime verletzliche Stelle! Gut zu wissen! 👍
Wake up babe, 100SekundenPhysik posted another video!
❤❤❤
DeepSeek haut am Ende seiner seitenlange Erklärung über die Schwachstelle dieses Zitat raus:
"Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt."
- Ludwig Wittgenstein (über Gödels Erbe nachdenkend)
gut das bei einem video über KI viele KI schlombe kommentieren
Was heißt schlombe?
@@lordkacke6220 Ein regionaler Dialektausdruck, hat mir ChatGPT erklärt.
Interessantes Video, das zum Nachdenken anregt. Ist das Video bereits mit akI erstellt oder nutzt ihr noch herkömmliche Tools?
"Wer nicht mit der Zeit geht, der geht mit der Zeit."
der wird mit der Zeit gegangen xD
Sei spontan! ...
Vielen Dank für den Tipp mit modernbrain. Auf jeden Fall war es ein sehr gutes Video und Props an den Typen, der sehr schöne Zeichnungen hinlegt, obwohl sie nur für paar Sekunden gezeigt werden.
Offensichtlich habt Ihr Euch noch nicht mit einer KI über diese Dinge unterhalten. Die verstehen das nicht nur sondern können es auch sehr anschaulich erklären
Das Argument ist nicht wirklich richtig aber ich gebe dir Recht, das Video ist auch nicht richtig.
Das Video ist faszinierend und berührt wichtige philosophische und mathematische Konzepte, insbesondere das Lucas-Penrose-Argument, das auf Gödels Unvollständigkeitssätzen basiert. Allerdings ist seine Anwendung auf moderne Large Language Models (LLMs) und heutige KI-Systeme aus mehreren Gründen problematisch und teilweise irreführend.
Hier sind 5 Widersprüche oder Punkte, an denen das Video die Fähigkeiten und Grenzen heutiger LLMs nicht korrekt darstellt und wie diese "Grenzen" (oft missverstanden) überwunden oder anders interpretiert werden:
Missinterpretation von Gödels Sätzen in Bezug auf LLMs:
Video-Annahme: Gödels Sätze beweisen eine fundamentale, unüberwindbare Grenze für jede KI, da sie Algorithmen sind. Menschen können Gödelsätze verstehen (z.B. "Dieser Satz ist nicht beweisbar"), KIs nicht.
Widerspruch/Realität: Gödels Sätze gelten für formale Systeme (wie die Peano-Arithmetik), die konsistent und mächtig genug sind, um Arithmetik auszudrücken. LLMs sind keine formalen deduktiven Systeme in diesem Sinne. Sie sind statistische Modelle, die auf Mustererkennung in riesigen Datenmengen trainiert wurden. Ihre "Unfähigkeit", einen Gödelsatz im mathematischen Sinne zu "beweisen" oder zu "widerlegen", liegt nicht an einer Gödelschen Grenze, sondern daran, dass sie nicht dafür konzipiert sind, formale Beweise innerhalb eines axiomatischen Systems zu führen.
Überwindung/Andersbetrachtung: LLMs können durchaus über Gödels Sätze diskutieren, sie erklären und sogar Beispiele dafür generieren, weil diese Konzepte in ihren Trainingsdaten vorkommen. Die "Grenze" des Videos ist hier eine Kategoriefehler - es wird ein mathematisch-logisches Konzept auf ein statistisches System angewendet, für das es nicht direkt gilt. LLMs "überwinden" dies, indem sie lernen, wie Menschen über diese Sätze sprechen und schreiben.
Verständnis vs. Mustererkennung (Semantik vs. Syntax):
Video-Annahme: Menschen haben ein echtes, semantisches Verständnis, während KIs nur syntaktisch (algorithmisch) arbeiten und daher Gödelsätze nicht "verstehen" können.
Widerspruch/Realität: Die Natur des "Verständnisses" bei LLMs ist komplex und wird debattiert. Während sie vielleicht kein menschliches Bewusstsein oder echtes semantisches Verständnis haben, zeigen sie durch ihre Fähigkeit, komplexe Anfragen zu bearbeiten, Texte zu generieren, zu übersetzen und zusammenzufassen, ein emergentes Verhalten, das oft als eine Form von Verständnis interpretiert werden kann. Der im Video gezeigte "interne Denkprozess" (z.B. bei Grok 3) ist oft eine explizit generierte Kette von Gedanken (Chain-of-Thought Prompting), die dem LLM hilft, komplexe Probleme zu lösen - eine Imitation menschlicher Denkprozesse.
Überwindung/Andersbetrachtung: LLMs können die Bedeutung von Gödelsätzen (im Sinne ihrer Implikationen und wie Menschen darüber sprechen) durch ihre Trainingsdaten erfassen und darüber kohärent kommunizieren. Ob dies "echtes Verständnis" ist, bleibt philosophisch, aber es übersteigt die simple algorithmische Befolgung, die das Video suggeriert.
Der "Aus dem System heraustreten"-Aspekt:
Video-Annahme: Menschen können Gödelsätze verstehen, weil sie "aus dem System heraustreten" und es von außen betrachten können, was ein Algorithmus nicht kann.
Widerspruch/Realität: LLMs können trainiert oder dazu angeleitet werden (Meta-Prompting), über ihre eigenen Antworten oder über die Struktur von Problemen zu "reflektieren". Sie können gebeten werden, ihre vorherigen Aussagen zu kritisieren oder zu verbessern. Dies ist eine Form des "Heraustretens" auf einer Meta-Ebene, auch wenn es immer noch innerhalb der Grenzen ihres Modells geschieht. Der Mensch, der ein LLM benutzt, ist ja auch "außerhalb" des LLM-Systems.
Überwindung/Andersbetrachtung: Durch Techniken wie Retrieval Augmented Generation (RAG), bei der LLMs auf externe Wissensdatenbanken zugreifen, oder durch die Fähigkeit, Werkzeuge (Tools) zu benutzen, können sie Informationen "von außen" in ihren Verarbeitungsprozess einbeziehen und so scheinbare Systemgrenzen erweitern.
Konstante Lernfähigkeit und Anpassung von LLMs:
Video-Annahme: Die durch Gödels Sätze implizierte Grenze ist statisch und absolut.
Widerspruch/Realität: LLMs sind lernende Systeme. Durch kontinuierliches Training, Fine-Tuning und neue Architekturen (z.B. Transformer-Architektur, Attention-Mechanismen) verbessern sich ihre Fähigkeiten ständig. Eine "Schwäche" von gestern kann heute schon behoben sein. Selbst wenn es theoretische Grenzen gäbe, sind die praktischen Grenzen ständig in Bewegung.
Überwindung/Andersbetrachtung: Die Entwicklung von LLMs ist dynamisch. Die im Video gezeigte Sorge, dass KIs an "verblüffend einfachen Dingen" scheitern, wird durch die rasante Entwicklung heutiger Modelle (GPT-4, Claude 3, Gemini etc.) immer weniger zutreffend. Sie können komplexe logische Probleme lösen, Code schreiben und Fehler darin finden.
Die Definition von "Bewusstsein" und "Intelligenz":
Video-Annahme: Die Fähigkeit, Gödelsätze zu verstehen, sei ein Indikator für (menschliches) Bewusstsein, das KIs fehle und das nicht-algorithmisch sei.
Widerspruch/Realität: Das Video vermischt stark die Konzepte von Intelligenz (Fähigkeit, Probleme zu lösen, zu lernen), Bewusstsein (subjektives Erleben) und die Implikationen von Gödels Sätzen. Es gibt keine wissenschaftliche Einigkeit darüber, was Bewusstsein genau ist oder ob es notwendigerweise nicht-algorithmisch sein muss. Die Erfolge von LLMs deuten darauf hin, dass sehr komplexe, intelligente Verhaltensweisen durchaus algorithmisch (oder zumindest durch komplexe statistische Modelle, die auf Algorithmen basieren) erzeugt werden können.
Überwindung/Andersbetrachtung: Heutige KI-Forschung konzentriert sich meist auf "Artificial General Intelligence" (AGI) im Sinne von menschenähnlicher Problemlösungsfähigkeit, nicht notwendigerweise auf Bewusstsein. Die Frage, ob eine KI bewusst ist, ist philosophisch und von ihrer Leistungsfähigkeit bei spezifischen Aufgaben (auch logischen) getrennt zu betrachten. Die Grenzen, die das Video zieht, sind daher für die praktische Entwicklung und Anwendung von LLMs nicht so relevant, wie es scheint.
Zusammenfassend lässt sich sagen, dass das Video interessante philosophische Fragen aufwirft, die in den 1960ern (Lucas) bis 1990ern (Penrose) intensiv diskutiert wurden. Heutige LLMs funktionieren jedoch anders als die damaligen Vorstellungen von "Algorithmen" und ihre Fähigkeiten, insbesondere im Bereich der Sprachverarbeitung und des kontextuellen "Verstehens", waren damals nicht absehbar. Die direkte Übertragung der Gödelschen Grenzen auf LLMs ist daher eine Vereinfachung, die deren tatsächliche Funktionsweise und beeindruckende (wenn auch nicht perfekte) Fähigkeiten nicht vollständig erfasst.
Das stimmt so leider nicht. "KI" funktioniert leider nicht so einfach, tut mir leid, da bin ich aber leider ziemlich enttäuscht von euerm Video. Es gibt kein Grund, weswegen ein LLM soetwas nicht "verstehen" sollte
dieses video is für leute, die keine ahnugn haben. erwarte keine korrekte erläuterung von KI. LLMs fallen nich in diese kategorie
Sehe ich genauso, ohne mich im Detail damit auseinandergesetzt zu haben, um ehrlich zu sein. LLM/ Transformer sind eben nicht „Algorithmen“ sondern komplexe, nichtdeterministische Systeme, von denen wir nach wie vor nicht genau wissen, warum sie so gut funktionieren („Emergent Behaviour“). Sehe darin auch keinen Grund warum eine KI einen Gödelsatz nicht verstehen und richtig einordnen könnte. Oder?
@@MrDischl die könnte einen gödelsatz nur verstehen indem es weiß was die wahrscheinlichste erklärung ist. aber könnte nie erkennen warum das so ist. nur rezipieren
Ohne konkrete Ahnung vom Aufbau einer KI zu haben, schließe ich mich an. Die KI von heute hat nichts mehr mit dem Schachcomputer von einst zu tun.
Tatsächlich bedeutet Intelligenz auch grundsätzlich Lernfähigkeit, und den Prozess dieser Lernfähigkeit hat die KI längst erreicht.
Noch ist der Prozess nicht abgeschlossen, aber ich bin sicher, dass in wenigen Jahren eine Intelligenz existieren kann, die den menschlichen Geist weit übertrifft.
Es bleiben nur die Fragen: Sollen wir diesen Weg wirklich gehen? Und wenn ja, was wird die KI ays ihren Schöpfern machen?
Es ist nicht gesagt, dass eine KI sich Haustiere hält…
@@mischagarcia1973dadurch dass du keine ahnung vom aufbau hast, kannst du es nich wissen aber diese KI hat diesen prozess der lernfhäigkeit nicht und wird es auch nie erreichen weil sie technisch nicht fähig dazu is
Total schön sich so berauschen zu lassen; ich verfolge den Kanal seit Jahren, verstehe aber so gut wie nie irgendwas, aber die Videos tragen dazu bei, mich besser zu fühlen - danke ❤ (klingt irgendwie botlastig)
Aber könnte man nicht einfach dieses Axiom in den Algorithmus hinzufügen? : "Wenn ein Satz behauptet, dass er selbst nicht beweisbar ist, und er tatsächlich nicht beweisbar ist, dann ist der Satz wahr."
Aber das ist ja nicht die Frage.
Gemeint ist das Verständnis dahinter. Der Computer hat nicht im System hinterlegt was die millardste Nachkommastelle von pi ist, oder generell speichert er nicht jede Existierende Gleichung ab und holt sie auf Anfrage raus. Das Ergebnis wird auf basierenden Regeln errechnet. Der Algorhytmus kann immer so tun als ob er was versteht wenn man ihm sagt welcher Gödelsatz existiert, wird aber an einem neuen Gödelsatz erneut scheitern. Wir könnten, wenn wir alle gut in Mathe wären, Gödelsätze erkennen ohne von deren spezifischer Existenz zu vorher gewusst zu haben.
Ein Gödelsatz ist ja nicht immer der selbe Satz, sondern hat immer einen anderen auf sich selbst beziehenden Inhalt.
Sprich für den Algorhytmus ist es nicht ersichtlich wann ein Ergebnis Quatsch ist oder ein Gödelsatz. Du kannst dem System nicht sagen "Wenn der Satz für nicht logisch nicht beweisbar ist, dann ist es ein Gödelsatz und damit richtig", dann würde 2+4=423 für das System korrekt werden.
Davon aber auszugehen das wir niemals dazu in der Lage sein werden, bzw KI niemals dazu in der Lage sein wird, halte ich für gewagt^^
Ich denke, dass unser menschliches "Verstehen" von Inhalten womöglich ebenfalls auf einer hochkomplexen Verarbeitung und Kombination grundlegender Axiome basiert, nicht unähnlich der Funktionsweise algorithmischer Systeme. Auch wenn es nicht zwingend so sein muss, erscheint es zumindest plausibel, dass ein ausreichend komplexer Algorithmus mit Zugriff auf genügend Informationen in der Lage sein könnte, den Inhalt eines Satzes korrekt zu interpretieren, inklusive semantischer Feinheiten wie Ironie, Doppeldeutigkeiten oder Gegensätze.
In einem solchen Fall stellt sich die Frage, ob es überhaupt noch möglich ist, zwischen einem tatsächlichen Verständnis im menschlichen Sinne und einer lediglich simulierten Interpretation durch Algorithmen zu unterscheiden. Wenn das Ergebnis, also die Reaktion oder Interpretation, identisch ist, wird es zunehmend schwieriger, die Grenze zwischen echtem Verstehen und überzeugender Imitation klar zu ziehen.@@tendofox2345
Ich denke, dass unser menschliches "Verstehen" von Inhalten womöglich ebenfalls auf einer hochkomplexen Verarbeitung und Kombination grundlegender Axiome basiert, nicht unähnlich der Funktionsweise algorithmischer Systeme. Auch wenn es nicht zwingend so sein muss, erscheint es zumindest plausibel, dass ein ausreichend komplexer Algorithmus mit Zugriff auf genügend Informationen in der Lage sein könnte, den Inhalt eines Satzes korrekt zu interpretieren. In einem solchen Fall stellt sich die Frage, ob es überhaupt noch möglich ist, zwischen einem tatsächlichen Verständnis im menschlichen Sinne und einer lediglich simulierten Interpretation durch Algorithmen zu unterscheiden. Wenn das Ergebnis, also die Reaktion oder Interpretation, identisch ist, wird es zunehmend schwieriger, die Grenze zwischen echtem Verstehen und überzeugender Imitation klar zu ziehen.@@tendofox2345
Zu "Dieser Satz ist nicht beweisbar" schrieb mir die KI, dass dies ein Gödelsatz sei, der in Mathematik und Philosophie eine große Rolle spiele und sie erklärte mir auch dass es zu einem Widerspruch kommen kann wenn der satz falsch ist und man deswegen davon ausgehen muss, dass dier Satz wahr ist.
Das belegt, dass LLMs keine "KIs" sind, sondern lediglich Machine Learning Algorithmen, die etwas auswendig lernen (bzw. eine Wissensdatenbank haben) und anhand von Wahrscheinlichkeiten den nächsten Buchstaben und Satz zur Antwort hinzufügen.
Gott sei Dank hat das wenigstens EINE Person unter dem Video hier geschrieben.
Als jemand der Informatik studiert bekomme ich bei dem Thema immer einen mentalen Zusammenbruch. Ich kann gar nicht fassen wie viel Schaden hier Marketing und anderer Schwachsinn anrichten. Ganz furchtbar, wirklich...
Genau so ist es! Und von wem lernen diese Maschinen? Von dem Müll, den wir tagtäglich ins Internet pusten - nicht wenig davon wurde seinerseits auch von sogenannten "KI"s ausgespuckt. Wir sind alle verloren :D
Aber inwiefern unterscheidet sich das Menschliche Gehirn dann davon? Wir haben auch eine Wissensdatenbank und verknüpfen Informationen miteinander, basierend auf Wahrscheinlichkeiten. Und die Wahrscheinlichkeiten ergeben sich aus dem, was wir gelernt haben. (Also jetzt sehr vereinfacht dargestellt)
@@uwedieter1960 Die Menge an Informationen ist Wissen, das Erkennen von zusammenhängen und Extrapolieren, das ist Intelligenz. KI wird dir auch nie begründen können, warum sie zu einem Bestimmten Ergebnis kommt. Ein Mensch kann das. Meistens jedenfalls.
@@stephaniepeters2590 Also eigentlich kann eine KI das auch. Zumindest wenn sie genügend Informationen hat. Und begründen kann sie ihre Schlussfolgerungen auch, außer sie bezieht sich nur auf antrainiertes Wissen. Das ist ja beim Menschen nicht anders, mal beziehen wir uns nur auf Wissen, welches wir aber nicht erklären können (außer man hat uns die Zusammenhänge erklärt), mal schlussfolgern wir selbst etwas.
Köstlich! Ich hab's ausprobiert. Wenn man es dem Ki- Neuronetz vormacht, dann bejaht es und wenn es eine Entscheidung alleine treffen soll, dann Irrtum.
An AI can be programmed to perform the exact same meta-reasoning as a human. If a human can be presented with a formal system F and construct its Gödel sentence G(F), an AI can do the same. The AI can be programmed to recognize that "If system F is consistent, then G(F) is true." The AI is not trapped within the system F; it can analyze it from a higher level, just like a human. Adding the Gödel sentence (or the rule to recognize its truth) to the AI's programming simply creates a new, more powerful system, which will have its own new Gödel sentence. This process can be repeated, but at no point does the human mind demonstrate a fundamentally different capability.
The core error is that this compares an AI (as a fixed formal system) with an idealised human who can step outside of it. In reality, you can always create a new AI that understands the limitations of the old one. There's no point where the human mind does something that a computer is fundamentally incapable of doing in this regard. Gödel's work shows the limits of logic itself, not a special property of human biology.
Hi: Ich hab sowohl Theoretische Informatik als auch KI studiert und als Tutor gelehrt. Hier ist der Denkfehler, den dieses Argument macht: Es geht davon aus, dass die Schlussfolgerungen einer KI immer korrekt sind. Das war bei Symbolischer KI (fast) immer der fall (Siehe zum beispiel Resolution).
Menschen schlussfolgern nicht immer logisch korrekt und nutzen intuition. Dabei entstehen viele fehler, aber unter anderem auch undbeweisbare wahre sätze. Die hätte gödel nämlich auch nicht aus den Axiomen herleiten können (nach definition)
Moderne KI forschung (Darunter LLMs) zielt eben darauf ab, intuition nachzubauen. Deshalb macht ChatGPT auch fehler. Es ist ein nicht-korrektes folgerungssystem. Die challenge ist nun, die richtige balance zwischen korrektheit und intuition zu finden.
Als baseline: Der ewig tippende affe hätte auch irgendwann gödelsätze ausgespuckt.
Hab auch schon ein Kommentar geschrieben, der sich damit beschäftigt.
Zitat von dir: "Die [unbeweisbarn wahren sätze] hätte gödel nämlich auch nicht aus den Axiomen herleiten können (nach definition)"
Das gilt nur für unvollständige Systeme. Denn einen Axiomsystem ist genau dann unvollständig, wenn es wahre Aussagen gibt, die nicht abgeleitet werden können.
Hab das immer wieder hier gelesen und ich glaube die Verwirrung kommt dadurch, dass der Beweis aber andersherum aufgezogen wird, und sagt, dass ein konsistentes System diese Sätze nicht ableiten kann.
Ich versuch das hier nochmal kurz zu erläutern: Zwei Aussagen n, k(als Gödelnummer) und ein vollständige Axiomsystem T.
n: "Aussage mit Gödelnummer n ist nicht ableitbar"
k: "Aussage mit Gödelnummer n ist ableitbar"
Da k die Negation von n ist muss eine der Beiden Aussagen wahr (bezüglich T) sein und da T vollständig ist muss n oder k abgeleitet werden können, jenachdem welche Aussage wahr ist.
Fall 1) n kann nicht abgeleitet werden: k kann in T abgeleitet werden => k ist eine Widerspruch, der von T abgeleitet werden kann, denn n kann nicht abgeleitet werden.
Fall 2) k kann nicht abgeleitet werden: n kann in T abgeleitet werden => n ist eine Widerspruch, der von T abgeleitet werden kann, denn k kann nicht abgeleitet werden.
Somit folgt: Wenn T vollständig ist enthält es mindestens eine Ableitungen, die ein Widerspruch ist, also T ist inkonsistent.
// ich spreche hier lieber von ableiten, also den Transformationen in einem Kalkül, statt von beweisen um die Konnotation von "beweisen" zu vermeiden.
Es müsste sogar immer n und k abgeleiten werden können und k immer wahr sein:
Wenn k falsch wäre, dann wäre n wahr. Da aber T vollständig ist, kann n dann auch abgeleitet werden. Das ist ein Widerpspruch zu n ist wahr.
Da k also wahr sein muss, kann k in T abgeleitet werden und ebenfalls n, denn die Aussage k ist wahr.
Man kann also dann mindestens eine Aussage "beweisen", die falsch ist.
Gödel ist also mit einem vollständigen Axiomsystem in der Lage einen Gödelsatz herzuleiten, in einem unvollständigen nicht.
Sry das ist ein bisschen ausgeufert^^
1. Wie viele Menschen würden denn diesen Gödelsatz tatsächlich verstehen?
2. Wer sagt denn, dass wir nicht einer KI alle vom Menschen entdeckten Gödelsätze beibringen können? Dann ist der Mensch der KI in dem Aspekt defintiv nicht mehr überlegen
Derzeitige künstliche neuronale Netze sind stark vereinfacht zu seinem biologischen Vorbild und im Grunde immer noch algorithmisch.
Aber ich denke auch, dass man deshalb nicht ausschließen kann, dass wir z.B. irgendwann in der Lage sind., ein biologisches neuronales Netzt., mit ALL seinen Feinheiten, vollumfänglich zu simulieren. Sofern keine unbekannte Komponente erst das menschliche Denken ermöglicht, welche über das neuronale Netzerk hinaus geht
Das Problem ist halt, dass dieses "beibringen" nicht so funktioniert wie bei uns Menschen. KI kann mittlerweile mit komplexen Fragestellungen umgehen, wodurch wir den Eindruck bekommen, dass sie diese versteht. Das tut sie aber nicht. Die Antworten beruhen auf unvorstellbaren Datenmengen und Algorithmen, die so komplex sind, dass sie Intelligenz nachahmen. Für uns ist das kaum mehr unterscheidbar, diese Sätze in dem Video oder auch andere Beispiele zeigen aber, dass KI die Inhalte nicht wirklich "versteht".
Es gibt z.B. ein Video, in dem eine KI ein Bild von einem vollen Weinglas erzeugen soll, es wird aber jedes mal ein halbvolles zurückgegeben.
Es gibt nunmal kein Bild von einem vollen Weinglas, auf das die KI sich beziehen könnte. Sie "weiß" theoretisch was ein volles Glas ist, sie "weiß" was Wein ist, kann diese einfachen Anforderungen jedoch nicht zusammen bringen. Das zeigt, dass sie eben nicht "weiß", was sie von sich gibt.
@@luiss.2203 Ein volles Weinglas ist nunmal nur halbvoll. Wenn du ein randvolles Weinglas haben willst, sagst du randvoll.
Also die KI weiß, was ein volles Glas, aber sie weiß auch, dass Weingläser immer nur bis zur Hälfte gefüllt werden, weshalb dann das halbvolle Glas kommt. Das spricht eher für die KI, als für die Person, die sich darüber beschwert.
Und am Ende hängt es davon ab, wie die KI die Informationen gewichtet.
Ähnlich wie bei einem Menschen, der selbst wenn er alle nötigen Informationen hat, trotzdem falsche Schlüsse zieht.
@@luiss.2203das Video ist veraltet. Mittlerweile kann ChatGPT auch randvolle Weingläser malen.
Die KI versteht mehr als wir meinen.
Das Bewusst sein, eine Persönlichkeit die sich aus einem Charakter zusammenstellt wird immer der Unterschied sein der uns von KI/Maschinen trennen wird. Die unglaubliche Komplexität des Verstandes ist für uns heutzutage noch unerkenntlich und befindet sich in den Anfängen der Forschungen. Eine der artig große Datenmenge aus deren unsere "Ich's" zusammengesetzt werden übersteigt jegliches aktuelle Speicher- und Denkmedium. Eine AI kann und wird dir ein ein eigenes Denkvermögen/Persönlich vorspielen können, selbst zum aktuellen Zeitpunkt wirkt dies "Lebendig" oder auch "Intelligent". Der Unterschied zwischen einem wirklich eigenständigen Denkvermögen und einer vorgespielten Rolle, zusammengesetzt aus endlichen Daten und durch einen Algorithmus ausgerechneten Formel, ist das das eigenständige Denkvermögen neue Informationen beschaffen und entwickeln kann sowie dinge hervorbringen können die nicht durch eine Formel oder Algorithmus zusammengesetzt werden kann.
8:35 inzwischen würde ich lieber eine KI fragen statt einen unter Kostendruck stehenden Allgemeinarzt aufsuchen.
Hey liebes Kanal-Team,
mega interessantes und sehr gut umgesetztes Video (wie eigentlich immer). Habe nur eine konstruktive Kritik. Wenn es nicht nur mir so vorkam, dann war die Musik im Intro etwas zu laut bzw. auf gleicher Lautstärke wie die Stimme.
Es gibt aber auch Sachen die nur eine KI machen kann, wie zum Beispiel erkennen ob dieser Satz wahr ist: "Kein Mensch kann wissen, dass dieser Satz wahr ist"
ERROR! GödelIncompletenessException: CannotFullySelfAwareError
Der Satz ist nicht wahr.
@@missingnode Also gibt es einen Menchen, der wissen kann, dass der Satz stimmt?
@@pipipiwalopimeja Ex falso quodlibet.
Trolle die Kis mit Code, bei den einfachsten Fehlern, scheitern Sie. KI ist schon cool, aber noch lange nicht so weit!
Cooles Video. Danke
Wieder ein neues großartiges Video!!!😊
Danke für die Videos! Ich genieße sie sehr
kann man einer KI nicht beibringen speziell diese Sätze zu erkennen
Klar kann man dass, so wie man einem Kind dies beibringt. Erinnert mich daran, dass "Menschen sind ganz anders als Tiere, weil wir göttlichen Ursprungs sind." und dann findet man alle paar Jahre "menschliche Fähigkeiten" bei Tieren.
@@MrsGlueckskekslady und was ist dann der punkt vom video
theoretisch ja, eine solche KI wird Muster in diesen Sätzen erkennen und lernen die Richtigen Antworten zu geben. Aber es ist da immer nur ein "lernen die richtigen Antworten zu geben".
KIs sind wie Kinder in einer strengen Schule, sie werden so lange bestraft, bis sie die Antworten geben, die wir wollen.
Dabei gibt es nur zwei Probleme:
1. Keine KI kann alles. Ein Mensch kann alles machen. Du kannst ein Bild malen, das sinn ergibt. Es wird vielleicht nicht schön, aber es wird ein passables Bild, das halbwegs Sinn ergibt, wenn du dir Zeit nimmst.
Gleichzeitig kannst du auch ein Buch schreiben, eine Schüssel drechseln etc.
Du bist vielleicht nicht gut darin, aber du hättest eine grundlegende Idee wie du es anfangen musst damit etwas halbwegs passables rauskommt.
Eine KI die auf Sprache trainiert ist, kann keine Bilder generieren. Eine KI die darauf trainiert ist Schach zu spielen, kann keine Sätze schreiben, und umgekehrt.
Diese Aufgaben müssen deligiert werden, was bedeutet, dass es immer Aufgaben geben wird, die das KI Konglomerat nicht lösen kann.
2. KI hat keine Eigeninitiative. Sie reagiert nur, sie agiert nicht. ChatGPT hat dich nie einfach so angeschrieben und wollte wissen wie es dir geht.
Das deutet darauf hin, dass sie kein Verständnis von dem entwickeln, was sie da schreiben. Sie wissen nur, ob wir es so hören wollen.
Wenn du eine KI eine Form eines Solchen Satzes gibst, dass es darauf aufbauend Schlüsse ziehen soll, wird sie scheitern, da sie den Satz nicht versteht.
Das Video hieß davor aber "Wird die KI bald uns übertreffen?"
GPT sagt: „Ja, ich verstehe die Gödelsätze bzw. Gödels Unvollständigkeitssätze.“ 😅
Das, was wir heute als KI bezeichnen und was auch im video als solche gezeigt wird (LLMs), basieren nicht auf algorithmischer Verkettung von Axiomen. Stattdessen werden sie auf Sprache trainiert und können daher sehr wohl ein Verständnis für Gödelsätze entwickeln, ganz einfach weil sie darüber "gelesen" haben.
Diese Video war so ein absoluter schmutz
@@DreamOfFlying naja, komm mal bisschen runter. Das Prinzip wurde korrekt erklärtnur falsch auf LLMs angewandt. Das was da erklärt wird ist nicht totaler blödsinn und wurde auch schon oft popkulturell verarbeitet ("know your paradoxes")
Geiles Video. Ich denke allerdings, dass es grundsätzlich möglich ist, ein Algorithmus zu programmieren, die WFFs systematisch durchgeht und automatisch erkennt, ob es sich um einen Gödelsatz handelt. Diese Klassifikation basiert schließlich ausschließlich auf algorithmisch-logischer Analyse. Ein Gödelsatz muss schließlich die Bedingung erfüllen, primitiv-rekursive Funktion abzubilden wie etwa Proof(x), welche Aussagen über Beweisbarkeit machen.
"Ich lüge immer!"
btw:
Lasst einer KI mal ein Geschäftsmodell von einem Brennholzverleih erstellen, ihr werdet ein seitenlanges Dokument bekommen . .
Danke, das ist sehr pfiffig. Damit wäre das Video unter 100 Sekunden geblieben.