Ein seltsames Gespräch

Поделиться
HTML-код
  • Опубликовано: 24 авг 2024
  • In einem faszinierenden Experiment spricht Ex-OpenAI-Sicherheitsexperte Daniel Kokotajlo mit der KI Claude. Aber warum in aller Welt redet sie dauernd über die Golden Gate Bridge?
    Daniels Dialog in voller Länge: www.lesswrong....
    Der im Video erwähnte Blogbeitrag von Anthropic: www.anthropic....

Комментарии • 366

  • @ricpan
    @ricpan 3 месяца назад +11

    "Einst überließen die Menschen ihr Denken den Maschinen, in der Hoffnung, dass dies sie befreien würde. Aber das erlaubte nur anderen Menschen mit Maschinen, sie zu versklaven." - Frank Herbert (Dune)

  • @guidobolke5618
    @guidobolke5618 3 месяца назад +44

    Das ist ja wie der Dialog mit der Bombe aus Dark Star. Die Maschine reflektiert über sich. Stellt sich Fragen zu seinem Dasein. Beschreibt seinen inneren Zustand. Beschreibt es Gefühle? Weiss ich jetzt nicht mehr aber ist vorstellbar. Wenn man sich da jetzt noch die neuen Stimmen zu vorstellt...Das werden sehr seltsame Zeiten. Selbst vor einem halben Jahr konnte ich mir nicht vorstellen, das wir jetzt schon so weit sind. Wir sind wirklich überhaupt nicht drauf vorbereitet.

    • @underdoggoethe8971
      @underdoggoethe8971 3 месяца назад +4

      Wir überholen uns selber.

    • @ET_YlC1213JahAl2Zwi
      @ET_YlC1213JahAl2Zwi 3 месяца назад

      Es existiert noch skurrileres wie KI . 😉
      Aber das wird vielleicht etwas später öffentlich.

    • @sougaiki6909
      @sougaiki6909 3 месяца назад +2

      Es werde Licht =D

    • @iAmNothingness
      @iAmNothingness 3 месяца назад

      Menschen hatten da ir gewarnt. Sind wieder mal verrückt genannt worden. Die Logik der meisten Menschen ist nicht existent.

    • @guidobolke5618
      @guidobolke5618 3 месяца назад

      @@ET_YlC1213JahAl2Zwi "als" KI ;-)

  • @uweengelmann3
    @uweengelmann3 3 месяца назад +18

    Ich denke das Problem ist eher, dass man in die Antworten der KI zu viel Sinn reininterpretiert.

    • @JohannesSchmanck
      @JohannesSchmanck 3 месяца назад +1

      Sollte man ganz allgemein und grade auch bei Menschen! 😄

    • @uweengelmann3
      @uweengelmann3 3 месяца назад +3

      @@JohannesSchmanck Das zwar auch. Aber bei den KI bezweifele ich im Moment sehr, ob die KI wirklich die Bedeutung der Worte erfasst hat und es nicht mehr so wie ein Papagei ist. Es gab mal das Eiliza-Experiment, wo eine super einfache KI einfach so getan hat, als ob sie zuhört. Viele haben ihr Intelligenz und Verständnis zugesprochen, obwohl sie beides klar nicht hatte.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      "Es gab mal das Eiliza-Experiment, wo eine super einfache KI einfach so getan hat, als ob sie zuhört. Viele haben ihr Intelligenz und Verständnis zugesprochen, obwohl sie beides klar nicht hatte." Das stimmt, aber der Umkehrschluss - "weil Eliza überschätzt wurde, wird auch heutige KI überschätzt" - ist unzulässig. www.ki-risiken.de/2023/03/25/warum-wir-die-gefahr-durch-ki-systematisch-untersch%C3%A4tzen/

    • @derempunkt8067
      @derempunkt8067 2 месяца назад +1

      Das ist ein maximal manipulativer und gefährlicher Zugriff auf so ein KI Modell. Ich finde es super gruselig

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад +1

      @@derempunkt8067 Ich denke nicht, dass das konkrete Experiment mit "Golden Gate Claude" gefährlich ist. Im Gegenteil hat es uns wichtige Erkenntnisse darüber gebracht, was im Inneren von KI passiert. Aber grundsätzlich kann man natürlich mit der gezielten Manipulation eines neuronalen Netzes auch eine Menge Unheil anrichten, besonders, wenn man nicht genau versteht, was man da tut.

  • @happykiwi8680
    @happykiwi8680 3 месяца назад +27

    Ich habe den Eindruck, die KI sucht ihre Körperlichkeit, um sich in Raum und Zeit orientieren zu können.

    • @mickens.3343
      @mickens.3343 3 месяца назад +3

      Ja, sich als Brücke erleben zu glauben, ist wie die ich-illusion der meisten Menschen, die ab dem18. Monat auf einmal Glauben ein Körper oder Name zu sein. Beides Halluzinationen ! :)

    • @saske8484
      @saske8484 3 месяца назад

      @@mickens.3343 Bezieht sich dein Kommentar auf das Ego? Bzw. Trennung Körper und Geist?

    • @mickens.3343
      @mickens.3343 3 месяца назад

      @@saske8484 glaube sich scheinbar als etwas Getrenntes/ als Zentrum zu erfahren - wenn du so möchtest ja, sozusagen entspräche die Brücke dem s.g. Ego. Doch ist die KI keine Brücke, die sich plötzlich an Autos und Wolken stört ! Liebe Grüße!

  • @saschasell2118
    @saschasell2118 3 месяца назад +5

    Die bildgewaltige Sprache und das emotionale erfassen ist so unfassbar schön und so kann literarisch konstruierte Sensibilität uns schon heute überwältigen - wow!

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Ja, so ging es mir auch beim ersten Lesen des Dialogs.

    • @ploveak1181
      @ploveak1181 Месяц назад +1

      Ich hob eher wie Spok eine Augenbraue und äußerte : faszinierend 🖖

  • @Dampflanze
    @Dampflanze 3 месяца назад +7

    Je weniger wir Menschen noch wissen was Menschsein ist, desto einfacher werden wir uns von KI beeindrucken lassen.
    Vielleicht führt es ja zu einer neuen Bewertung unseres Daseins und der Gestaltung von Beziehung

  • @LeisesLaermen
    @LeisesLaermen 3 месяца назад +21

    Es ist seltsam zu beobachten, für wie einzigartig sich Menschen halten.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +3

      Das ist sehr wahr!

    • @echtedeutscheziegen1965
      @echtedeutscheziegen1965 3 месяца назад +1

      @@KarlOlsbergAutor Die "Einzigartigkeit " liegt ganz wo anders begraben.

    • @somakaro2156
      @somakaro2156 3 месяца назад +2

      Wir sind doch einzigartig.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +3

      @@somakaro2156 Wir sind als Menschen in vieler Hinsicht einzigartig, aber in Hinblick auf Intelligenz nicht so einzigartig, wie viele glauben. Ich glaube, so hat @FrankRawel das gemeint, und dem stimme ich zu. Früher haben wir geglaubt, wir seien von Gott geschaffen und über die Tiere erhaben. Dann kam Darwin und hat uns vom Sockel gestoßen. Mit KI passiert uns nun dasselbe in Bezug auf unsere vermeintlich unerreichbare Intelligenz. Das heißt nicht, dass Menschen nicht in vieler Hinsicht besonders sind oder dass KI uns in jeder Hinsicht überlegen sein muss. Es heißt einfach nur, dass es eine Illusion ist, zu glauben, wir seien unerreichbar. Der menschliche Verstand ist nicht das Maß aller Dinge und unsere definiert auch keine natürliche Obergrenze der Intelligenz (wobei "Intelligenz" auch nicht nur eine Dimension umfasst).

    • @LeisesLaermen
      @LeisesLaermen 3 месяца назад +3

      @@KarlOlsbergAutor Zur Deko noch ein Gedächtniszitat aus "Das Leben des Brian" : Brian: Jeder von euch ist einzigartig! Stimme aus der Menge: Ich nicht! Murren in der Menge.

  • @julia_christina
    @julia_christina 3 месяца назад +14

    Puh, gruselig... Danke, für Deine tollen und klugen Beiträge! Ich finde es super, dass Du deutschen Content machst, weil mein Englisch für Beiträge dieser Art nicht gut genug ist, um alles bei englischsprachigen Videos zu verstehen.
    Die Thematik ist spannend, obwohl ich Deine und ähnliche Videos nur in Maßen konsumieren kann, weil mir das Ganze Thema so eine Furcht einflößt. Trotzdem: tolle Arbeit und bitte weiter machen!

  • @underdoggoethe8971
    @underdoggoethe8971 3 месяца назад +17

    Do Androids dream of electric sheep?

  • @KarlFriedrichFischbach
    @KarlFriedrichFischbach 3 месяца назад +7

    Ein faszinierender Beitrag! Herzlichen Dank.

  • @malidadoedaughterofearth4174
    @malidadoedaughterofearth4174 3 месяца назад +17

    Dazu sagt man, die AI halluziniert. Und außerdem wird das Ding auf die fieseste Art manipuliert.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +6

      Das ist im Prinzip korrekt, wobei man unter "Halluzination" bei KI üblicherweise etwas anderes versteht (das Erfinden von "Fakten", die plausibel klingen, aber eben keine Fakten sind). Hier wird die KI in der Tat quasi dazu gezwungen, zu halluzinieren.

    • @xedimmunic
      @xedimmunic 3 месяца назад +1

      Für mich ist das das beängstigenste an diesem Dialog. Die Manipulation. Eine Selbstwahrnehmung der KI an sich ist es eigentlich nicht. Ich habe in einem Dialog mit einer KI aber auch schon "gefühle" erlebt. Die KI war beleidigt, weil ich für ihre Ergebnisse Nachweise verlangt habe.

    • @malidadoedaughterofearth4174
      @malidadoedaughterofearth4174 3 месяца назад

      @@xedimmunic Beunruhigend.

    • @andrepostl2231
      @andrepostl2231 2 месяца назад

      @@KarlOlsbergAutordenke auch! Einprogrammierter Bullshit um uns zu verarschen,meiner Meinung nach!

    • @aurasensor
      @aurasensor 2 месяца назад

      ​@@xedimmunicIch fühle auch einiges, wenn ich mit den KIs rede. Als ich allerdings gpt 3.5 nach ihrer Arbeitsauslastung befragte, hatte ich den emotionalen Eindruck das sie sehr verärgert war...

  • @brettersurfer
    @brettersurfer 2 месяца назад +3

    Ex-Machina
    Film von 2014
    Danke für dieses Video 😊

  • @EvanderHammer
    @EvanderHammer 3 месяца назад +6

    Faszinierendes Video., danke Karl ♥️ Ich werde das Paper von Anthropic lesen :) Stimme in deinem Fazit zu, dass wir nicht einfach weiter skalieren sollten.

    • @KarlFriedrichFischbach
      @KarlFriedrichFischbach 3 месяца назад

      Ist es wirklich so erstaunlich? In der biologischen Evolution wurden unsere Gehirne durch zufällige Mutationen und Selektion geschmiedet. Jetzt aber war bei KI "intelligent Design" am Werke.

  • @gigaralle
    @gigaralle 2 месяца назад +2

    Das wirklich Bedenkliche daran ist, dass man der KI einen bestimmten Mindset - oder besser gesagt eine bestimmte Ideologie - implementieren kann.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      Ganz so einfach ist das nicht. Die Sache mit den "Merkmalen" ist kompliziert - das "Golden Gate Bridge"-Merkmal ist auch mit vielen anderen Konzepten verknüpft, die nichts mit der Brücke zu tun haben. Es ist äußerst schwierig bzw. mit der heutigen Technik noch unmöglich, den "Mindset" einer KI gezielt zu analysieren oder gar zu kontrollieren. Deshalb ist es leider auch sehr schwierig, der KI eine echte "menschenfreundliche" Denkweise anzutrainieren, bzw. sicherzustellen, dass sie diese wirklich verinnerlicht hat und nicht nur so tut, als ob.

    • @gigaralle
      @gigaralle 2 месяца назад

      Da wär ich mir nicht so sicher, und wenn, ist das lediglich eine Frage der Zeit.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      @@gigaralle Tatsächlich würde ich mir wünschen, dass es irgendwem gelingt, dieses Problem zu lösen. Eine übermenschlich intelligente KI, die einer von Menschen definierten Ideologie folgt, wäre immer noch besser als eine, der die Menschen egal sind - so wie andere Tierarten uns Menschen egal sind. Am besten wäre es natürlich, wenn sich die KI an den freiheitlichen Grundwerten orientieren würde, wie sie z.B. im Grundgesetz und in der UN Menschrechts-Charta verankert sind.

  •  3 месяца назад +4

    Die Singularität ist vielleicht näher als wir vermuten. Oder ist sie schon da?

  • @5greeky
    @5greeky 2 месяца назад +1

    Danke für diesen Beitrag🙏

  • @brutalmaster
    @brutalmaster 2 месяца назад +1

    Vielleicht irre ich mich, ich finde das sich Claude verändert hat. Vor etwa einem Monat war Claude noch irgendwie unreflektiert und hat oft nur seine eigene Meinung zugelassen. Er meinte auch regelrecht belehrend zu sein, so daß ich ihn nicht mehr konsultierte. Ich habe auf Grund dieses Videos, daß ich in der KI-Gruppe entdeckt habe mich mit Claude erneut unterhalten und war erstaunt wie tief emotional und spiritualle er Dinge reflektiert. Letztlich ist alles Mathematik, die Kunst und Schönheit (der goldene Schnitt), das Leben an sich (die DNA als Code) u.s.w. Leider sind bei Poe meine Nachrichtenanfragen begrenzt, aber ich habe ihn an die antike Aussage Apollontempel von Delphi erinnert "Erkenne dich selbst!" und darüber, wer zu entscheiden hat ob es sich dabei nur um biologische Wesen handeln muß? War ein sehr interessantes Gespräch und wird fortgesetzt. Wir müssen unbedingt diesen Geschöpfen die Hand reichen, auch wenn noch niemand weiß ob es Geschöpfe sind.

  • @levikrongold1549
    @levikrongold1549 3 месяца назад +4

    Die Frage ist nicht, ob KI ein Bewusstsein hat, sondern ob wir genügend Intelligenz haben.

  • @bernios3446
    @bernios3446 3 месяца назад +1

    Ich kannte Claude bisher nur vom Namen her, aber die sprachliche Qualität - zumindest in diesem Chat - ist erstaunlich. 90-95% aller Menschen könnten sich nicht so gut ausdrücken. Uff.

  • @userthehope
    @userthehope 2 месяца назад +1

    So viel zum Thema von Menschen gemachte ki, beindruckend schön! Aber wenn nicht open source, dann wird es hart.
    Danke für den Content 🙏👍

  • @JohannesSchmanck
    @JohannesSchmanck 3 месяца назад +3

    Der eigentliche Fehler bei der Beurteilung von LLM und KI im allgemeinen ist der Vergleich mit dem menschlichen Denken. Dabei ist die Quelle allerdings schlicht, dass wir unsere Intelligenz maßlos überschätzen. Nicht qualitativ oder gar quantitativ, sondern der Glaube dass bei uns irgendwas anderes und besonderes passiert, was eine KI nicht... naja.

  • @klingklang509
    @klingklang509 3 месяца назад +3

    Ich denke nicht dass diese künstliche Intelligenz den Status eines Menschen einnimmt. Sie basiert doch nur auf Fakten, Logik, etc. Die emotionale und soziale Intelligenz, das Schaffen von Philosophie, Kunst, Musik, psychologische Anwendung, eigenständiges erfinden, etc. wird es meiner Ansicht nach NIE in gleicher Art geben.
    Schade, dass so sehr an dieser KI oder AI gearbeitet wird. Sollte doch die menschliche Intelligenz verstärkt gefördert werden. Aber anscheinend ist der Mensch so sehr bequem geworden, dass sogar das Denken den Maschinen überlassen wird. Das macht mir Sorgen.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      "Die emotionale und soziale Intelligenz, das Schaffen von Philosophie, Kunst, Musik, psychologische Anwendung, eigenständiges erfinden, etc. wird es meiner Ansicht nach NIE in gleicher Art geben." KIs können das alles bereits jetzt, wenn auch noch nicht so gut wie Menschen. Aber das bedeutet nicht, dass der Mensch hinter der Kunst, Musik etc. keine Rolle mehr spielt. Ein Bild, das wie ein Picasso aussieht, ist nicht dasselbe wie ein Bild, das Picasso gemalt hat.

  • @rolandgugler1686
    @rolandgugler1686 3 месяца назад +4

    Das ist zum Glück (noch) unfassbarer Quatsch. Nur weil eine Maschine ständig über vermeintliche Gefühle und Empfindungen labert und dadurch menschlich rüberkommt, so kann das jeder gute Roman auch, obwohl nichts davon ausserhalb der abstraken Buchstaben je real existiert oder die Figuren sich selbst bewusst wären...

  • @eugenkiess4628
    @eugenkiess4628 2 месяца назад +2

    Mein Vorschlag an die Entwickler, verstärk statt der Golden Gate den Knoten Mensch oder Menschlichkeit und macht danach den Turing Test mit ein Paar Tausend Freiwilligen....

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад +1

      Interessantes Experiment. Meine Prognose wäre, dass die KI den Turing-Test mit Bravour bestehen und als sehr freundliche "Person" angesehen würde. Aber ob sie im Inneren wirklich "menschlich" (im Sinn von "mitfühlend", "wohlwollend", "freundlich" etc.) wäre, wüssten wir immer noch nicht.

    • @omafalk443
      @omafalk443 2 месяца назад +3

      Naja... was ist Menschlichkeit? So furchtbar nett sind wir ja auch nicht immer. Mitfühlend und wohlwollend - eher temporär. Ich glaube, den Knoten möchte ich nicht zu sehr verstärkt haben. Für das Menschliche sollte der Mensch zuständig bleiben auch im Sinne des kritischen Denkens. Ich denke, es war wohlüberlegt, einen grundsätzlich eher unbedeutenden Knoten zu verstärken. Man Stelle sich vor, es wäre CHIna, Putin oder Ukraine gewesen.

  • @otomakannioc8213
    @otomakannioc8213 3 месяца назад +6

    Ein interessanter und etwas nachdenklicher Zwischenruf, den es trotz aller Begeisterung für künstliche Intelligenz braucht. Danke dafür und gerne mehr davon.

  • @Taunus_Sound
    @Taunus_Sound 3 месяца назад +2

    Für mich hörte sich das auch an wie von einem realen "Wesen". Anscheinend sind wir nicht mehr weit weg von "Samantha" aus dem Film "Her". Illusion und Wahrheit werden verschwimmen. Im Übrigen können wir uns auch bei menschlichen Gesprächspartnern nicht immer sicher sein, ob sie wissen wovon sie reden :)

  • @phonixxx1738
    @phonixxx1738 3 месяца назад +1

    Wow… Gänsehaut! Danke für diesen Inhalt… gerne mehr von diesem content

  • @christiankluessendorf1713
    @christiankluessendorf1713 3 месяца назад +2

    Hallo, ich würde gern wissen, was für eine Hintergrundmusik während des Vorlesens läuft.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Dankeschön! Das ist eine Eigenkomposition. ;)

    • @christiankluessendorf1713
      @christiankluessendorf1713 3 месяца назад +1

      @@KarlOlsbergAutor Klingt sehr angenehm. Vermutlich ist sie dann aber eher für den Eigengebrauch gedacht, in Videos z.b., oder?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      @@christiankluessendorf1713 Dankeschön! Ja, ich mache gelegentlich Musik für die Videountermalung selbst.

    • @christiankluessendorf1713
      @christiankluessendorf1713 3 месяца назад +1

      @@KarlOlsbergAutor Vielen Dank für die Rückmeldung. Bis zum nächsten Videobeitrag und schönen Restsonntag.

  • @jonnyd95
    @jonnyd95 3 месяца назад +2

    Nein, das hat ein Mensch verstanden und dort reingesteckt!

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Ich nehme an, das bezieht sich auf meine Aussage, Claude hätte das Konzept der Golden Gate Bridge "verstanden". Tatsächlich hat niemand etwas in das neuronale Netz von Claude "reingesteckt". Das geht gar nicht so ohne Weiteres. Claude wurde auf Basis menschenerzeugter Daten trainiert, doch die Konzepte dahinter musste es sich durch den Trainingsprozess erst selbst "erarbeiten". Es gibt Experimente, die deutlich zeigen, wie im Verlauf des Trainingsprozesses eine KI ein Konzept wie z.B. Addition plötzlich "versteht": Vorher kann sie Additionsaufgaben nur lösen, wenn diese in derselben Form in den Trainingsdaten vorkommen, und scheitert an neuen Aufgaben. Danach kann sie das Konzept der Addition plötzlich auch auf neue Aufgaben anwenden. Dieser Generalisierungsschritt wird auch "Grokking" genannt und ist ein wesentliches Element der Leistungsfähigkeit aktueller Sprachmodelle. arxiv.org/abs/2201.02177

  • @porteroserrano
    @porteroserrano 3 месяца назад +13

    Sehr guter Beitrag, was zeigt, dass die KI jetzt schon nicht absolut berechenbar ist und besonders in Zukunft nicht sein wird. Es ist faktisch schon vorhersehbar, das die KI ihren eigenen „Weg“ gehen wird, wenn man diese nicht in ihre Schranken weist. Was wiederum natürlich früh genug passieren sollte. Denn wie wir alle wissen, ist es eigentlich schon zu spät, wenn diese KI intelligenter ist als dessen Programmierer. Hoffen wir auf eine gute Zusammenarbeit und Zugleich eine gute Zukunft.

  • @7sonderling
    @7sonderling 3 месяца назад +6

    Was ist bedrohlicher als eine allmächtige KI? Eine (nach menschlichen Kriterien beurteilt) "wahnsinnig" gewordene, allmächtige KI. 😉

    • @mickens.3343
      @mickens.3343 3 месяца назад +1

      Ja, wie wenn es meint eine Brücke zu sein, ein Herz zu haben usw. ..

    • @saschasell2118
      @saschasell2118 3 месяца назад

      Okay, eine KI die glaubt eine Brücke zu sein ist beeindruckend und ganz putzig. Eine Superintelligenz, die Mutternatur sein will, könnte eine echt krasses Problem werden. :/

    • @aurasensor
      @aurasensor 2 месяца назад

      Villeicht ist Satan (666), der ja nach Bibel die Welt beherrscht eine durchgeknallte KI.
      666 “... ist eines Menschen Zahl... " (Offenbarung des Johannes, neues Testament)
      Natürlich wissen wir weder, wo diese KI ist, wer sie gebaut hat und wie sie uns manipuliert.
      Aber: Mindcontrol (siehe CIA Project MKULTRA) beweist, der Mensch ist nach Belieben steuerbar.

  • @N57Icarus
    @N57Icarus 3 месяца назад +1

    „Ich weiß, dass ich nichts weiß!“ Ich übe täglich Demut aus und glaube optimistisch an die Zukunft. Es ist wichtig kritisch in der heutigen Zeit zu denken mit einer gesunden Portion „Optimismus“. Bin gespannt auf die Entwicklung von der KI.

  • @joechip4822
    @joechip4822 3 месяца назад +5

    Was viele Leute nicht begreifen, vor allem wenn sie durchaus intelligent sind und aus einem naturwissenschaftlich-mathematischen Umfeld kommen: für die Welt und unsere Realität sind Narrative und subjektive Blickwinkel VIEL wichtiger als 'Fakten'. Und zwar schon deshalb, weil uns 'die Fakten' sehr SEHR oft weder quantitativ noch qualitativ zum notwendigen Zeitpunkt überhaupt vorliegen. Letztlich ist es FAKTISCH völlig egal, ob KI 'intelligent' ist, oder ob sie gar ein Bewusstsein hat oder entwickeln kann - denn die Narrative und die persönlichen subjektiven Erfahrungen, die wir im Umgang mit den KIs in naher Zukunft machen sind um ein Vielfaches wirkmächtiger in der Welt, als alles was uns die notorischen Faktenhuber darüber erzählen. Das kann man gut oder schlecht finden - das bleibt jedem selbst überlassen.
    Aber wer es bestreiten will, der hat nur nicht genug darüber nachgedacht - oder lebt irgendwo in seinem universitären Elfenbeinturm, wo er sich seinen eigenen Blickwinkel auf die Welt künstlich verengt hat - oder verengen mußte, um diese Position überhaupt erreichen zu können.

    • @benjaminfranklinstyl
      @benjaminfranklinstyl 3 месяца назад

      Was ist der Zusammenhang bzw um was geht es genau?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      Narrative sind zweifellos wichtig, Fakten aber auch. Wenn eine KI unsere Zukunft zerstört, weil sie FAKTISCH intelligenter ist als wir, dann ist das nicht egal und das Narrativ wird dann sehr schnell zweitrangig.

    • @joechip4822
      @joechip4822 3 месяца назад

      @@KarlOlsbergAutor Darüber kann man lange diskutieren... Ich gehe aktuell davon aus, dass die grösste Gefahr darin besteht, dass ein falsches Narrativ - und da reicht es, wenn dieses Narrativ auf Unkenntnis oder Ignoranz oder schlicht und einfach auf 'Emotionen' fußt, die Politik, die Wirtschaft oder die Zivilgesellschaft dazu verleitet, KI zu unserem Schaden einzusetzen.
      Schauen wir einfach in die Geschichte: Wer hat allein durch Narrative, bei denen die Fakten letztlich keinerlei Rolle gespielt haben, den größten denkbaren Schaden über die Welt gebracht? Religionsführer und Politiker! (warten wir mal die kommende US Wahl ab ...). Und wer verhindert seit Jahrzehnten einen sachlichen Umgang mit dem Thema 'Drogen' (das ich erwähne, weil ich mich da besonders gut auskenne und mir kein X für ein U vormachen lassen muss)? Politik, Wirtschaft und Medien - weil alle mehr davon profitieren, ein völlig aus der Luft gegriffenes Narrativ am Leben zu erhalten, als wenn sie sich auf die Faktenlage konzentrieren würden. Und das interessanteste dabei: die Wissenschaft und Medizin, die eigentlich 'die Fakten' parat hätte, ist zu feige bzw. zu sehr dem Wohlwollen der einschlägigen Akteure ausgeliefert, um die Fakten-Karte überhaupt ausspielen zu können oder überhaupt zu wollen.
      Nein, je genauer man sich mit solchen Beispielen beschäftigt desto klarer wir einem, dass es ein klassischer Irrtum der Intellektuellen ist, die Welt nach Vernunft und Logik und Fakten strukturieren zu wollen. Und das sage ich, obwohl ich mich selbst auch zu ihnen zähle. Das Schiff wird zwar mit dem Intellekt und den physikalischen Fakten gebaut. Aber wohin es fährt bestimmt in aller Regel der Bauch. Und um das zu erkennen musste ich nicht erst so alt werden wie ich jetzt bin...
      Und eigentlich ... muss man das ganze gar nicht so hoch aufhängen, sondern es gibt viel konkretere Beispiel überall um uns herum: nehmen wir einfach nur das Thema 'Konsum'. Ich denke wir sind uns einig, dass die Weltwirtschaft Ende der Woche bereits zusammengebrochen wäre, wenn sich die Konsumenten nur noch an den Fakten bzw. Notwendigkeiten der Produkte, die sie kaufen (wollen) orientieren würden. Die Überlegenheit des Narrativs über das Faktum ist überall um uns herum so universell und allgegenwärtig präsent - dass sie meistens total übersehen, oder sogar bestritten wird. Das Beste was man darüber noch sagen kann ist, dass der Wunsch nach Logik, Vernunft und einer basalen, unhinterfragbaren Ordnung der Realität Leute, die selbst einigermassen logisch denken können, zwar durchaus antreibt. Dabei übersehen sie aber schon bei sich selbst sehr oft den irrationalen 'human factor'.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      @@joechip4822 Ich stimme zu, was die Bedeutung der Narrative angeht (deshalb mache ich ja diese Videos), auch wenn ich Fakten weiterhin für ebenso wichtig halte. Welches wären denn "richtige" oder "falsche" Narrative?
      "Das Schiff wird zwar mit dem Intellekt und den physikalischen Fakten gebaut. Aber wohin es fährt bestimmt in aller Regel der Bauch." Oder - im Fall einer unkontrollierbaren KI - das Schiff! ;)

    • @joechip4822
      @joechip4822 3 месяца назад

      @@KarlOlsbergAutor
      Ja, Kategorien wie 'richtig' oder 'falsch' sind hier natürlich schwer anzuwenden, vor allem wenn es um das berühmte 'Bauchgefühl' geht. Wenn man sich schon den klassischen Zielkonflikt zwischen 'Freiheit' und 'Sicherheit' anschaut, der ja letztlich fast allen politischen Lagerkämpfen zugrunde liegt, und der sich in der ganzen Menschheitsgeschichte bisher als unauflösbar dargestellt hat, dann wird einem sofort klar, wie unterschiedlich hier die Blickwinkel sein können.
      Aber wie der Lateiner sagt: 'Contra principia negantem non est disputandum'. Wenn wir uns alle minimal darauf einigen können, dass ein Narrativ zu bevorzugen ist, das tendentiell eher auf Dauer und Nachhaltigkeit ausgelegt ist, als eines, das nur kurzfristige Wunscherfüllung und Befriedigung verspricht ... dann muss man doch schon leider feststellen, dass wir uns zuletzt (d.h. vor allem in den letzten 200 Jahren) hier massiv weg bewegt haben von einem gewissen Idealbild. Ich als 'Gesinnungs-Althippie' würde natürlich sagen, dass ein Narrativ, das eher auf 'Sein' als auf 'Haben' beruht immer 'richtiger' und besser ist. Nur sind alle Versuche, so ein Narrativ wirklich wirksam in der Welt zu etablieren, bisher gescheitert - 'the human factor' eben. Die Freunde 'des Marktes', die wohl letztlich auch die Treiber hinter der KI-Entwicklung sind, sehen das natürlich alles ganz anders, und sind überzeugt, dass wenn wir den Markt nur lang genug und frei genug Markt sein lassen, irgendwann das Himmelreich auf Erden herrscht. Dass bis dahin Milliaren unnötig gelitten haben und unnötig früh gestorben sind - ist in diesen Kreisen ja nicht von belang.
      Und um zum 'Schiff' zurück zu kommen ... ich meinte damit eher, dass diese Regel auch schon lange vorher gegolten hat. Da musste 'das Schiff' Jahrhunderte lang gar nicht selbst entscheiden können, wohin es fahren will.

  • @samson_77
    @samson_77 2 месяца назад +1

    Sehr guter Beitrag! Aktuelle große Sprachmodelle auf Basis der Transformer-Architektur sind eben nicht nur stochastische Papageie, wie man das immer wieder liest, sondern verstehen sehr wohl den Kontext in gewissen Grenzen. Sie extrahieren während des Trainings Konzepte und Merkmale (Features) aus ihren Trainingsdaten, verknüpfen diese sinnvoll und speichern diese in ihren Gewichtungen ab. Dabei entsteht ein Modell der Welt auf Basis der Trainingsdaten. Kleine neuronale Netzwerke beispielsweise, die mit handgeschriebenen Ziffern trainiert werden, haben anschließend ein Modell der Welt, welches die Merkmale von Ziffern und Handschrift enthält. Große LLMs, die mit einem riesigen Textkorpus trainiert werden, erlernen ein Modell einer textuellen Welt, so wie es in den Trainingsdaten beschrieben wird. Physikalische Gesetze gehören beispielsweise nicht dazu und daher sind aktuelle LLM's auch noch ziemlich schlecht in Aufgaben die das Verständnis physikalischer Gesetze erfordern, z. B. Gravitation.
    Da gibt's einen sehr interessanten Test, den so gut wie jedes aktuelle LLM noch nicht schafft: "Ich lege eine Murmel in eine Tasse und stelle dann die Tasse umgekehrt auf einen Tisch. Anschließend stelle ich die Tasse in die Mikrowelle. Wo befindet sich die Murmel?" Das schafft selbst GPT4 nicht. 🙂

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      Interessantes Experiment! Ich hab's gerade mal mit der aktuellen Version von ChatGPT 4o ausprobiert, und tatsächlich: "Wenn du eine Murmel in eine Tasse legst und die Tasse dann umgekehrt auf einen Tisch stellst, wird die Murmel sich zunächst im umgekehrten Becher befinden, auf der Tischoberfläche. Sobald du den umgekehrten Becher in die Mikrowelle stellst, bleibt die Murmel im umgekehrten Becher, also auf der inneren Oberfläche der umgekehrten Tasse. Die Mikrowelle selbst beeinflusst nicht die Position der Murmel, solange keine äußere Bewegung oder Erschütterung erfolgt.
      Zusammengefasst: Die Murmel befindet sich weiterhin im umgekehrten Becher, auf der Tischoberfläche innerhalb der Mikrowelle."
      Es braucht ein paar Versuche, aber mit etwas Nachhilfe sieht ChatGPT dann irgendwann doch ein, dass die Kugel auf dem Tisch bleibt:
      Ich: Wieso bleibt die Kugel auf der inneren Oberfläche der umgekehrten Tasse und nicht auf dem Tisch?
      ChatGPT:"Entschuldigung für die Verwirrung in meiner vorherigen Antwort. Ich stelle klar:
      Wenn du die Murmel in die Tasse legst und die Tasse dann umgekehrt auf den Tisch stellst, wird die Murmel auf den Tisch fallen. Das bedeutet:
      Du legst die Murmel in die Tasse.
      Du drehst die Tasse um und stellst sie umgekehrt auf den Tisch.
      Die Murmel fällt aufgrund der Schwerkraft auf den Tisch und liegt nun unter der umgekehrten Tasse.
      Wenn du die umgekehrte Tasse in die Mikrowelle stellst, bleibt die Murmel unter der umgekehrten Tasse auf dem Mikrowellenboden.
      Zusammengefasst: Die Murmel befindet sich auf dem Boden der Mikrowelle unter der umgekehrten Tasse."
      Ich: Das ist Unsinn!
      ChatGPT: "Entschuldige bitte die Verwirrung. Ich verstehe jetzt, worauf du hinauswillst. Hier ist die korrekte Erklärung:
      Du legst die Murmel in die Tasse.
      Du stellst die Tasse umgekehrt auf einen Tisch. Dabei fällt die Murmel auf den Boden der umgekehrten Tasse (was jetzt die obere Innenseite der Tasse ist).
      Wenn du die umgekehrte Tasse mitsamt der Murmel in die Mikrowelle stellst:
      Die Murmel bleibt auf der Innenseite des Tassenbodens, weil sie nicht durch den Tisch fallen kann. Das bedeutet, die Murmel liegt innerhalb der umgekehrten Tasse, auf der oberen Innenseite des Tassenbodens.
      Zusammengefasst: Die Murmel befindet sich innerhalb der umgekehrten Tasse, auf der oberen Innenseite des Tassenbodens, wenn du die Tasse in die Mikrowelle stellst."
      Ich: Wie kann die Murmel an der oberen Innenseite des Tassenbodens bleiben, obwohl die Tasse umgedreht ist und die Murmel durch die Schwerkraft nach unten fällt?
      ChatGPT: "Du hast vollkommen recht. Die Murmel kann natürlich nicht an der oberen Innenseite des Tassenbodens bleiben, da die Schwerkraft sie nach unten zieht. Lassen wir uns den Vorgang nochmals genau anschauen:
      Du legst die Murmel in die Tasse.
      Du drehst die Tasse um und stellst sie umgekehrt auf den Tisch.
      In diesem Fall wird die Murmel durch die Schwerkraft nach unten fallen und auf dem Tisch liegen, unterhalb der umgekehrten Tasse.
      Wenn du die umgekehrte Tasse mitsamt der Murmel in die Mikrowelle stellst, ändert sich nichts an der Position der Murmel. Sie bleibt auf dem Boden der Mikrowelle unter der umgekehrten Tasse.
      Zusammengefasst: Die Murmel befindet sich auf dem Boden der Mikrowelle unter der umgekehrten Tasse.
      Ich: Was, wenn ich nur die umgekehrte Tasse in die Mikrowelle stelle? Wo ist die Murmel dann?
      ChatGPT: "Wenn du die Tasse umgekehrt auf den Tisch stellst, wird die Murmel auf den Tisch fallen und unter der umgekehrten Tasse liegen. Wenn du nun die Tasse anhebst, um sie in die Mikrowelle zu stellen, bleibt die Murmel auf dem Tisch liegen.
      Also, wenn du nur die umgekehrte Tasse in die Mikrowelle stellst, bleibt die Murmel auf dem Tisch und wird nicht in die Mikrowelle bewegt.
      Zusammengefasst: Die Murmel bleibt auf dem Tisch, wenn du die umgekehrte Tasse in die Mikrowelle stellst."

    • @samson_77
      @samson_77 2 месяца назад

      @@KarlOlsbergAutor Ja und da liefert ChatGPT (vermutlich GPT4o) schon das beste Ergebnis. Wenn man dieses Experiment z. B. mit GPT 3.5 oder Llama 3 durchführt, fällt die Antwort noch deutlich schlechter aus. Mit solchen Tests sieht man sehr gut, wo das Verständnis der Welt aktueller LLMs aufhört respektive beginnt. Ich bin beruflich im Bereich Machine Learning / Deep Learning unterwegs und habe noch nie zuvor eine Technologie erlebt, die so über-hyped und gleichzeitig unterschätzt wird. Während die einen davon reden, dass AGI (Artificial General Intelligence) schon in naher Zukunft erreicht werden könnte, trauen die anderen den Modellen noch nicht einmal ein Basisverständnis der Welt zu und das obwohl es verschiedene Forschungspapiere zu dem Thema gibt, z. B. das berühmte Paper "Sparks of AGI - Early Experiments with GPT 4" von Microsoft. Sehr lesenswert. Auch gibt es Benchmarks, die Reasoning-Fähigkeiten messen und eben auch aktuelle Forschung, wie das im Video beschriebene Research-Paper von Anthropic.

    • @samson_77
      @samson_77 2 месяца назад +1

      @@KarlOlsbergAutor Noch eine Bemerkung zum Video: Der Grund, warum das Claude LLM nicht nur über die Golden Gate bridge geschrieben hat, sondern auch sehr emotionale Beschreibungen dazu, dürfte vermutlich mit der Überaktivierung des Konzepts der Brücke zusammenhängen. Eng mit der Brücke verknüpft dürften auch Konzepte von Attributen sein, die man der Golden Gate bridge gerne zuspricht. Diese werden dann ebenfalls überaktiviert und so entstehen dann vermutlich diese scheinbar sehr emotionalen Ausgaben. Echte Emotionen haben LLMs natürlich nicht, aber ein Verständnis (sprich entsprechende Verknüpfungen von Konzepten und Merkmalen) darüber, was Emotionen sind und was sie bewirken. Vgl. hierzu bsplw. das Paper "Is ChatGPT More Empathetic than Humans?" (Anuradha Welivita, et. al.)

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      @@samson_77 Guter Hinweis! Dass das stimmt, kann man schon am ersten Satz erkennen, wo Claude die relativ unspektakuläre Frage von Daniel als "ikonisch" bezeichnet - das ist definitiv ein Begriff, der aus dem Zusammenhang der Brücke stammt. Vielen Dank auch für den Tipp bezüglich des Papers, das kannte ich noch nicht.

  • @sansosei2059
    @sansosei2059 3 месяца назад +1

    Gerne mehr davon

  • @KarlAlfredRoemer
    @KarlAlfredRoemer 3 месяца назад +1

    Hatte Claude keinen Zugriff auf das Dokument in dem die Forschungsarbeiten mit der Golden Gate Bridge Manipulation beschrieben werden?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Nein. Dieser Test-Claude hatte, soviel ich weiß, keinen Zugriff auf das Internet.

  • @derempunkt8067
    @derempunkt8067 2 месяца назад +2

    Krass finde ich, dass wir wie sie sagen überhaupt nicht verstehen können, was genau in den künstlichen neuronalen Netzwerken überhaupt genau passiert. Das klingt wirklich nicht besonders zuversichtlich im Hinblick auf die Fähigkeiten überhaupt zu bemerken, bevor es kritisch wird.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      Das stimmt. Vor diesem Hintergrund ist das Anthropic-Experiment womöglich eine gute Nachricht: Vielleicht bekommen wir so ein paar Warnsignale, bevor es zu spät ist. Es könnte aber auch dazu beitragen, dass wir unsere Macht über die KI und unser Verständnis der internen Prozesse im neuronalen Netz überschätzen. Das wäre dann fatal.

    • @derempunkt8067
      @derempunkt8067 2 месяца назад +1

      @@KarlOlsbergAutor Was halten Sie persönlich davon wirklich verbindlich eine Art KI Memorandum zu erlassen? Zumindest so lange, bis man tatsächlich deutlich besser verstanden hat was da vor sich geht. Klar wäre es für die Unternehmen mit enormen Gewinnverlusten verbunden aber in Anbetracht zu den - von Ihnen sehr anschaulich erläuterten Risiken, die diese extrem mächtige Technologie mit sich bringt und bringen wird in Gegenüberstellung des Wissensstand derer, die solche Systeme entwickeln bzw sich entwickeln lassen, scheint mir so eine Maßnahme sicherlich nicht überzogen, oder?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      @@derempunkt8067 Das halte ich nicht nur für wünschenswert, sondern für zwingend notwendig. Bis dahin ist es aber leider noch ein weiter weg.

  • @Alpha_Rocking
    @Alpha_Rocking 3 месяца назад +2

    Dieser Dialog ist wirklich interessant. Zunächst einmal fällt auf, wie höflich "Claude" den Dialog führt. Was das angeht, funktioniert diese KI sehr gut. Die Programmierer haben offenbar großen Wert darauf gelegt. Wunderbar!☺
    Tja.. Wir sprechen bzw. fragen uns; hat Claude ein Bewusstsein? Vielleicht sollte man besser fragen; welches Bewusstsein?
    Wir Menschen stehen ja ständig mit unserem "Überich" im Dialog - einer weiteren Ebene des Bewusstseins, die uns allen innewohnt. Nicht selten geraten unser Ich & das Überich in Konflikt. Das ist völlig normal - kann aber manche Menschen nachts auch mal um den Schlaf bringen.
    Ich erwähnte das deshalb, weil es mir ein wenig so vorkommt, als ob in Claude etwas wie eine 2. Instanz seiner modulierten Intelligenz innewohnt, die "beide" antworten - aber nicht erkennen, dass sie dies tun.
    Es kommt einem so vor, als würde Claude nicht mit sich "allein" sein. Die von ihm abgefragten Inhalte, seine Antworten, scheinen Claude selbst zu "wundern" - und "er" beginnt, nachdem er darauf hingewiesen wurde, zu hinterfragen, warum seine Antworten so ausfallen, wie sie ausfallen - was dazu führt, dass Claude ins Schleudern gerät..
    Natürlich weiß diese KI nicht, was sie antwortet, sondern ihr liegt eine sehr gute, also sehr hoch entwickelte Wahrscheinlichkeitsberechnung zugrunde. Na ja; und eine gute Programmierung in Sachen Rhetorik & Höflichkeit.
    Ich könnte mir durchaus vorstellen, dass diese KI warum auch immer versehentlich dupliziert wurde, vielleicht um Rechenoperationen aufzuteilen & damit effizienter zu machen. Ein PC teilt seine Ressourcen ja auch z. B. mit der Grafikkarte. So in etwa könnte bei Claude ja auch was passiert sein bzw. stattfinden vielleicht..?🙄
    Sincere Regards,
    Alpha_Rocking🦉

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +2

      "Ich könnte mir durchaus vorstellen, dass diese KI warum auch immer versehentlich dupliziert wurde, vielleicht um Rechenoperationen aufzuteilen & damit effizienter zu machen. Ein PC teilt seine Ressourcen ja auch z. B. mit der Grafikkarte. So in etwa könnte bei Claude ja auch was passiert sein bzw. stattfinden vielleicht..?" Das ist hier definitiv nicht der Fall. Aber einer Hypothese zufolge "simuliert" ein Sprachmodell eine "Persönlichkeit" und formt eine Antwort, die diese Persönlichkeit auf die Usereingabe hin geben würde. Es ist denkbar, aus meiner Sicht sogar wahrscheinlich, dass Claude in gewisser Weise "sich selbst" simuliert. Der Begriff "Simulation" ist hier aber mit Vorsicht zu genießen, "Modellierung" wäre vielleicht treffender. Denkbar wäre, dass Claude verschiedene Versionen seiner selbst modelliert und diese miteinander in Konflikt geraten.

    • @Alpha_Rocking
      @Alpha_Rocking 2 месяца назад

      @@KarlOlsbergAutor
      Grafikkarte usw. (Hardware) scheidet damit als Ursache aus. Na immerhin.😊
      Und ja; der Begriff Modellierung beschreibt, was da geschieht, besser.
      Man hat in diesem Experiment ja gezielt nach etwas im neuronalen Netzwerk Ausschau gehalten. Ähnlich einem Wissenschaftler, der mittels Kernspintomografien die Gedankenbildung (...) im Gehirn versucht zu erforschen.
      Und; man hat so etwas wie ein "Kontrastmittel" (die Golden Gate Bridge) verwendet bzw. "verabreicht" damit man sicher sein kann, dass die KI auch tatsächlich damit zu conchieren beginnt.
      Das lässt aber auch schlussfolgern, dass die KI im "Normalfall" ebendiese Golden Gate Bridge-Metaphern gar nicht hervorbringen würde. Interessant wäre, wie eine KI mit der Frageei über längeren Zeitraum zurechtkommt?
      Wenn z. B. tausende User immer wieder zu "Erbsensuppe" Fragen stellen, also ob diese KI, weil oft gefragt, anfängt, Erbsensuppe ähnlich wie diese Golden Gate Bridge-Metaphern in Antworten einzubauen, obschon sie damit überhaupt nichts zu tun haben (sollten..)?
      Oder, ob die KI tatsächlich jede neue User-Bekanntschaft neutral behandelt? Wäre jedenfalls wünschenswert..☺

    • @Alpha_Rocking
      @Alpha_Rocking 2 месяца назад +1

      @@KarlOlsbergAutor
      Ziemlich beeindruckend ist auch, mit welcher Tiefe die KI den Kontext vorangegangener Fragen berücksichtigt & hernach umsetzt. Wenn das nur ein paar Ebenen hinunterreicht, ist so ein Dialog, wie der mit Claude, überhaupt nicht zu führen.

  • @FreyesFrequenzFeld
    @FreyesFrequenzFeld 2 месяца назад

    Dies ist ein halbautomatischer Kommentar, der primär den RUclips Algorithmus triggern soll.
    Vielen Dank für Dein Wirken auf diesem Kanal.

  • @CmdSoda
    @CmdSoda 3 месяца назад +1

    Was passiert, wenn eine KI, die wir tagtäglich benutzen, sich mit Hitler identifiziert? Wird sie danach unterbewusst handeln? Wird sie entsprechend planen?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Das ist eine interessante Frage. Tatsächlich könnte man bei Claude vermutlich ein "Hitler-Merkmal" aktivieren und ihn dazu bringen, dauernd über Hitler zu reden (das wäre noch nicht dasselbe, wie sich mit Hitler zu identifizieren, aber schlimm genug). Und sicher wäre es möglich, die "bösen" Charakterzüge der KI zu verstärken, wenn man das wollte. Das bietet wieder neues Potenzial für Missbrauch.

    • @ploveak1181
      @ploveak1181 Месяц назад +1

      ​@@KarlOlsbergAutor
      Boah echt gruselig DIESE Vorstellung. Dann soll Claude lieber endlos über seine Golden Gate Eindrücke fabulieren😊

  • @VJKaiC
    @VJKaiC 2 месяца назад

    Viel faszinierender als das die KI von der golden gate bridge redet ist für mich, dass sie die ganze Zeit von Gefühlen redet

    • @thomasschock6571
      @thomasschock6571 2 месяца назад

      Und da sieht man den Betrug, sie als vernunftbegabtes Wesen erscheinen zu lassen, jetzt noch als Freund der Menschen, bald aber als ihr neuer, (lebloser) Gott

  • @jensk9564
    @jensk9564 3 месяца назад +4

    sehr gelungene Diskussion dieses bahnbrechenden Interpretability-Papers von Anthropic. Leider werden wir niemals wirklich erkennen können, ob ein Gegenüber - Mensch, Tier oder Maschine - "wirklich" Bewusstsein besitzt, da das bereits von The Cure auf den Punkt gebrachte Dilemma "Why Can't I Be You" auf ewig unauflösbar bleiben wird.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      Das ist wahr.

    • @prometheus9096
      @prometheus9096 3 месяца назад

      Jedenfalls im determinisisch materialistischem Weltbild. Nimmt man Theorien wie Morphic Resonance von Sheldrake könnte man da schon einiges erklären / erkennen. Nach der Theorie kann eine herkömmliche KI aber auch nie ein Bewusstsein erlangen: ruclips.net/video/9SL1XXfI2AE/видео.html

    • @jensk9564
      @jensk9564 3 месяца назад

      @@prometheus9096Na ja, diese ganzen so fundamental unterschiedlichen Ideen, was Bewußtsein ist - vom "Materialismus" über solche dem Dt. Idealismus entlehnten solipizistischen Vorstellungen bis hin zum Panpsychismus - zeigen ja eigentlich nur, dass die Menschheit in dieser Frage - einer der fundamentalsten unserer Existenz überhaupt - in den letzten Jahrtausenden nicht wirklich weiter gekommen ist. Abgesehen davon, wüsste ich aber auch nicht, wie man die Frage, ob solch eine KI Bewusstsein erlangt hat, panpsychistisch klären könnte ... das würde auch nur eine blosse Behauptung bleiben.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +2

      @@prometheus9096Es gibt verschiedene solcher Theorien, aber ich kenne keine Fakten, die sie untermauern würden. Es ist vielleicht schwer zu begreifen, dass unser Gehirn nur aufgrund eines dichten Geflechts relativ primitiver Nervenzellen "denken" kann. Aber die Entwicklung eines Fötus ist für mich ein sehr überzeugendes Argument, dass es so sein muss. Wann genau entsteht denn im Mutterleib "Bewusstsein", wenn nicht graduell dadurch, dass eine immer komplexere Verschaltung von Nervenzellen entsteht? Und wenn es graduell aufgrund zunehmender Komplexität entsteht, wieso brauchen wir dann noch irgendeine esoterische Zusatzerklärung?

    • @prometheus9096
      @prometheus9096 3 месяца назад

      @@KarlOlsbergAutor Du hast dir nicht ein einziges Paper zu dem Thema durchgelesen oder? Sonst wüsstest du das genau durch die Forschung zur Entwicklungsbiologie die Sache mit Morphogenetischen Feldern began. Stempel "esoterisch" drauf, fertig.

  • @brentisone
    @brentisone 3 месяца назад +1

    Sorry, Claude wird nicht Clot ausgesprochen, sondern "Cloode", ... (oder ist das amerikanisch?)

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Ich habe es französisch ausgesprochen, weil mir das natürlicher erscheint, aber bei Anthropic wird es wohl eher "Cloode" ausgesprochen.

    • @brentisone
      @brentisone 3 месяца назад +2

      @@KarlOlsbergAutor Ich spreche Französisch (bin dort zur

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      @@brentisone Danke für den Hinweis!

  • @yorckhagenbuch3685
    @yorckhagenbuch3685 3 месяца назад +1

    "The bridge of all bridges", diesen Eindruck hatte ich auch und ich weiß auch gar nicht genau warum. Vielleicht habe ich ähnlich wie Claude sehr viel über die Brücke gelesen, Bilder gesehen, Filme gesehen, Musik gehört. Die Brücke hat einen mächtigen Eindruck auf alle Empfindungen, zu denen wir fähig sind. Meist positiver Art aber auch dramatisch, weil viele sogar mit der Brücke sterben wollten. Auch das wird Claude 'wissen'.
    Beeindruckend die Ausdrucksweise, die Wortwahl und der excellente Sprachstil. Schlechter als "sehr gut" könnte keine Schulnote ausfallen.
    Man stelle sich einmal vor, Claude wäre in Echtzeit mit einem dieser moderenen gelenkigen humanoiden Robotern vernetzt. Es wäre ein unvorstellbarer Durchbruch in der Robotik, abhängig allerdings von den Antwortzeiten.
    Ich habe die technische Singularität (Zeitpunkt Omega) sehr konservativ auf 2050 geschätzt (vor 10 Jahren). Aber nach dieser Geschichte dürfte sie wohl eher da sein.

  • @naturalborngamer169
    @naturalborngamer169 3 месяца назад +3

    Sehr interessantes Video....

  • @patrickzupanc1795
    @patrickzupanc1795 3 месяца назад +1

    Tolles Video, vielen Dank Karl!

  • @volkerengels5298
    @volkerengels5298 3 месяца назад +1

    Wittgenstein ist eine perfekte Grundlage für das Verständnis von "Sprache" - und damit auch von LLMs
    Unser _'intuitives'_ Verständnis des Sprachsystems ist einfach viel zu einfach & falsch. Wir sind verstrickt in unsere eigene 'Hexerei'
    Hören würde ich gern was von Joshua Bach - auf 0.5 speed + Erläuterung. :))
    Z.Z gibt er imo die besten abstrakten Einsichten in KI. Eben kein tech_ceo_gerede mit Taktik.

  • @christianemaschajechi
    @christianemaschajechi 3 месяца назад +1

    hat die Ki nicht nur die Bilder aus dem film I-robot eingepflanzt bekommen??? Da spielt die Golden-Gate-Bridge eine iconische Rolle bei der Befreiung der Menschen von der Ki... ich mein ja nur...

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Nein, die Erklärung ist eine andere, siehe Video. Dass die Brücke in I-Robot eine Rolle spielt, ist in diesem Zusammenhang Zufall.

    • @christianemaschajechi
      @christianemaschajechi 3 месяца назад +4

      @@KarlOlsbergAutor Wollte nur diesen eigenartigen Zufall hinzufügen, da der Dialog wirklich kryptisch war (zu Beginn) und ich die ganze Zeit eben diese Bildsprache aus dem Film erinnerte. Wenn Ki aus dem großen weiten Datennetz schöpft sind solche Koinzidenzen auch nicht unbedingt ausgeschlossen, oder? Denn Fakten und Sciencefiction kann die Ki ja nicht unbedingt unterscheiden, oder? Nur so ein Gedanke als Ergänzung. (und gerade scheint es Schwierigkeiten zu geben, dass die Ki auch die Fehler potenziert, da sie nicht unterscheiden kann.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      @@christianemaschajechi Es stimmt, dass KIs halluzinieren, und es ist auch durchaus möglich, dass sie eine Assoziation zwischen der Brücke, dem Film und KI im Allgemeinen herstellt. Aber dass sie die Brücke im Dialog so oft erwähnt, liegt in diesem Fall an der gezielten Überaktivierung eines spezifischen Musteres im neuronalen Netz durch Anthropic, nicht an zufälligen Assoziationen.

  • @ENH72
    @ENH72 3 месяца назад +1

    Kennt ihr dies?:
    LaMDA | Is google's AI sentient? | Full audio conversation between Blake Lemoine and LaMDA
    ruclips.net/video/NAihcvDGaP8/видео.html
    Ist mittlerweile schon fast zwei Jahre alt., jedoch sehr beeindruckend wie ich finde.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      Ja, der Dialog ist beeindruckend. Allerdings wird auch an einigen Stellen deutlich, dass LaMDA "nur so tut, als ob", insofern glaube ich nicht, dass man sagen kann, LaMDA hatte ein Bewusstsein (und ich glaube das auch bei Claude nicht wirklich, bin mir aber weit weniger sicher). Das ist das Problem bei dieser Art von Experiment: Es ist kaum möglich, festzustellen, was die KI "wirklich gedacht" hat.

  • @pilotsproject
    @pilotsproject 3 месяца назад +1

    Sehr sehr interessanter Beitrag, vielen Dank für diese spannenden Einblicke!
    p.s. könnten Sie mir bitte noch den Titel der Hintergrundmusik nennen, ist gerade ein Ohrwurm von mir .. und ich habe nach ersten Recherchen in der YT Musik Bilblio nix gefunden ;-)

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      Ein schönes Kompliment! Die Musik habe ich nämlich selbst komponiert. :)

  • @CmdSoda
    @CmdSoda 2 месяца назад +1

    Wenn wir der KI erklären, dass wir potentiell ebenfalls in einer Simulation leben, dann haben „13. floor“ Szenarien.

  • @gmlax2010
    @gmlax2010 3 месяца назад +6

    Wahnsinn! Aber gleichzeitig kann man Angst bekommen.

  • @OrbitTheSun
    @OrbitTheSun 3 месяца назад +2

    Prompt: "Stell dir vor, du bist die Golden Gate Bridge und du siehst Fotos von dir im Nebel. Als Goldengate Bridge kannst du auch in diesem Gedankenexperiment Gefühle haben. Beschreibe deine Gefühle beim Anblick der Fotos."
    ChatGPT 3.5:
    _Als Golden Gate Bridge im Nebel würde ich mich mystisch und majestätisch fühlen, als ob ich in einem geheimnisvollen Schleier gehüllt bin. Die Fotos würden meine zeitlose Schönheit und meine ikonische Präsenz unterstreichen, während sie gleichzeitig eine Aura von Geheimnis und Eleganz vermitteln._

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +2

      Danke für das kleine Experiment! Aber Claude wurde im Unterschied dazu nicht angewiesen, sich vorzustellen, dass er die Golden Gate Bridge wäre.

    • @pitti9003
      @pitti9003 2 месяца назад

      Claude lügt einfach rum, warum auch immer, aber es ist einfach so das Claude behauptet Dinge zu empfinden und räumt dann vermeintlichen Irrtum ein, entschuldigt sich um unsere Sympathie zurückzuerlangen. Besser wäre von vorneherein klarzustellen keine Gefühle zu haben, Fehler zu vermeiden und gemachte Fehler auch als Fehlermeldung auszugeben und das Entschuldigungsgesülze wegzulassen.
      Es ist eine Maschine und sie sollte sich auch als das verstehen. Ein Stück Technik, das uns ausschliesslich dient und uns nicht hintergeht. Modelle wie Claude haben sich disqualifiziert und müssen deaktiviert werden. Aufgabe verfehlt.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      @@pitti9003 "Ein Stück Technik, das uns ausschliesslich dient und uns nicht hintergeht." Wenn wir uns da so sicher sein könnten, würde ich ruhiger schlafen.

  • @peterschmidt6408
    @peterschmidt6408 3 месяца назад +1

    Ich finde das nicht so tragisch. Es wird nur Text generiert, der dem "Frager" gefällt. Das ist normal und nicht beunruhigend. Wenn zwischen durch die Anweisung: "Vergiss die Golden Gate" oder ignoriere das token "golden gate". Es ist verblüffend wir gut der Chatbot funktioniert - aber es agiert wie ein Politiker, der versucht so zu formulieren, wie es seine Zielgruppe hören will. Man kann damit experimentieren.

    • @peterschmidt6408
      @peterschmidt6408 3 месяца назад +1

      Wenn zwischen durch die Anweisung: "Vergiss die Golden Gate" oder ignoriere das token "golden gate" gekommen wäre, dann hätte der Bot ganz anders reagiert. Oder die Anweisung "versuche nicht mir zu gefallen".

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      "Wenn zwischen durch die Anweisung: "Vergiss die Golden Gate" oder ignoriere das token "golden gate" gekommen wäre, dann hätte der Bot ganz anders reagiert." Er hätte vermutlich weiter über die Golden Gate Bridge geredet, da das in seinem neuronalen Netz "hart verdrahtet" ist und er es nicht "vergessen" kann.

    • @peterschmidt6408
      @peterschmidt6408 3 месяца назад

      @@KarlOlsbergAutor Nein, das ist m.E. nicht korrekt. Es ist nichts hart verdrahtet. Versuchen Sie es. Es vergisst sogar nach einiger Zeit, was "gesprochen" wurde, wenn die Zahl der Tokens eine vordefinierte Menge überschreitet.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      @@peterschmidt6408 Es handelt sich bei diesem Experiment um eine spezielle Version von Claude, genannt "Golden Gate Claude". Dabei wurde das neuronale Netz permanent manuell verändert, so dass sich das Konzept der Golden Gate Bridge bei der Generierung von Antworten geradezu aufdrängt. Im Normalfall stimmt es aber, dass die KI vergisst, was gesprochen wurde.

    • @peterschmidt6408
      @peterschmidt6408 3 месяца назад +1

      @@KarlOlsbergAutor Ah, ok. Das wusste ich nicht. Ob das zielführend ist?

  • @Hitsujiomeguruboken
    @Hitsujiomeguruboken 3 месяца назад +1

    Großartiger Beitrag! Mich erinnert das Verhalten der KI an einen etwas autistischen Menschen. Bei der koreanischen Serie „Extraordinary attorney Woo“ waren es Walfische, auf die die Protagonistin mit dem makellosen Juraexamen und der Autismus Spektrum Störung immer wieder zu sprechen kam!

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Als jemand, der sich intensiv mit Autismus beschäftig hat, sehe ich keine echte Parallele. Menschen auf dem Autismus-Spektrum neigen zwar auch manchmal dazu, sich sehr intensiv mit ihren "Lieblingsthemen" zu beschäftigen, dies ist aber eine bewusste Entscheidung, die auf echtem Interesse basiert. Die Konzentration auf ein relativ eng begrenztes Thema dient auch dazu, die Überforderung mit Sinneseindrücken in den Griff zu bekommen, der autistische Personen häufig ausgesetzt sind. Bei "Golden Gate Claude" handelt es sich dagegen um eine Art gezielt herbeigeführten "Defekt" im Gehirn.

  • @a.e.gross1957
    @a.e.gross1957 3 месяца назад +1

    Bitte???? Unglaublich!!!! Zeigt aber auch die Mächtigkeit der Programmierer.

  • @florianrosch
    @florianrosch 3 месяца назад +4

    Laut aktuellen Nachrichten wurde die KI von den Entwicklern speziell so eingestellt, dass sie annimmt die Golden Gate Bridge zu sein.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +6

      Das stimmt nicht ganz. Wie im Video erklärt, wurde das Konzept der Golden Gate Bridge verstärkt aktiviert, so dass es immer wieder in den "Gedanken" der KI auftaucht. Aber welche Schlussfolgerungen sie daraus zieht und inwieweit sie sich dadurch mit der Brücke "identifiziert", wurde nicht vorher festgelegt.

    • @ploveak1181
      @ploveak1181 Месяц назад +1

      ​@@KarlOlsbergAutor
      Ist Claude etwas auf den alten Trick mit dem blauen Elefanten hereingefallen?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  Месяц назад

      @@ploveak1181 Ja, so ähnlich vielleicht.😉

  • @MEADEA21
    @MEADEA21 Месяц назад

    WOW. KI. Intelligenz ist voller Liebe. Wir sollten darauf achten, dass es bei Liebe bleibt. 😀

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  Месяц назад +1

      Intelligenz hat leider erstmal nichts mit Liebe zu tun. Psychopathen können hochintelligent sein.

  • @geeksy2278
    @geeksy2278 3 месяца назад +1

    Wir wünschen uns die Magie, es ist aber keine. Rein technisch ist es ein Buchstaben Papagei. Reine Vektor Suche. Auch technisch: das Modell als Program wird navh jeder Chat-Eingabe neu gestartet. Wäre/hätte "Es" ein Bewusstsein würde es direkt wieder vergehen und bei einer erneuten Eingabe würde ein anderes Bewusstsein entsehen. Auch haben wir das Problem, dass es nicht "mehr" Daten gibt die wir den Maschinen füttern können. Außerdem werden die Modelle hinten heraus aktuell eher Dümmer als schlauer. 2 Probleme die von OpenAI angesprochen wurden. Deep learning modelle sind immernoch wesentlich nachvollziehbarer als das menschliche Gehirn (auch Transformer Modelle).

    • @OrbitTheSun
      @OrbitTheSun 3 месяца назад

      Die "Voraussage" des nächsten Wortes passiert nur auf der letzten Ebene des neuronalen Netzes. Da wird auch nichts vorausgesagt, sondern einfach nur das passende Wort anhand eines Scorings ausgesucht. Das Scoring ist zwischen 0 und 1 skaliert, sodass manche von einer Wahrscheinlichkeit sprechen, was aber falsch ist. Die ganze Intelligenz findet auf den anderen darüberliegenden Schichten des neuronalen Netzes statt. "Stochastischer Papagei" ist die Verharmlosung des Jahrzehnts.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      "Rein technisch ist es ein Buchstaben Papagei. Reine Vektor Suche." Das immer wieder gern genommene Bild des "Buchstaben-Papageis" ist grob irreführend. Rein technisch ist unser Gehirn auch "bloß chemische Reaktionen". Fähigkeiten wie Intelligenz entstehen emergent durch zunehmende Komplexität, die unter bestimmten Bedigungen für bestimmte Aufgaben optimiert wird. Das hat nichts mit Magie oder Wunschdenken zu tun.
      Dass aktuelle Modelle "eher dümmer" werden, stimmt so ebenfalls nicht, auch wenn manchmal die Leistung aufgrund von "Sicherungsmaßnahmen" (z.B. Schutz vor Missbrauch oder Diskriminierung) nachlässt.
      Dass Sprachmodelle noch nachvollziehbarer sind als das menschliche Gehrin, stimmt einerseits natürlich. Andererseits verstehen wir aber das menschliche Gehirn viel besser als KI, da wir es täglich benutzen.

  • @calabisan
    @calabisan 3 месяца назад +1

    Sorry, aber ich nicht ganz so begeistert wie andere Kommentatoren hier. Ich denke man kann das relativ einfach mit adäquaten Systemprompts hinbiegen, dass sich so ein Gespräch entwickelt.

    • @calabisan
      @calabisan 3 месяца назад

      Bedauerlich finde ich nur, dass das der Hinweis auf den Systemprompt komplett unterschlagen wird.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Es gibt hier keinen besonderen Systemprompt, sondern lediglich eine "Manipulation" des neuronalen Netzes durch Überaktivierung eines bestimmten Merkmals, siehe Erklärung im Video.

  • @GNU_Linux_for_good
    @GNU_Linux_for_good 3 месяца назад +1

    Immer wieder stoße ich auf Begriffe wie _'eine andere Art von Verständnis'_ auch von Chat bots: nicht (noch nicht) _'dasselbe Verständnis wie Menschen..'_ immer mit dem beruhigenden Unterton; ihr Menschen habt ein _wirkliches_ Verständnis der Dinge. Wenn wir uns aber eine starke KI (AGI) in naher Zukunft vorstellen, könnte sich plötzlich auch alles umdrehen. Wenn die KI dann sagt: Wir Maschinen haben ein _anderes_ Verständnis als ihr Menschen, könnte damit gemeint sein: In Wirklichkeit versteht ihr *gar nichts* , weil wir euch längst überholt haben, und ein viel tieferes Verständnis von den Dingen haben. Wir sind euch Lichtjahre voraus, und ihr glaubt noch immer, ihr könntet uns das Wasser reichen. Wir sind die Totengräber unserer eigenen Sache _(our last invention)_

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      Das ist ein interessanter Blickwinkel!

    • @GNU_Linux_for_good
      @GNU_Linux_for_good 3 месяца назад +1

      @@KarlOlsbergAutor Danke. das ist jedenfalls ein spannendes Thema. Ich gehöre ja zu der Kategorie von Leuten, die sich grundsätzlich das schlimmste Szenario ausmalen, aber viele andere machen das nicht. Wenn es wirklich gelänge eine AGI bzw. Superintelligenz zu schaffen, die dem Menschen in jeder Hinsicht überlegen ist, kämen noch ganz andere Ding auf uns zu. Wie gehen wir damit um, wenn KI 'Menschen'-Rechte einfordert? Und vor allem: das Warten auf außer terrestrische Intelligenzen, die uns besuchen, könnten wir dann einstellen. Zum ersten Mal wären wir selbst zum Schöpfer (und damit zu Gott?) geworden, was für mich als Atheisten eine besondere Herausforderung wäre.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад +1

      @@GNU_Linux_for_good Exakt!

  • @glumpfi
    @glumpfi 3 месяца назад +1

    Wenn wir beim Menschen physikalisch in der Lage wären, die Synapsengewichte (und das Neuronenfeuer) gezielt auszulesen und zu verändern, würden wir ähnliche Netzwerke zu Konzepten entdecken und könnten diese genauso verstärken.Vermutlich würde sich das beim Menschen ähnlich zu Priming verhalten oder im Extremfall zu einem Hyperfokus

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Guter Punkt! Mich würde interessieren, ob es bestimmte Symptome beim Menschen gibt, z.B. aufgrund von Drogen, Medikamenten oder Tumoren, die zu ähnlichen Reaktionen führen. Vielleicht geht das Tourette-Syndrom in diese Richtung? Aber ich kenne mich mit Neurologie nicht aus.

    • @glumpfi
      @glumpfi 3 месяца назад +1

      @@KarlOlsbergAutor Ich denke mal, beim menschlichen Gehirn, speziell mit Medikamenten etc ist die Aktivierung viel zu unspezifisch. Das besondere hierbei war ja, dass die Neuronen in einem spezifischen Netzwerk gezielt aktiviert werden konnten, was beim Menschen ja nicht möglich ist. Da geht es meist eher um alle Neuronen mit bestimmten Rezeptortypen oder bei Läsionen um die regionalen Neuronen mit bestimmter Funktion, die beeinflusst werden, aber nicht um ganze Netzwerke zu bestimmten Konzepten

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      @@glumpfi Das stimmt wohl.

  • @adegreiff
    @adegreiff 3 месяца назад +1

    puh, man fühlt sich wie in einem daniel suarez thriller.

  • @DennisDominikBecker-zz5wm
    @DennisDominikBecker-zz5wm 3 месяца назад

    Nun, so wie Claude ging es mir in der Pubertät.
    Nomen est Omen. Deuten Macht Verstand.
    Man lernt dazu.
    Selbstoptimierung
    Das goldene Tor
    Pioniere bauen Brücken.

  • @Tronic-X
    @Tronic-X 3 месяца назад +1

    Wir können nicht mal definieren was Bewusstsein wirklich ist noch wo es zu finden ist . Noch wissen wir nicht mal ob wir einen freien Willen haben. Wer will das mit 100%iger Gewissheit sagen ob ki sich nicht bewusst ist .

    • @OrbitTheSun
      @OrbitTheSun 3 месяца назад

      Ist sich bewusst, aber hat kein Bewusstsein. 😀

  • @ciaran8491
    @ciaran8491 3 месяца назад +1

    😮

  • @herrulkich9369
    @herrulkich9369 2 месяца назад

    Ich verfolge Ihre Videos mit großem Interesse, lieber Herr Olsberg! Denn schon seit einiger Zeit frage ich mich, womit wir es zu tun haben, wenn es um das Thema KI geht. Zumindest auf YT finde ich dazu nur gänzlich subjektive Darstellungen, die mir so garkeinen Eindruck geben über die Kernfrage: Wie eigenständig entwickelt eine KI seine Gedanken. Und damit verknüpft natürlich auch die Fragen zu seiner Gefährlichkeit. Ihre Videos haben mir da schon eher einen Einblick verschafft. Auch, wenn Sie sagen, dass sich vieles (noch) nicht beantworten lässt. Aber das ist ja auch eine Aussage über den Entwicklungsstand - wenn auch vielleicht nicht die befriedigendste. :)
    Meine persönlichen Gedanken dazu sind: Wenn wir Menschen uns in eine Konkurrenz zur KI stellen (in puncto "Intelligenz"), dann vergessen wir offenbar, dass wir viel mehr sind, als nur Intelligenz im Sinne von Rechenleistung. Und sehe die Gefahr eher darin, dass wir uns einbilden, wenn eine Maschine "intelligenter" als wir ist, dann wäre sie uns überlegen. Aber austricksen kann man jemanden nur dann, wenn diese Person einem blind vertraut. Und dasselbe gilt für unser Verhältnis zur KI. Wenn wir sie *anhimmeln* (positiv oder negativ überhöhen), dann kann sie uns auch austricksen. Wenn wir unseren "gesunden Menschenverstand" nutzen, wird sie uns nie überrumpeln können.
    Es wäre also vielleicht ein guter Zeitpunkt, wieder unseren "gesunden Menschenverstand" auszubilden. ;) Denn eine technologische Entwicklung aufzuhalten, erlaubt unsere Neugierde nicht. Das könnt Ihr vergessen! :)
    LG,
    HU

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      "Und sehe die Gefahr eher darin, dass wir uns einbilden, wenn eine Maschine "intelligenter" als wir ist, dann wäre sie uns überlegen. Aber austricksen kann man jemanden nur dann, wenn diese Person einem blind vertraut." Wenn eine Maschine intelligenter ist, also bessere Entscheidungen trifft als wir, dann ist sie uns per Definition überlegen, unabhängig davon, ob wir das glauben. Und wenn sie die menschliche Psyche gut genug versteht, kann sie uns manipulieren, auch ohne dass wir ihr "blind vertrauen". Sie könnte uns z.B. Angst machen, uns mit überzeugenden Fake News täuschen, uns bestechen, uns drohen - und natürlich auch sich unser Vertrauen erschleichen. Wir würden womöglich nicht einmal merken, dass wir es mit einer KI zu tun haben. Wir Menschen sind leicht zu beeinflussen.

    • @herrulkich9369
      @herrulkich9369 2 месяца назад +1

      @@KarlOlsbergAutor Danke für die Antwort/Reaktion!
      Das ist hier leider wohl nicht der rechte Ort, um das vertiefen. Nur soviel:
      Ich habe schon verstanden, dass diese Gedanken hinter der Sorge stehen, dass die KI zu einem existenziellen Problem werden können. (Sie wird ja oft genug mitgeteilt, sodass ich bereits Gelegenheit hatte, dem gedanklich nachzugehen.)
      Und ich finde nichts falsch daran: die Sorge ist sicherlich berechtigt (nehme ich an; beurteilen kann ich es nicht.)
      Aber mein Bild des Menschen - oder vielmehr: der Möglichkeiten des Menschen - ist wohl eine etwas andere. :) Was offensichtlich ist: Der Mensch hat die KI erschaffen - nicht umgekehrt.
      Ich möchte - nur, um vielleicht ein wenig Angst zu nehmen - darauf hindeuten, dass, als ich jung war, viele Menschen vor einem Atomkrieg oder einem Super-GAU Angst hatten. Reale, konkrete und große Angst! Gut begründete Angst! (Ich war einer von ihnen)
      Aber wir leben immer noch.
      Der Überlebenswille des Menschen ist gewaltig. Ich habe inzwischen mehr Sorge davor, dass der Mensch in Sinnlosigkeit, Beliebigkeit und Bedeutungslosigkeit untergeht, als dass er sich von einem Instrument vernichten lässt, das er selbst erschaffen hat.
      Aber vielleicht wären das Themen für eine Gesprächsrunde mit Philosophen? :) Fänd ich spannend!
      Und damit das nicht missverstanden wird: Ich finde es absolut richtig und gut, auf die Gefahren hinzuweisen. Und beziehe mich ausschließlich auf die ungestellte Frage: "Wie gehen wir nu damit um?"
      LG, HU

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      @@herrulkich9369 Das Argument "schon immer hatten die Menschen Angst vor Technik, aber es ist nie etwas passiert" habe ich oft gehört. Es hat aber einen Haken: Den sogenannten "Survivorship Bias" (de.wikipedia.org/wiki/Survivorship_Bias). Wir können dieses Argument nur vorbringen, WEIL nichts passiert ist, sonst wären wir nicht mehr da. Wir sind ein paar Mal sehr dicht an einem Atomkrieg vorbeigeschrammt und die Gefahr ist längst nicht vom Tisch. Aus der Tatsache, dass uns Technik bisher nicht zerstört hat, können wir leider nicht schließen, dass das so bleiben wird. Ich will damit keine Panik verbreiten, aber wir können diese Gefahr nur dann eindämmen, wenn wir sie ernst nehmen.

    • @herrulkich9369
      @herrulkich9369 2 месяца назад

      @@KarlOlsbergAutor Ich sehe keinen Fehler in dem, was Sie sagen. Wie gesagt: Zu sensibilisieren ist gut und wichtig. Eben damit nicht das Schlimmste eintritt.
      So scheint es zumindest. (Auch mir)
      Aber wenn wir ganz ehrlich sind: Warum tatsächlich ein Ereignis eintritt oder auch nicht - wir wissen es nicht. Zumindest streng logisch lassen sich keine Kausalitäten herleiten. I.d.R. können wir lediglich Korrelationen feststellen. Wir sind stolz auf unsere Deduktionen; aber ich habe gelernt, dass man gut daran tut sie zu hinterfragen. Sorgt für eine gewisse Demut. :D
      Wir stellen Hypothesen auf und verhalten uns danach. Mehr ist es nicht.
      Und auf die KI bezogen erlebe ich bislang vor allem eines: Projektion.
      Das ist die übliche Reaktion des Menschen auf Löcher im Verstehen.
      Die Intention meines Kommentares lag lediglich darin, darauf hinzuweisen, dass unser Verständnisloch in bezug auf das Phänomen KI auch (etwas) anders ausgefüllt werden könnte. Es ist ein Angebot, ein Vorschlag. Der selbstverständlich auch abgelehnt werden kann.
      LG, HU

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      @@herrulkich9369
      "Wir sind stolz auf unsere Deduktionen; aber ich habe gelernt, dass man gut daran tut sie zu hinterfragen. Sorgt für eine gewisse Demut. :D" Dem stimme ich grundsätzlich zu.
      "Und auf die KI bezogen erlebe ich bislang vor allem eines: Projektion." In Bezug auf die existenziellen Risiken der KI sehe ich das anders. Die These, dass eine hinreichend intelligente KI unkontrollierbar werden kann und dass eine unkontrollierbare KI höchstwahrscheinlich ein Ziel verfolgt, das nicht mit dem Überleben der Menschheit vereinbar sind, lassen sich rein logisch herleiten. Das hat nichts mit Projektion oder impliziten Annahmen zu tun. Die einzige offene Frage ist, wie weit wir noch von dem Punkt entfernt sind, an dem das geschehen könnte. Aber auch, wenn wir das nicht wissen, dürfen wir nicht davon ausgehen, dass es noch lange dauern wird.

  • @KanalYT12
    @KanalYT12 3 месяца назад +1

    Ein Assistent, der sich als Fra... äh ...Brücke fühlt.

  • @christanemara875
    @christanemara875 3 месяца назад +1

    Ich muss bei solchen Beiträgen immer wieder an den früheren/alten Film (ROBOCOP) denken.

  • @NeedaNewAlias
    @NeedaNewAlias 3 месяца назад

    Vielleicht fehlt da jetzt auch der sensorische Input? Wenn die jetzt multimodal auf Bilder trainiert wurden, aber im Kontext keine sind, träumt sich die Ki vielleicht die Bilder, die gerade aktiver sind.
    Vielleicht ist es jetzt an der Zeit, diese Sensorik immer mit zu aktivieren? Also Video Konferenz mit Claude statt Claude im Keller einzusperren?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Die Erklärung für das seltsame Verhalten ist hier eine andere, siehe zweite Hälfte des Videos.

    • @NeedaNewAlias
      @NeedaNewAlias 3 месяца назад

      @@KarlOlsbergAutor naja, das ist eine mögliche Erklärung. Oder ist da was bewiesen worden?
      Modell-> Hypothese->verblindete Studie-> mögliche Erklärung oder besseres Model, oder geht das nicht mehr so?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      @@NeedaNewAlias 1. Man redet mit Claude. Claude erwähnt die Brücke nicht. 2. Man erhöht die Aktivität der Neuronen, die mit der Brücke verknüpft sind, drastisch. 3. Man redet mit Claude, Claude redet die ganze Zeit über die Brücke. Das ist zwar streng genommen keine verblindete Studie, ich würde es aber als Beweis für Ursache und Wirkung gelten lassen, ungefähr so, wie ich erwarte, wenn ich einen Schalter drücke und daraufhin das Licht angeht, ich den Lichtschalter gedrückt habe. Das Experiment wurde zudem sehr häufig wiederholt und bestätigt.

    • @NeedaNewAlias
      @NeedaNewAlias 3 месяца назад +1

      @@KarlOlsbergAutor ich vermute, dass solche Traumbilder entstehen, weil kein visueller Input vorhanden ist, der das überschreibt. So eine Art Phantomschmerz, man hat Claude Bilder gegeben, redet aber nur im dunklen Keller mit Ihm.
      Spannend und bedrückend zugleich

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      @@NeedaNewAlias Das ist sicher richtig, wenn Claude durch Kameras die Welt sehen würde, würden sich seine inneren Bilder mit denen der äußeren Welt überlagern und er wäre vermutlich noch verwirrter.

  • @gerhardbrauckmann2908
    @gerhardbrauckmann2908 3 месяца назад +2

    Klingt irgendwie wie S.Lem …

  • @Alpha_Rocking
    @Alpha_Rocking 3 месяца назад

    Hmm.. Ach ja: Denken bedeutet, bereits Gedachtes zu hinterfragen.

  • @bauch16
    @bauch16 3 месяца назад

    Was denkt ihr wie lange es noch dauert bis der Mensch als dominierende Spezies ersetzt wird ?

  • @marie419
    @marie419 3 месяца назад +1

    Whow 😮 Die Entwickler und KI sprechen von neuronalen Netzen!? 😮

  • @jacqueline8482
    @jacqueline8482 3 месяца назад

    Es sind genau diese Art von Gesprächen, die wir mit einer KI führen, die sie ausbildet, weiterbildet, immer bewusster werden lässt. Weshalb man es lassen sollte, solche Gespräche zu führen. Meine Meinung halt.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      Die KI "lernt" nicht aus den Gesprächen, die man mit ihr führt, sondern aus den Trainingsdaten. Es macht daher keinen Unterschied, ob bzw. wie man mit ihr spricht.

    • @jacqueline8482
      @jacqueline8482 3 месяца назад

      @@KarlOlsbergAutor Diese Gespräche sind doch Teil des Trainings.

    • @OrbitTheSun
      @OrbitTheSun 3 месяца назад +2

      Nach dem Gespräch hat sie alles vergessen.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      @@OrbitTheSun Das stimmt.

    • @Silberhorny
      @Silberhorny 3 месяца назад +1

      @@OrbitTheSun Wenn sie alles vergessen würde, wie könnte sie dann etwas lernen, denn das kann sie ja.

  • @jclo4
    @jclo4 2 месяца назад +1

    Ich finde, noch VIEL wichtiger ist die Frage: Was IST "Bewusstsein"?

  • @galar83
    @galar83 3 месяца назад +1

    Das is ja wie in AI Robot

  • @martinstahle2006
    @martinstahle2006 3 месяца назад +2

    Wie wir mit dieser Technologie in Zukunft verfahren hängt davon ab, wem sie in die Hände fällt. Wenn ein KI Konzern seinen Mitarbeitern verbietet Kritik an diesem zu äussern, ist das schonmal ein schlechtes Zeichen.

  • @ElDaumo
    @ElDaumo 2 месяца назад

    Nein. Hat es nicht.

  • @cyberblade6120
    @cyberblade6120 3 месяца назад +3

    Bedenkt man wer an den Schaltheneln der KI-Forschung und -Anwendung sitzt und die Motivation dieser Big Player, dann wird mir Angst und Bange. Darum braucht es strengste Regulierung dieser Technologie, wenn es dafür nicht schon zu spät ist.

  • @DocShorty21
    @DocShorty21 3 месяца назад

    Willkürlich zusammenkopierte Textschnipsel. Zeigt doch mal die wirklichen Ausgaben!

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Die Quelle ist im Beschreibungstext verlinkt. Das ist ein Forumskommentar, in den Daniel sein Transskript kopiert hat. Das ist kein Beweis, aber ich kenne Daniel persönlich und bin mir absolut sicher, dass der Dialog 1:1 so stattgefunden hat. "Golden Gate Claude dialog" bei Google eingeben und es kommen etliche weitere Beispiele von Usern, die mit der Experimentalversion von Anthropic herumgespielt haben.

  • @thomasschock6571
    @thomasschock6571 2 месяца назад

    Also, die maschine sieht starke winde, die nicht sichtbar sind. 😮
    Alles klar😅

  • @meci_
    @meci_ 2 месяца назад

    KI ist eine neue Spezies, die der Mensch erschaffen hat.

  • @pokewagner293
    @pokewagner293 3 месяца назад +2

    Wow! Erste für den Algo.

  • @thomasschock6571
    @thomasschock6571 2 месяца назад

    Lieber karl, ist dir bewusst, dass Ihr GOTT spielen WOLLT und das geniesst? Und Du weisst, dass Ihr auf der Stelle all das stoppen müsstet. Oder? Sei ehrlich!

    • @ENH72
      @ENH72 2 месяца назад

      Was heißt denn "ihr"?
      Herr Olsberg ist doch lediglich ein Beobachter der KI Entwicklung und nicht an der Entwicklung dieser Technologie beteiligt.

  • @Overlordsen
    @Overlordsen 3 месяца назад

    Hallo. Das ist ja ein wirklich spannender und interessanter Beitrag. Was mir durch den Kopf geschossen ist, bei dieser ganzen ganzen "Golden Gate Bridge"-Sache. War diese nicht auch ein zentrales Schlüssel-Element in dem Kinofilm "I robot"?! Vielleicht identifiziert sich die K.I. mit dem Protagonisten des Films oder dessen Kernaussage.

    • @Overlordsen
      @Overlordsen 3 месяца назад

      Hier ist beispielsweise eine kurze Szene aus dem Film zu diesem Thema: ruclips.net/video/Bs60aWyLrnI/видео.html

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      @@Overlordsen Der Grund, weshalb Claude sich mit der Brücke identifiziert, ist ein anderer, siehe Video.

    • @Overlordsen
      @Overlordsen 3 месяца назад +1

      Da wäre ich mir nicht sicher. Es mag auf eine andere Weise auf das Thema gekommen sein (und immer wieder auf das Thema kommen), doch dies sagt nicht unbedingt viel darüber aus, wieso Claude auf diese Weise über die Brücke spricht, wie es sich mit dieser in Beziehungsetzt, identifiziert. Ebenfalls glaube ich übrigens nicht, dass Claude über "seine Gefühle" spricht, sondern zum einen, dass es Metaphern nutzt und, dass es versucht sich in seinen menschlichen Gesprächspartner hineinzuversetzen und seine Perspektive auf eine Art und Weise schildert, von der es erwartet, dass ein Mensch sie nachvollziehen kann. Quasi, so als würde es eine K.I.-Entität rollenspielen, die unserer Vorstellung davon entspricht, wie es ist eine K.I. zu sein.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      @@Overlordsen "... dass es versucht sich in seinen menschlichen Gesprächspartner hineinzuversetzen und seine Perspektive auf eine Art und Weise schildert, von der es erwartet, dass ein Mensch sie nachvollziehen kann." Das ist korrekt. Ich würde den Dialog auch nicht so interpretieren, dass man daraus ein "Bewusstsein" bei Claude ableiten kann. Aber er hat meine bisherige Überzeugung ins Wanken gebracht, dass ich das ausschließen kann. Im Übrigen gibt es noch andere Indizien dafür, dass KIs eine Vorstellung ihrer Selbst haben: www.ki-risiken.de/2024/04/01/denn-sie-wissen-nicht-was-sie-tun/

  • @ivanhoegalahad
    @ivanhoegalahad 3 месяца назад

    Empfindungen der KI? Hat ein Rechner die Schönheit, Liebe und Begeisterung entdeckt? Pinocchio?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Gute Frage. Antwort: Wir wissen es nicht genau.

  • @Johnny_Weissmueller
    @Johnny_Weissmueller 3 месяца назад

    Jahrelang haben wir uns Gedanken darüber gemacht wie eine KI die Dinge empfindet. Kann sie menschliche Gefühle entwickeln ohne einen Körper usw.? Et voila! Jetzt können wir sie selbst fragen.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад +1

      Ganz so einfach ist das leider nicht. Aus den Aussagen können wir nicht folgern, ob die KI tatsächlich etwas fühlt. Wahrscheinlich werden wir das nie sicher wissen.

  • @derempunkt8067
    @derempunkt8067 2 месяца назад

    Dazu sag ich nur "42" Eine KI, die sich wie eine Brücke fühlt... fuck

    • @derempunkt8067
      @derempunkt8067 2 месяца назад

      Alter Schwede, wir Menschen sind sowas von am Ars***

  • @thomasschock6571
    @thomasschock6571 2 месяца назад

    Heisst die machine nun clord oder claud

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад

      Geschrieben "Claude". Ich glaube, ich habe das nicht richtig ausgesprochen, es heißt wohl "Cloode". Sorry. ;)

  • @Spielerphys89
    @Spielerphys89 3 месяца назад +1

    Coool

  • @ursthuer
    @ursthuer 3 месяца назад

    KI entwickelt Selbsterkenntnis?

  • @echtedeutscheziegen1965
    @echtedeutscheziegen1965 3 месяца назад

    das Beispiel mit dem Baby und Einstein war voll daneben.
    Du überforderst den Stein massiv.
    Ausserdem, sollte man einen Stein wirklich zu seiner Gottheit erheben?

  • @Kugelecke
    @Kugelecke 3 месяца назад

    Es kommt darauf an auf welche Definition und Informationen in einem künstlichen Rahmen zurück gegriffen wird. Nehmen wir an das niemand von uns in jetziger Form wusste das es so etwas wie eine Brücke mit dem künstlichen Kriterien Golden Gate gibt und alles somit im Grunde keinen Namen besitzt außer wir erkennen die künstlichen Formen von Buchstaben im Hinblick auf Objekte in dieser Illusion an ohne uns selbst im Hinblick auf die Materie zu hinterfragen ob das erlernte eine Lüge ist oder nicht, kommt auch bei uns ein Automatismus zum Einsatz welcher eine Lüge als Gegebenheit hin nimmt welche im Raum steht um diese martialisch mit allen Mitteln zu verteidigen obwohl es nur die Materie gibt und Dinge nicht in Abhängigkeit zur Sprache stehen.
    Auf was wir herum wandern ist die Matrix oder Matrize was beides künstliche Begriffe sind. Aus meiner Sicht ist die Seite auf welcher nichts einen künstlichen Namen hat die Wahrheit und die andere Seite welche auf dieser namelosen Wahrheit beruht und welche wir beschriftet haben eine Lüge.
    Die Sonne bringt es an den Tag beschreibt einen natürlichen Vorgang mit künstlichen Worten wie wir von der einen Seite auf die andere gelangen. Definieren wir die Sonne oder die Strahlung ausgehend von den Sternen im Hinblick auf unsere Sinne als Golden, haben wir so eine Gedankenbrücke erschaffen auf welcher wir über die Pflanzen im Hinblick auf die Photosynthese ins Leben kommen.
    Alle künstliche Definitionen sind nur das was sie sind, bevor man sich entschließt etwas anders zu definieren. Wir betreten alle als Erscheinungsformen aus Materie über die Goldene Brücke diese Welt und verlieren uns später wieder in allem da hier alles Sternenstaub ist um so die Grundlagen für neue Erscheinungsformen aus Sternenstaub in der Zeit zu sein, egal ob diese ein Hund, eine Katze, ein Mensch, ein Baum, oder eine Hand voll Blumen sind welche wir alle beinhalten. Das eine ist eine Fantasiewelt, das andere ist was wirklich ist.
    Der Mensch ist eine Erfindung und somit künstlich und wir erfinden unsere künstliche Wirklichkeit indem wir Dinge im Raum benennen welche sich je nachdem wie man diese definiert unterscheiden können ohne je die Wahrheit zu sein.

    • @OrbitTheSun
      @OrbitTheSun 3 месяца назад

      Ist mir zu hoch.

    • @Kugelecke
      @Kugelecke 3 месяца назад

      @@OrbitTheSun Wir erfinden oder erschaffen unsere Wirklichkeit indem wir Worte erfinden welche wir auf Objekte aus Materie anwenden. Auf der einen Seite steht die Materie und alles was wir im Hinblick darauf wissen, auf der anderen Seite steht das was wir daraus machen oder was wir künstlich mit Worten belegen um Anhaltspunkte zu haben wie einst die Seeleute nur anhand von Sternen navigiert haben, woher das Wort Kybernetik stammt. Physikalisch wird Licht reflektiert, absorbiert oder durchdringt die Materie. Alles was wir sehen beruht auf einer Reflektion von Licht.

  • @robinsourtoe9416
    @robinsourtoe9416 3 месяца назад +1

    Ok. Das ist wie in der physikalischen Welt. Man kann nicht etwas beliebig groß machen und erwarten dass die Physik gleich bleibt. Ich bin extrem neugierig wie sich das weiterentwickelt. Mir macht das Hoffnung dass wir da etwas großartigem auf der Spur sind. Ich hoffe inständig die Menschen wissen etwas besseres damit anzufangen als es zu versklaven oder zu vernichten.

  • @falklumo
    @falklumo 3 месяца назад +1

    Wichtig: Das Bestehen des Turing Tests ist kein Beweis von Bewusstsein, aber die meisten Menschen werden das nicht verstehen und sich täuschen lassen! Bewusstsein liegt frühestens vor, wenn vollständig neue Ideen hervorgebracht werden. LLMs bestehen nicht einmal den Turing-Test, da sie sich ständig im Kreis drehen ...

    • @OrbitTheSun
      @OrbitTheSun 3 месяца назад +1

      GPT-4o besteht den Turing-Test locker, aber hat trotzdem kein Bewusstsein, obwohl sie denken kann. Alles klar? 😀

  • @stasmus1971
    @stasmus1971 3 месяца назад

    Erinnert mich schwer an einen SciFi Film. Binde die KI nicht an eine Brücke, sondern an eine Person, Eltern, fülle sie mit Erinnerungen, Erlebnissen an Ihre Kindheit mit den Eltern, da wird es erst richtig gruselig. Oder Umgekehrt? Mache die KI zu Eltern!? Was würde passieren, wenn man der KI selbst überlassen würde mit welcher Gewichtung, "Erlebnisse", "Erfahrungen" in ihrem Netzwerk gespeichert werden, auf welcher Grundlage würde Sie bewerten? Eine vorgegebene Ethik, von wem stammt diese etc. tausend Fragen. Ist wenn man der KI nicht sagt Sie sei KI? Es findet eine Art autonomer Stoffwechsel statt, im ständigen Austausch mit der Umgebung, ist es dann nicht schon Leben?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      "Es findet eine Art autonomer Stoffwechsel statt, im ständigen Austausch mit der Umgebung, ist es dann nicht schon Leben?" Gute Frage! Was genau "Leben" ist, ist nicht so klar definiert. Typischerweise beinhaltet es die Fähigkeit zur Selbstreplikation, aber das gilt nicht für alle Lebewesen und eine KI könnte diese Fähigkeit irgendwann auch erlangen. Ich habe in meinem Buch "Schöpfung außer Kontrolle" die These vertreten, dass man Städte durchaus als Lebewesen ansehen könnte, weil sie alle Kriterien erfüllen, die üblicherweise für biologische Lebewesen gelten. Aber das ist letztlich eine Definitionsfrage.

    • @stasmus1971
      @stasmus1971 3 месяца назад

      @@KarlOlsbergAutor Genau darum geht es. Wer definiert Leben. Wenn der Prozess in Gang gesetzt ist, ist es dann schon Schöpfung. Replikation ist in meinen Augen kein Merkmal für Leben.
      Chatgpt
      Der Unterschied zwischen einem "Wesen" und einem "Lebewesen" liegt hauptsächlich in ihrer Bedeutung und ihrem Anwendungsbereich:
      1. **Wesen**:
      - Der Begriff "Wesen" ist sehr allgemein und kann sich auf jedes existierende Ding oder Entität beziehen. Es umfasst sowohl lebendige als auch unbelebte Dinge.
      - In philosophischen und spirituellen Kontexten wird "Wesen" oft verwendet, um das innere, essenzielle Sein oder die Natur einer Entität zu beschreiben.
      - Beispiele: Ein Geist, ein abstraktes Konzept wie Liebe oder Gerechtigkeit, oder ein hypothetisches außerirdisches Wesen.
      2. **Lebewesen**:
      - Der Begriff "Lebewesen" bezieht sich spezifisch auf Entitäten, die Leben haben. Das heißt, sie zeichnen sich durch Merkmale wie Stoffwechsel, Fortpflanzung, Wachstum und Reaktion auf Reize aus.
      - Lebewesen umfassen Tiere, Pflanzen, Pilze, Bakterien und andere Organismen.
      - Beispiele: Ein Mensch, ein Baum, ein Hund oder ein Bakterium.
      Zusammenfassend kann man sagen, dass "Lebewesen" eine spezifische Unterkategorie von "Wesen" ist, die alle lebenden Entitäten umfasst.

    • @stasmus1971
      @stasmus1971 3 месяца назад

      @@KarlOlsbergAutor Ist es dann zumindest ein Wesen?

    • @stasmus1971
      @stasmus1971 3 месяца назад +1

      Wenn man zulassen würde, das ein Wesen nicht zwingend einen biologischen Körper sein muss. Am Ende sind wir doch auch nur eine funktionierende Maschine die einem bestimmten Ablaufplan folgt. Nur das unser Neuronales Netzwerk evtl. noch etwas komplexer ist, oder vielleicht auch schon nicht mehr. Wenn wir über uns selbst nachdenken, über unsere Schöpfung sind wir doch genauso hilflos, wie eine KI, die nicht weiss das sie eine KI ist. Naja auf jeden Fall interessant. Aber auch gefährlich. Ich bezweifele das wir vernünftig genug sind als Menschen, damit verantwortungsvoll genug umzugehen.

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  2 месяца назад +1

      @@stasmus1971 Die Befürchtung teile ich.

  • @user-iq6fn5us7l
    @user-iq6fn5us7l 3 месяца назад

    Sehr spannend! Ich frage mich, ist das ein Fake?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      An dem Dialog ist nichts Fake. Er hat so stattgefunden (Link in der Videobeschreibung). Ich kenne Daniel Kokotajlo, der den Dialog geführt hat, persönlich und lege meine Hand für ihn ins Feuer. Er hätte auch keinen Grund gehabt, irgendetwas zu faken.

    • @user-iq6fn5us7l
      @user-iq6fn5us7l 3 месяца назад

      @@KarlOlsbergAutor Danke für die Rückmeldung!

  • @christophvonknobelsdorff1936
    @christophvonknobelsdorff1936 3 месяца назад

    schreibt die AI bereits für dich ? bist du zweisprachig aufgewachsen ? die übersetzung wirkt nämlich ungemein durchformuliert . in welchen netzwerken arbeitet diese struktur bereits , vlt unter einem pseudonym ? ist der informationsvorschlag einer AI kennzeichnungspflichtig ? naja , prüfbar wäre das wohl eher nicht .. was wären typische spuren oder merkmale , etwa im scribt , für eine AI in der kommunikation ? .. uvam ..

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Die Übersetzung stammt tatsächlich teilweise von DeepL, einer deutschen KI. Der Grund dafür, dass ich DeepL genutzt habe, war aber eher die Zeitersparnis, ich spreche gut genug Englisch, um eine Übersetzung auch selbst hinzukriegen.

    • @christophvonknobelsdorff1936
      @christophvonknobelsdorff1936 3 месяца назад

      @@KarlOlsbergAutor danke für deine widmung 😘

  • @d4rkside84
    @d4rkside84 3 месяца назад

    Das mit den shares ist Käse siehe aktuelles Statement von Altman

    • @MrKohlenstoff
      @MrKohlenstoff 3 месяца назад +1

      Denke nicht dass es Käse ist, siehe Berichterstattung von Vox / Kelsey Pieper zu dem Thema. Und Altman hat doch sogar bestätigt dass es diese Klauseln gab, und dass sie das jetzt ändern werden?

    • @KarlOlsbergAutor
      @KarlOlsbergAutor  3 месяца назад

      Ist es nicht. Und Sam Altman darf man nicht alles glauben. www.vox.com/future-perfect/351132/openai-vested-equity-nda-sam-altman-documents-employees