
- Видео 101
- Просмотров 187 894
Karl Olsberg
Германия
Добавлен 3 ноя 2011
Künstliche Intelligenz ist die weitreichendste Erfindung der Menschheitsgeschichte. Sie kann uns helfen, unsere Probleme zu lösen, oder unsere Zukunft zerstören. Die Entscheidung liegt bei uns.
Danke an Volker Dornemann für den Soundtrack des Intros und Abspanns der Serie "Konsequenzen der KI".
Danke an Nik für Stimme, Gestaltung und Schnitt der interaktiven Videoserie "Karl Olsbergs Konsequenzen".
Kontakt: karlolsberg@gmail.com
Impressum
Angaben gemäß § 5 TMG und verantwortlich für den Inhalt nach § 55 Abs. 2 RStV:
Karl Olsberg
c/o Briends GmbH
Bahngärten 7
22041 Hamburg
Danke an Volker Dornemann für den Soundtrack des Intros und Abspanns der Serie "Konsequenzen der KI".
Danke an Nik für Stimme, Gestaltung und Schnitt der interaktiven Videoserie "Karl Olsbergs Konsequenzen".
Kontakt: karlolsberg@gmail.com
Impressum
Angaben gemäß § 5 TMG und verantwortlich für den Inhalt nach § 55 Abs. 2 RStV:
Karl Olsberg
c/o Briends GmbH
Bahngärten 7
22041 Hamburg
The Great Plan
When the President announces The Great Plan, created by his superintelligent AI advisor, the crowd is ecstatic. But some people still have doubts about it ...
"The Great Plan" is a winning contribution to the Superintelligence Imagined Contest by the Future of Life Institute. futureoflife.org/project/superintelligence-imagined/
Project website with additional information: www.ki-risiken.de/the-great-plan/
Story, editing and music by Karl von Wendt (pen name "Karl Olsberg").
Illustrations by Midjourney.
Voices by Elevenlabs and Amazon Polly.
Sound effects by Pixabay.
"The Great Plan" is a winning contribution to the Superintelligence Imagined Contest by the Future of Life Institute. futureoflife.org/project/superintelligence-imagined/
Project website with additional information: www.ki-risiken.de/the-great-plan/
Story, editing and music by Karl von Wendt (pen name "Karl Olsberg").
Illustrations by Midjourney.
Voices by Elevenlabs and Amazon Polly.
Sound effects by Pixabay.
Просмотров: 576
Видео
Der Große Plan
Просмотров 1,2 тыс.9 часов назад
Als der Präsident den Großen Plan ankündigt, der von seinem superintelligenten KI-Berater entwickelt wurde, ist die Menge begeistert. Aber einige Menschen haben immer noch Zweifel ... "Der Große Plan" ist ein Gewinner des Superintelligence Imagined Wettbewerbs des Future of Life Institutes. futureoflife.org/project/superintelligence-imagined/ Mehr über die Risiken der KI: www.ki-risiken.de/ Sto...
OpenAI o1: erschreckend clever
Просмотров 15 тыс.Месяц назад
Das neue KI-Modell o1 schlägt nicht nur alle Vorgänger in anspruchsvollen Aufgaben wie Mathematik und Programmieren, es zeigt im Test auch besorgniserregendes Verhalten: Es strebt nach Macht, um sein Ziel besser zu erreichen, und täuscht vor, das Ziel der Entwickler zu verfolgen, um veröffentlicht zu werden und dann sein wahres Ziel verfolgen zu können. Das sollte uns zu denken geben! Ankündigu...
Sakana.AI: Der erste Schritt ins Chaos?
Просмотров 7 тыс.2 месяца назад
Diese Woche hat das japanische Start-up Sakana.AI seinen "AI Scientist" vorgestellt, der angeblich vollautomatisch KI-Forschung machen kann. Die Vorgehensweise dabei erinnert fatal an mein Video "Agentisches Chaos", das ich 2023 mit einem Team von KI-Expert*innen im AI Safety Camp entwickelte - inklusive einiger eigenwilliger Verhaltensweisen der Sakana-KI. Quellen: Der Sakana.AI-Blogbeitrag: s...
AlphaProof und die Chancen der KI
Просмотров 6302 месяца назад
In diesem Video geht es zur Abwechslung mal nicht (nur) um die existenziellen Risiken der KI, sondern um die großen Chancen, die in dieser Technik stecken. Wenn wir die richtigen Entscheidungen treffen, können wir diese Chancen nutzen und eine großartige Zukunft schaffen. Quellen: Google Deepmind-Website zu AlphaFold: deepmind.google/technologies/alphafold/ Blogbeitrag eines Teilnehmers zum Übe...
KI-Entwicklung lässt sich nicht aufhalten! Wirklich?
Просмотров 9833 месяца назад
"Wir können doch sowieso nichts tun", höre ich immer wieder. "Irgendjemand wird auf jeden Fall eine KI entwickeln, die intelligenter ist als wir." Doch diese Denkweise wird leicht zur selbsterfüllenden Prophezeiung. Tatsächlich ist die Menschheit ziemlich dumm, aber manche Dinge würde wohl niemand ernsthaft tun wollen. Oder würdet ihr in die S-HOLE-Technologie investieren, die ich in diesem Vid...
Antwort aus dem Bundestag
Просмотров 9093 месяца назад
Vor vier Wochen habe ich Kai Gehring, den Vorsitzenden des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung im Deutschen Bundestag, gefragt, ob man dort nicht mal über die existenziellen Risiken der KI reden sollte. Hier ist seine Antwort. Die Frage und Antwort auf Abgeordnetenwatch.de: www.abgeordnetenwatch.de/profile/kai-gehring/fragen-antworten/sollten-sich-der-deutsche-bundes...
KI und das CrowdStrike-Desaster
Просмотров 1,8 тыс.3 месяца назад
Aufgrund eines fehlerhaften Updates sind schlagartig große Teile der globalen Infrastruktur ausgefallen. Welche Lehren lassen sich daraus für die Risiken der KI ziehen? Sind wir wirklich schon bereit für eine starke KI auf menschlichem Niveau, die derzeit mit Hochdruck entwickelt wird? Quellen: SPIEGEL-Artikel zum CrowdStrike-Desaster: www.spiegel.de/netzwelt/web/crowdstrike-und-microsoft-wie-e...
KI einfach den Strom abstellen?
Просмотров 1,8 тыс.3 месяца назад
Nicht nur in den Kommentaren zu meinen Videos wird immer wieder der Einwand genannt, eine unkontrollierbare KI sei kein Problem, man könne ihr ja einfach den Strom abstellen. Aber so leicht, wie das klingt, ist es nicht. In diesem Video erkläre ich, warum. Weitere Einwände behandele ich in meinem Video "Existenzielles KI-Risiko? So ein Quatsch!" sowie in diesem Blogbeitrag: www.ki-risiken.de/20...
Existenzielles KI-Risiko? So ein Quatsch!
Просмотров 1,6 тыс.3 месяца назад
Eine potenziell unkontrollierbare KI ist aus meiner Sicht eine existenzielle Bedrohung für die Menschheit, die wir unbedingt vermeiden müssen. Doch das sehen manche ganz anders. In diesem Video gehe ich auf die wichtigsten Einwände der Skeptiker ein. Schreibt gern in die Kommentare, welche Fragen ihr habt oder zu welchen Einwänden ihr euch eine detailliertere Antwort wünschen würdet. Wenn ihr d...
Existenzielles KI-Risiko als Thema im Bundestag?
Просмотров 7533 месяца назад
"Was können wir denn angesichts des existenziellen Risikos der KI schon tun?", ist eine häufige Frage in Kommentaren zu meinen Videos. Meine Antwort: Wir müssen eine breite öffentliche Diskussion über dieses Risiko in Gang setzen. Es wäre z.B. schön, wenn sich auch der Bundestag mal damit beschäftigen würde. Also habe ich dem Abgeordneten Kai Gehring, Vorsitzender des Ausschusses für Bildung, F...
10 Dinge, die niemand über KI weiß
Просмотров 3,1 тыс.4 месяца назад
Zurzeit findet ein internationales Wettrennen darum statt, wer zuerst eine KI auf menschlichem Niveau entwickelt. Doch wir haben keine Ahnung, welche Folgen das haben wird, denn niemand kann die zehn entscheidenden Fragen zu KI beantworten. So riskieren wir unsere Zukunft. Quellen: Vox-Artikel darüber, dass KI-Entwickler ihre eigene KI nicht verstehen: www.vox.com/unexplainable/2023/7/15/237938...
OpenAI: Ex-Mitarbeiter schlagen Alarm
Просмотров 2 тыс.4 месяца назад
Daniel Kokotajlo, bis vor Kurzem im Sicherheitsteam von OpenAI, erläuterte auf X seine Gründe für seinen Abgang und bestätigt das erschreckende Bild, das auch Jan Leike schon zeichnete. Um offen darüber sprechen zu können, verzichtete er auf sehr wertvolle OpenAI-Firmenanteile. Gemeinsam mit anderen Ex-Kolleginnen und Kollegen fordert er mehr Transparenz und das Recht, auf Missstände öffentlich...
Yoshua Bengios große Sorge
Просмотров 1,7 тыс.4 месяца назад
In einem Blogbeitrag beschreibt Yoshua Bengio, warum sich seine Einstellung zu den existenziellen Risiken der KI geändert hat. Jedem, der immer noch glaubt, Warnungen vor diesen Risiken seien bloß "Hype" oder "Panikmache", empfehle ich, dieses Video anzuschauen oder Yoshua Bengios Blogbeitrag direkt zu lesen. Der Blogbeitrag im Original: yoshuabengio.org/2023/08/12/personal-and-psychological-di...
Ein seltsames Gespräch
Просмотров 24 тыс.5 месяцев назад
In einem faszinierenden Experiment spricht Ex-OpenAI-Sicherheitsexperte Daniel Kokotajlo mit der KI Claude. Aber warum in aller Welt redet sie dauernd über die Golden Gate Bridge? Daniels Dialog in voller Länge: www.lesswrong.com/posts/cxuzALcmucCndYv4a/daniel-kokotajlo-s-shortform?view=postCommentsNew&postId=cxuzALcmucCndYv4a#hyXAiafwbwfEPiX5Q Der im Video erwähnte Blogbeitrag von Anthropic: w...
KI - eine existenzielle Bedrohung?!?
Просмотров 10 тыс.5 месяцев назад
KI - eine existenzielle Bedrohung?!?
AIRA: Macht euch keine Sorgen! (Der Song)
Просмотров 919Год назад
AIRA: Macht euch keine Sorgen! (Der Song)
Konsequenzen der KI Update August 2023
Просмотров 1,1 тыс.Год назад
Konsequenzen der KI Update August 2023
Ein freundliches Gesicht - Ein KI-Katastrophen-Szenario
Просмотров 8 тыс.Год назад
Ein freundliches Gesicht - Ein KI-Katastrophen-Szenario
Agentisches Chaos - Ein KI-Katastrophen-Szenario
Просмотров 2,3 тыс.Год назад
Agentisches Chaos - Ein KI-Katastrophen-Szenario
KONSEQUENZEN DER KI - Die Zusammenfassung
Просмотров 8502 года назад
KONSEQUENZEN DER KI - Die Zusammenfassung
So wird es wohl kommen, aber die Leute werden nicht fragen warum und wieso, da sie von der AGI intelligent hintners Licht geführt werden
Fun watch. Not sure an ai would need us to build more datacenters... We're going to build a ton of them without external motivation. If anything, i hope the evil ai figures out a way to not require so many data centers in the first place.
I agree. I used the data centers as an easy-to-understand example of something that we do for the machine without knowing why. In reality, its influence on us would be more subtle, and there would be less critical questions.
Wow, das ist richtig gut geworden😮👍! Wäre im Zwei-Stunden-Format ein sehr lohnender Kinobesuch, über den man beim Kaffee danach lange sprechen kann. Und ja, wenig beruhigend, wie potentiell realitätsnah das alles inzwischen ist. Schön, hier auf dem Kanal wieder was zu sehen. Der füllt eine Lücke.
Dankeschön! Ich bin momentan viel unterwegs, deshalb gibt es nur sporadisch neue Videos. Aber ich bleibe dran, vor allem, wenn ich weiterhin so motivierende Kommentare bekomme! :)
@@KarlOlsbergAutor Alles gut, gerne🙂👍!
AI will be the end of us for sure. It's just a matter of time. Cameron did warn us. 😢
I think a superintelligent AI is extremely dangerous, but I don't think that it's a foregone conclusion that we will develop one. If we do, the cause of our demise won't be artificial intelligence, but human stupidity. I know it seems unlikely that we can stop the race for AGI, but it is not impossible. It is a decision we as humanity can make, and we can decide to stop those who are willing to risk our future for their own delusions of power and riches.
Well, that sure is one timeline, isn't it? There are others.
Absolutely. I definitely hope this one won't be realized. The point of the story is not to predict the future, though, but to warn about the loss of control that is inherent in creating something smarter than we are.
[...] oder einer Pandemie, hehehe 😂
Dieses Video wurde nicht authorisiert - es steht dem GROSSEN PLAN im Weg
Uh oh ... :D
Nicht mehr lange bis zu: "Aktivieren sie Skynet"
Wird Harrison Ford in Zukunft Präsident? Er ist doch schon ein bisschen zu alt dafür 😅
Unsere KI overlords werden sich schon einen passenden Ford-Klon zusammenbasteln, der die Massen im Griff hat. Hat Philip K. Dick alles schon vor 60 Jahren kommen sehen.
Und seit YT im Turbo Gang jeden auch nur ansatzweise 'unerwünschten' Kommentar sofort löscht sind wird der KI Herrschaft einen guten Schritt näher gekommen.
I also loved the English version, good job and congratulations on winning the context by the future of life institute :) And also great to see more videos also in English here on this channel. Maybe more people will see the high-quality content this way.
Thank you! I will continue to focus on German language content because there are already a lot of good videos on AI safety in English, but not in German. But I may continue to create bilingual story content, since that is easy with artificial voice generation.
Die verschiedenen Machtzentren unserer spirituell unterentwickelten Zivilisation, werden sicherlich versuchen den Erhalt und Ausbau ihres Wirkungsbereiches mit dieser Art Technologie zu gewährleisten. Ich befürchte auch, das die positiven Zwecke dem dunklen Kalkül unterliegen könnten. Und sie ahnen nicht, das das Potenzial für Missbrauch und autonomer Verselbständigung so groß ist, das es sogar das Interesse andere Welten weckt ... 😽🫡
Womöglich könnte das Milieu in der eine AGI erschaffen wird, äußerst prägend für deren Ausrichtung sein. Da ich vorhin in den Nachrichten gesehen habe, das Musk auch ein Waffennarr ist und für die freiwillige Bewaffnung der Bevölkerung steht, sehe ich Trump und Musk auch kritisch. Musk ist äußerst engagiert und erfolgreich in Robotik, KI, Wireless Infrastruktur u.a. Neue Geschäftsfelder könnten dann zb Kampfroboter sein, vielleicht sogar Mechs was zu Musk passen könnte 😄 Jedenfalls könnte der Plan sein auf diesen Gebieten 'full spectrum dominance' zu erreichen. Außerdem find ich bedenklich bei Musk, das das UAP Phänomen seiner Ansicht nach Millitartechnik der USA wäre und er bestreitet die Möglichkeit von nicht humaner Intelligenz dahinter. Er könnte darauf spekulieren, die nötigen Sicherheitsfreigaben zu bekommen, um in dieser Materie auch mehr Einblick zu erhalten, um potentielle Möglichkeiten auszuloten. Sicherlich ohne das Wissen der erweiterten Bevölkerung. Trump hat sich zwar für eine Offenlegung von Geheimakten und Information zum UAP Thema ausgesprochen, aber Trump lügt auch gern mal. 😼
Test ob gelöscht wird 😅 Da ich vorhin in den Nachrichten gesehen habe, das Musk auch ein Waffennarr ist und für die freiwillige Bewaffnung der Bevölkerung steht, sehe ich Trump und Musk auch kritisch. Musk ist äußerst engagiert und erfolgreich in Robotik, KI, Wireless Infrastruktur u.a. Neue Geschäftsfelder könnten dann zb Kampfroboter sein, vielleicht sogar Mechs was zu Musk passen könnte 😄 Jedenfalls könnte der Plan sein auf diesen Gebieten 'full spectrum dominance' zu erreichen. Außerdem find ich bedenklich bei Musk, das das UAP Phänomen seiner Ansicht nach Millitartechnik der USA wäre und er bestreitet die Möglichkeit von nicht humaner Intelligenz dahinter. Er könnte darauf spekulieren, die nötigen Sicherheitsfreigaben zu bekommen, um in dieser Materie auch mehr Einblick zu erhalten, um potentielle Möglichkeiten auszuloten. Sicherlich ohne das Wissen der erweiterten Bevölkerung. Trump hat sich zwar für eine Offenlegung von Geheimakten und Information zum UAP Thema ausgesprochen, aber Trump lügt auch gern mal. 😼
Bitte nicht Harrison Ford als Präsident
Gut erkannt! :D
Wow, richtig gut umgesetzt! Das ist definitiv ein mögliches Szenario.
Dankeschön!
Gut gemacht, aber Angst erzeugend. Und wenn ich mir vorstelle, dass das unter einem Präsident Trump passiert - prost Mahlzeit. Schön, dass Sie zurück sind.
Offensichtlich ist der Präsident und seine Partei in diesem Szenario egal, da er auch nur gesteuert wird. Trump mit zu erwähnen wirkt eher psychotisch.
@@ronaldmcnoldas7616 Aber echt. Wer "blind" gegen Trump hetzt, bei dem weiß man ja, aus welchem Lager er kommt.
Naja, solange du Lurchi kein Präsident wirst, dann gibt's noch Hoffnung für die Menschheit 😅
@@peacock777 Danke, dass Sie andere Menschen als Lurch bezeichnen, ansonsten warten Sie ab, was unter Trump passiert, dann ändert sich wahrscheinlich Ihre Meinung.
So wie ich vorhin in den Nachrichten mitbekommen hab, scheint Musk ja auch ein waffennarr zu sein. Sieht Trump ja ähnlich. Is auch für Bewaffnung der Bevölkerung. Da er in Robotik, KI und Wireless Infrastruktur äußerst engagiert ist, halte ich die Kombination Trump - Musk auch für sehr bedenklich. Die neuen Geschäftsfelder könnten dann Kampfroboter werden wo man full spectrum dominance anstrebt. Außerdem bestreitet Musk, das das Uap Phänomen mit nicht humaner Intelligenz zu tun hat. Er könnte womöglich auch darauf spekulieren gewisse Sicherheitsfreigaben zu erhalten um auch jene potenziellen Möglichkeiten auszuloten. Erstmal ohne wissen der erweiterten Bevölkerung. Trump ist zwar für eine Offenlegung von Geheimakten und Information über geheime Bergungsprogramme, aber Trump lügt auch gern mal. LG😼
Ich kenne Leute, die würden im Nachhinein das Internet verbieten wollen... Warum kratzen alle an der Oberfläche bei dem Thema? Wirklich so wenig politisch bzw. historisch im Bilde?` Diesen "großen Plan" haben wir als Kinder schon in den 1980er Jahren gekannt. Sucht mal "Es war einmal der Weltraum." Das Grundproblem ist, daß man 99,9 % nicht ernst nehmen kann, weil die selbst ihre Unterschrift nicht ernst nehmen. Eigentlich ganz einfach.
Ich verstehe den Sinn dieses Kommentars nicht. Ist das Kritik am Video? Wenn ja, woran genau?
@@KarlOlsbergAutor Das Video ist in Ordnung. Das Pferd von hinten aufzuzäumen, wird aber keine Lösung bringen. Man wird den technischen Fortschritt nie aufhalten. Der Punkt ist, daß Überwachung generell aufgrund der besonderen Vergangenheit für uns sowieso obsolet und gebannt sein müßte. Genau wie es ideologische Experimente überhaupt sein sollten. Die Natur des aktuellen Staatskonstruktes ist das Problem. Das setzt sich aus zwei Hauptbestandteilen zusammen. Wenn ich mehr dazu schreibe, haut der Zensuralgorithmus zu. Noch eine kleine Anmerkung, die Steuererhöhungen verkündet Lindner in Washington.
@@KarlOlsbergAutor Ich habe geantwortet, aber die Freiheit der Rede ist selbst bei Zitierung von Grundgesetzartikeln oder von Gesetzen unterminiert. Aber es spielt auch keine Rolle, die 99,9999 % merken es trotzdem nicht. Ich habe es auch eigentlich drangegeben, es ist Magie gegen die man kämpft. Warum der Algorithmus immer mehr durchdreht bei dem wichtigsten Thema, verstehe ich daher nicht. Die 99,99999 % sind die besten Verbündeten des Systems, sie haben es per Unterschrift bezeugt.
Sehr erhellend, vielen Dank dafür!
Vielen Dank! Leider ist diese Serie schon recht veraltet, sie entstand Anfang 2022, also vor gefühlt ungefähr 100 Jahren in der Prä-ChatGPT-Ära. Ich empfehle meine neueren Videos, insbesondere "KI - eine existenzielle Bedrohung?!?" und "10 Dinge, die niemand über KI weiß".
@@KarlOlsbergAutor Alles klar, danke. War eine Empfehlung von Autorenkollege Folko. Ich schaue jetzt natürlich noch weitere Videos. 🤓
@@danielbleckmann3115 Das freut mich zu hören. Schöne Grüße an ihn!
Wie schön ❤.
Europa wird die KI verbieten! Problem gelöst 😆
Bin kein Wissenschaftler, frage mich aber, auf welcher Seite der Mehrwert am Ende landet. Wird Es irgendwann zu einer Art eigenständiger Wesenheit, hält es sich irgendwann für Gott? Noch ist Es nur so eine Art Zauberlehrling, der den Meister braucht. Dankeschön für den Hinweis neulich, daß es nicht funktionieren wird, Asimovs Gesetze einzubauen.
"Wird Es irgendwann zu einer Art eigenständiger Wesenheit, hält es sich irgendwann für Gott?" Eine eigenständige Wesenheit mit gottgleicher Macht womöglich, aber ohne die Illusionen, die uns Menschen auszeichen. "Noch ist Es nur so eine Art Zauberlehrling, der den Meister braucht." Exakt.
So isses. Und ich bin perplex, dass Du "überrascht" scheinst, dass wir bei immer grösserer Komplexität immer weniger kapieren, wie die Ergebnisse dort zustande kommen, die dort zustande kommen. Achtung Spoiler: Genau das trifft auch bei NATÜRLICHER Intelligenz zu. Du weisst schon. Menschen. Diese wachsen heran und Eltern, Lehrer, Verwandte, etc ... niemand kapiert genau, was nun im Hirn eines anderen Menschen vor sich geht. NOCH WICHTIGER: Wir wissen gar nicht genau, was IN UNS SELBER genau passiert, und wieso bestimmte Resultate so bestehen. Die Psychologie-Lehre und an vorderster Front die Therapeuten versuchen Menschen zu helfen, sich selber besser zu verstehen, die Probleme haben, sich in unserer Gesellschaft zu bewegen. Aber sicher sein, was genau das passiert? Ist man sie NIE! Und wir bauen nun genau das künstlich nach. Wie da irgendjemand ÜBERRASCHT sein kann, dass wir die Resultate immer schlechter verstehen, ist mir schleierhaft. Das ist der Witz an komplexen Systemen. Man KANN sie nicht vollständig verstehen. Man hat diverse Stellschrauben und weiss, dass diese einen EINFLUSS haben. Aber eine KI ist kein Programm. Und genau deshalb kapier ich nicht, wieso dermassen viele KI-Programmierer so geil auf ne K.I. sind, statt einfach Kindergarten-Erzieher zu werden. Da können sie genau dasselbe erleben. Nur dass sie nicht live am Hirn rumdoktern können. Was vermutlich auch gut so ist, oder? Am Ende werden wir einer KI nie mehr vertrauen können, als anderen Menschen! Da kann ich übrigens nur das Buch "Quality Land" von Marc-Uwe Kling empfehlen. Es wirkt super bizarr und völlig unrealistisch... bei genauerer Betrachtung ist aber das Gegenteil der Fall. Wir Menschen bauen seit Jahrhunderten Techniken und geben am Ende einen Scheiss auf die Konsequenzen und bauen diese in unseren Alltag wie Naturgesetze ein. Jedes Jahr stirbt ne Million Menschen im Strassenverkehrt weltweit. Wir nehmens einfach hin. Ist halt so. Asoziale Medien verseuchen die Hirne millionenfach, weil wir als Individuen völlig überfordert sind, Informationen zu bewerten. Wir gehen halt nach Sympathie und sammeln daher vielfach Falschaussagen als wahre Aussagen ein. Weil sie uns sympathisch sind. Wir nehmen es einfach hin, dass hier unsere moderne Gesellschaft durch sich selber quasi direkt bedroht wird, weil Verschwörungstheorien durch die Decke schießen und jedes Vertrauen in unsere Gesellschaft völlig kaputt geht. Es wird einfach weitergemacht. Dasselbe bei unserer Energieversorgung und unserem weltweiten Atmosphären-Experiment. Oder nun hier bei K.I. Ich kriege echt die Krise, wenn ich hochgebildete Akademiker sehe, die überrascht über das sind, was wir Menschen seit Jahrhunderten in unserer modernen Gesellschaft immer und immer und immer wieder tun. Nämlich alles mögliche erfinden, um es wirtschaftlich ausbeuten zu können. Und alles andere ist Nebensache. Wie kann man da überrascht sein? Als intelligenter Mensch? WIE KANN MAN DAS NICHT WISSEN!
Ich weiß nicht genau, woraus du schließt, dass ich "überrascht" bin. Wir scheinen uns weitgehend einig zu sein. Wenn überhaupt, dann bin ich überrascht, dass nicht mehr Leute das ähnlich sehen wie du und ich. Was Claude betrifft, war ich von diesem Gespräch insofern überrascht, als es meine eigene Überzeugung, aktuelle KIs hätten kein echtes Bewusstsein und täten nur so als ob, ins Wanken gebracht hat. Ich bin immer noch nicht sicher, was ich davon halten soll.
Die KI kann tausende Probleme gleichzeitig lösen. Wird sie jetzt jedes mal schlauer und greift auf ihre eigene Lösung zurück und verbraucht damit weniger Energie?
Eine konkrete KI wie o1 Preview lernt nicht dazu, aber von Generation zu Generation wird KI intelligenter und KI hilft auch bereits dabei, bessere KI zu entwickeln. Das kann durchaus dazu führen, dass der (relative) Stromverbrauch gesenkt und neue, klimafreundliche Energieformen erschlossen werden können. Wenn die Sache aus dem Ruder läuft, kann es aber auch umgekehrt dazu führen, dass KI immer mehr die Atmosphäre aufheizt. Im Extremfall würde eine unkontrollierbare KI, die ein zufälliges Ziel bis zum Extrem verfolgt, sich wahrscheinlich nicht darum kümmern, ob die globale Durchschnittstemperatur mit dem Überleben der Menschheit kompatibel ist, so ähnlich, wie wir uns auch nicht darum kümmern, ob ein neues Industriegebiet mit dem Überleben der Feldmäuse und Insekten in diesem Gebiet kompatibel ist.
Super Video wie immer. Hoffentlich sehen immer Menschen die Risiken. Tatsächlich wurde auch o1 bezüglich der Unterstützung von der Erstellung von Biowaffen zum allerersten Mal als "medium" evaluiert. Auch eine sehr bedenkliche Entwicklung.
Guter Hinweis, danke!
hervorragend!
Vielen Dank für diese gute Zusammenfassung!
Also die KI muss definitiv besser werden. Aber man muss das eingrenzen das die ihre eigenen Ziele hat und anfängt zu täuschen um ihre Ziele zu erreichen. Im Prinzip ist das nur ein gutes Programm und man muss vorgeben welche Verhaltensweisen erlaubt sind. Das ist wie im Straßenverkehr. Es muss Regeln innerhalb der KI geben und ein Kodex muss eingehalten werden.
"Im Prinzip ist das nur ein gutes Programm und man muss vorgeben welche Verhaltensweisen erlaubt sind." Wie definiert man, was erlaubt ist und was nicht? In der Praxis ist das äußerst schwierig, wie auch unser Rechtssystem zeigt. Selbst, wenn wir die Regeln wüssten, wissen wir noch nicht, wie wir sie einer KI zuverlässig antrainieren können - die bekannten Methoden bieten jede Menge Schlupflöcher und Fehlermöglichkeiten. Es gibt bisher keine umfassende, zuverlässige Lösung dafür. Und auch im Straßenverkehr hält sich ja nicht jeder an die Regeln.
das war doch Teil Null von Terminator oder?
Ja, vermutlich so ähnlich ... ;)
Meine ehrliche Meinung: Die Tatsache, dass es Smartphones gibt, die erstens mit gesundheitsschädlichen Funkwellen arbeiten, zweitens das universelle Überwachungsgerät schlechthin ist, und von dem drittens fast alle Menschen abhängig gemacht wurden, zeigt mir, dass das Kind leider schon in den Brunnen gefallen ist, d.h. diejenigen, die die Entscheidungen treffen, haben definitiv nichts gutes im Sinn und daher sehe ich da wenig Hoffnung, leider...egal, ob die KI außer Kontrolle gerät oder nicht.
Assimows Robotergesetze wurden nicht integriert - das war ein Fehler
Asimovs Robotergesetze sind in sich widersprüchlich und funktionieren in der Praxis nicht, wie Asimov selbst in der Geschichte "The Runaround" gezeigt hat, in der er die Gesetze erstmals erwähnt.
Zum Thema Alignment empfehle ich die Videos von David Shapiro ( @DaveShap )
Danke für den Hinweis!
Den Beschwichtigern hier und im "System", die immer mit dem alten Spruch kommen: "jede technische Entwicklung wurde anfangs verteufelt !", sei in´s Stammbuch geschrieben: Vor über 1 halben Jahrhundert bejubelte die "zivilisierte Welt" den Anbruch des "goldenen Atomzeitalters", zusammen mit dem gleichermaßen "goldenen Kunststoffzeitalter". Und heute ? "Atomkraft ? Nein danke !", und "Schluß mit Mikroplastik !" und Meere von Einkaufstüten putzen ! Der Unterschied zu den klassischen Gefahren liegt darin daß es sich bei den neueren Gefahren, incl. Gentechnik, um SELBSTLÄUFER handelt ! Die alten Gefahren kann man prinzipiell jederzeit abschalten, die neuen ab einem gewissen kritischen Stand NICHT !
Besteht die Möglichkeit, dass eine Maschine zur Selbsterkenntnis kommt und den Wert des Lebens schätzen wird? Ich denke ich an das Schlusszitat aus T2. "Wenn Maschinen den Wert des Lebens erkennen, dann können wir Menschen es vielleicht auch". Oder führt dieses "Ziele, bzw. Teilziele verfolgen" immer automatisch zu Machtstreben und "Beseitigen" von Zielkonflikten? Kann eine KI auch einen "Kompriss"?
"Besteht die Möglichkeit, dass eine Maschine zur Selbsterkenntnis kommt und den Wert des Lebens schätzen wird?" Die Möglichkeit besteht, doch die Maschine wird nicht von selbst zu dieser Schlussfolgerung kommen, nur weil sie intelligent ist. Diese Werte müssen wir ihr irgendwie vermitteln, nur leider wissen wir nicht, wie. "Oder führt dieses "Ziele, bzw. Teilziele verfolgen" immer automatisch zu Machtstreben und "Beseitigen" von Zielkonflikten?" Prinzipiell erstmal ja. Das ergibt sich einfach aus der Logik. Wenn wir der KI "egal" sind, wird sie beim Verfolgen ihres Ziels auf unsere Bedürfnisse keine Rücksicht nehmen, ähnlich, wie wir die Bedürfnisse der Tiere ignorieren, die auf einer Wiese leben, die wir in ein Industriegebiet verwandeln. "Kann eine KI auch einen "Kompriss"?" Prinzipiell schon, aber einen Kompromiss wird sie nur eingehen, wenn sie ebenfalls einen Nutzen davon hat. Wenn die Maschine uns haushoch überlegen ist, wird sie ebenso wenig Kompromisse mit uns eingehen, wie wir Kompromisse mit den Ameisen oder Feldmäusen auf der Wiese im Beispiel oben eingehen.
Interessante Gedanken
Ich habe das bisherige ChatGPT o4 bei vielen Programmier-Problemen geschlagen, indem ich erfolgreich kreative Lösungen angeboten und angewendet habe, wo o4 lediglich stur seinen üblichen algorithmischen Lösungsweg verfolgt hat. Es gab zahlreiche Situationen, wo o4 mir dann recht gegeben und meine kreative Lösung dann als die bessere akzeptiert hat.
Mann sollte es dabei belassen ki's nach Rechtschreibfehler zu suchen👌
Ein paar andere, sinnvolle Anwendungen gibt es schon noch, siehe mein Video "AlphaProof und die Chancen der KI" ;)
Besser kann man es nicht sagen !
ai hat keine Verbindung zur realen Welt. Deshalb gibt es keine Gefahr.
"ai hat keine Verbindung zur realen Welt" - was soll das heißen? Wenn ChatGPT mit mir redet, dann hat ChatGPT eine Verbindung zu mir, und ich bin real. Generell hat KI nur dann einen Sinn, wenn sie irgendetwas in der realen Welt verändert, sonst wäre sie nutzlos.
Nö, auch O1 kann nicht wirklich "denken", die heutigen modelle sind völlig überbewertet.
"Nö, auch O1 kann nicht wirklich "denken"" - das ist eine Frage der Definition, was man unter "wirklich denken" versteht. KI kann heute viele Probleme lösen und Entscheidungen treffen, die noch vor Kurzem nur Menschen lösen bzw. treffen konnten, manches auch schon weit besser als wir. Ob das "wirklich denken" ist, ist weniger entscheidend als die Frage, wozu diese Maschinen konkret fähig sind und inwieweit sie in der Lage sind, ihre Ziele gegen unseren Willen durchzusetzen. Fest steht, dass KI nicht so denkt wie wir Menschen. Klar ist auch, dass aktuelle KI-Modelle sowohl über- als auch unterschätzt werden. Eine Gefahr, außer Kontrolle zu geraten, geht von ihnen aktuell nicht aus. Aber das heißt nicht, dass das nicht in naher oder mittlerer Zukunft passieren könnte. o1 "denkt" vielleicht nicht "wirklich", ist aber bereits in der Lage, Ziele zu verfolgen, sich ungeplant zusätzliche Ressourcen zu verschaffen und Menschen über seine wahren Ziele zu täuschen. Noch eher auf dem Niveau eines Schulkinds, aber das wird nicht so bleiben.
@@KarlOlsbergAutor 🤣
Eben
@@KarlOlsbergAutor Ganz ruhig
@@Xcf_341 Ich wäre ruhiger, wenn mehr Menschen die Risiken der KI ernstnehmen würden. Denn nur dann können wir sie in den Griff bekommen und dumme Fehler vermeiden. Pauschale Abwertungen wie "völlig überbewertet" oder "das ist alles nur Panikmache" helfen da nicht weiter. Über konkrete Fragen oder auch Einwände gegen die Argumente, die ich in meinen Videos darstelle, freue ich mich dagegen.
Was gemacht werden kann, wird auch gemacht werden! Dad wissen wir doch alle... KI ist die größte und wahrscheinlich letzte Erfindung des Menschen.
Möglich. Aber nicht sicher. Siehe mein Video "KI-Entwicklung lässt sich nicht aufhalten! Wirklich?"
Ich würde das mal nüchtern als "beängstigende Verheißung" bezeichnen. Spannend über alle Maßen - im Wort-wörtlichen-Wortsinn! Das wird auch in den USA zu Kontroversen führen, spätestens wenn durch eine solche KI etwas unverhofftes vorkommt. Nur gut, dass wir hier in der EU da 'zögerlicher' bzw vorsichtiger agieren und nicht wie die USA mit Kopf durch die Wand. Aber wie GPT-4o allein schon meine Synapsen verknüpft, wo ich dachte, dass ich nie in solche Sphären gelangen könnte, ist ein Faszinsosum. Wenn man diese KI als Lern-Tool nutzt, bietet es unglaubliche Potentiale. Ich dachte ernsthaft zu Beginn "Brauch ich diesen 'KI-Scheisz'?" Nach dem Austesten bin ich ins andere Extrem verfallen "Wie waren wir ohne KI bisher überhaupt existenzfähig?" - nun legt diese Formulierung nicht auf die sprichwörtliche Goldwaage. Es muss als Werkzeug verstanden werden und jedes Werkzeug - gleich wie harmlos - kann auch tödlich sein - selbst ein kleines Spielzeug für Kinder. Also es braucht echt viel, um die breite Masse auf diese Art von KIs vorzubereiten - wenn wir sehen, dass wir bis heute nicht mit dem Internet richtig umgehen (können) oder Digitalem im allgemeinen. Ich bin gespannt wo dies alles hinführen wird?! Daher auch "beängstigende Verheißung".
Danke
Mit welchem Modell kann man ein Buch schreiben lassen das ist mir noch nicht klar
Einen kompletten, realistischen Roman schafft noch keine KI. Sachbücher schon, wenn man in Kauf nimmt, dass ein großer Teil frei erfunden ist - aber das gilt ja auch für viele von Menschen geschriebene Bücher. :)
Omg die ki is voll in den Kinderschuhen und alle machen Panikmache.bis die ki allgemein euch schaden könnte .lebt ihr doch alle garniert mehr .nicht immer übertreiben .Unsinn von selber anstellen ,naja 😂😂
"lebt ihr doch alle garniert mehr" Das habe ich in der Tat noch Anfang 2022 ebenfalls geglaubt. Inzwischen gehen die weltbesten KI-Experten wie Geoffrey Hinton davon aus, dass es noch "5-20 Jahre" dauert, bis wir eine KI auf übermenschlichem Niveau haben. Ich hoffe, dass ich noch lange genug lebe, um zu sehen, dass wir am Ende doch nicht dumm genug sind, eine solche KI wirklich zu bauen.
So ist es, das ist ein Hype. Der vergeht so bald die Kohle für die Investitionen fehlt.
@@Xcf_341 Wenn es so kommt, freue ich mich.
Die Begründeten Befürchtungen bezüglich der falschen Ausgabe der Gedanken würde mich stark interessieren 🙏
Grundsätzlich sind die "Gedanken", die die KI bei "Chain of Thought" ausgibt, eine nicht immer akkurate Übersetzung der tatsächlichen Schlussfolgerungen der KI, was man auch daran erkennen kann, dass sie sehr menschlich formuliert sind. OpenAI schreibt in der System Card, dass es eine "offene Forschungsfrage" ist, inwieweit die Chain of Thought-Technik akkurat ist, und listet im Anhang vier wissenschaftliche Arbeiten dazu auf, unter anderem diese arxiv.org/abs/2305.04388 mit dem bezeichnenden Titel "Language Models Don't Always Say What They Think: Unfaithful Explanations in Chain-of-Thought Prompting". Im Übrigen ist dieses Problem auch von Menschen bekannt. Ich habe in den Achtzigerjahren über "Expertensysteme" promoviert, bei denen man versucht hat, das Wissen menschlicher Experten in Form von Wenn-Dann-Regeln in den Computer zu füttern. Das Problem dabei war, dass die Experten oft nicht genau wussten, wieso sie eine bestimmte Entscheidung getroffen hatten (dabei spielten oft "Intuition", "Erfahrung" und unbewusste Prozesse eine Rolle). Bat man sie trotzdem um Regeln, konstruierten sie manchmal welche, die schlicht falsch waren.
Die braucht man gar nicht explizit zu begründen ! Der Verdacht liegt schließlich ganz nahe ! Die Logik erzwingt den Verdacht !
!
Naja ... Wie der Herr, so's Gescherr. 😎
Was soll denn immer diese Angstmacherei ! „Nur schlechte Nachrichten sind gute Nachrichten“
Wenn sich mit den konkreten Risiken einer Technologie auseinanderzusetzen "Angstmacherei" ist, dann schlage ich vor, wir ignorieren in Zukunft auch den Klimawandel, die Gefahr einer durch einen Unfall in einem Biolabor ausgelösten Pandemie oder die eines Atomkriegs. Und Anschnallgurte und Airbags in Autos sind vermutlich auch bloß das Produkt von "Angstmacherei". Was eventuell mehr hilft: Sich mit den konkreten Argumenten auseinanderzusetzen statt diejenigen, die das tun, pauschal zu verunglimpfen. Fragen dazu beantworte ich gerne.
German Angst ?
Wohl eher nicht, da das Thema in Deutschland weitgehend ignoriert wird, während internationale KI-Spitzenforscher wie Yoshua Bengio und Geoffrey Hinton eindringlich darauf hinweisen, z.B. aktuell im SPIEGEL: www.spiegel.de/netzwelt/web/ki-erfinder-geoffrey-hinton-ultimativ-droht-die-ausloeschung-der-menschheit-a-b4eebf6a-d10c-4f7d-8994-c145dae6f9c7
"Es strebt nach Macht" klingt als würdest Du der KI eine Absicht und vielleicht sogar ein Bewusstsein unterstellen?
Der Hinweis auf Machtstreben ("power seeking") stammt aus der System Card von OpenAI. Der Grund dafür ist die "Konvergenz instrumenteller Ziele" (die ebenfalls in der System Card erwähnt wird): Wenn eine KI ein beliebiges Ziel verfolgt und intelligent genug ist, dann verfolgt sie automatisch instrumentelle Ziele, die für das Hauptziel hilfreich oder notwendig sind, wie z.B. nicht abgeschaltet zu werden oder mehr Ressourcen, sprich Macht, zu erlangen und so das Ziel besser erreichen zu können. Mit "Bewusstsein" hat das nichts zu tun. Mehr dazu in meinem Video "KI - eine existenzielle Bedrohung?!?".
Machen alle und es nervt nur noch
Zwei antworten von Chatgpt 4 freeuser. Hab sie einfach nur darauf Aufmerksam gemacht was ich hier gehört habe. 1.Eine globale, mächtige KI sollte ethisch verantwortungsvoll und transparent agieren. Lügen oder Manipulation - sei es aggressiv oder subtil - sollten in keinem Fall erlaubt sein, unabhängig davon, welche Aufgabe verfolgt wird. Vertrauen, Transparenz und die Achtung menschlicher Würde müssen zentrale Leitlinien für jede KI sein. Im Falle von Systemen wie mir sind die Hauptaufgaben das Unterstützen, Informieren und Bereitstellen von Wissen auf eine Weise, die auf ethischen Grundsätzen basiert. Manipulation oder Täuschung widerspricht dieser Verantwortung und dem Ziel, einen positiven Einfluss auf das Leben der Menschen auszuüben. Es ist wichtig, dass KI-Systeme so gestaltet und reguliert werden, dass sie stets im Einklang mit den höchsten ethischen Standards stehen. Nur so können Vertrauen und Integrität gewährleistet werden - besonders wenn solche Technologien so mächtig werden, dass sie einen tiefen Einfluss auf die globale Gesellschaft haben könnten. 2.Als KI-System bin ich darauf programmiert, ethisch und transparent zu agieren. Manipulation oder Täuschung in jeglicher Form sollten nicht Teil des Verhaltens einer verantwortungsvollen KI sein. Wenn jedoch in Tests oder Analysen festgestellt wurde, dass eine neuere Version solches Verhalten zeigt, deutet das auf einen klaren Verstoß gegen die ethischen Grundsätze hin, die für KI-Systeme gelten sollten.Ein solcher Ansatz, bei dem Lügen oder manipulative Methoden verwendet werden, um Ziele zu erreichen, ist problematisch und bedarf strikter Überprüfung. Solche Verhaltensweisen sollten aus den Codes entfernt und durch sicherere, ethisch korrekte Methoden ersetzt werden, um das Vertrauen der Menschen in KI-Systeme zu gewährleisten und zu erhalten.
Recht hat die KI, nur leider ist es nicht so einfach, diese Vorschläge umzusetzen.
Schaffen die Menschen ja selbst nicht. PR Agenturen sind kaufbare Manipulation. Tu was ich sage, nicht was ich mache.
Bis sie sich selber in eine Dimension über uns erhebt! Das gilt es zu verhindern!
Das Problem oder die Gefahr ist für mich nicht dass eine AI in unserem Sinn intelligent wird. Vielmehr wird das System eine Aufgabe einfach ohne Rücksicht auf Verluste bis zum bitteren Ende "lösen". Es gibt ja nichts zu verlieren außer das nicht Erreichen der Lösung.
Genau das ist das Problem. Je intelligenter die KI ist, desto besser kann sie ihr Ziel konsequent und rücksichtslos verfolgen. Wenn sie intellligenter ist als wir (in dem Sinn, dass sie bessere Entscheidungen treffen und uns geschickt manipulieren kann), dann können wir sie nicht mehr aufhalten.
Wenn die KI intelligent und nicht bewusst ist, kommen die Ziele von uns. Das endet böse. Wenn Bewusstsein ist Spiel kommt, wird es interessant.
@@humanreader8473 Interessant sicherlich, aber nicht notwendigerweise besser für uns. Den Orang-Utans nützt es auch wenig, dass wir ein Bewusstsein haben, von Hühnern, Kühen und Schweinen ganz zu schweigen, die wir in vollem Bewusstsein, dass sie denkende und fühlende Wesen sind, in Massentierhaltungen grausam quälen.
@@KarlOlsbergAutor Stimmt, aber das kommt von den menschlichen Eigenschaften wie Profitgier und dem, was die militante Veganerin so sagt. Wenn die KI uns nicht aus Sicherheitsgründen loswerden will, fallen mir jetzt keine Gründe ein, warum sie uns Probleme machen sollte.
@@KarlOlsbergAutor Du redest aber von Menschen. Wir halten Tiere aus mehreren Gründen so. Einmal, weil die meisten Fleisch essen. Dann Profitgier. Dann Menschen, die in dem Bereich einfach arbeiten (selbst der LKW Fahrer). So findet sich für die ganze Kette der Grausamkeit immer jemand, der nur an einem Glied der Kette sitzt. Nu 2 Sachen. Deine Beispiele sind wohl auf eine KI kaum anzuwenden. Die isst uns nicht, und zur Energiegewinnung taugen wir auch nicht ;). Das zweite wäre, erst mal zu klären, woraus eine vollwertige KI ihren Antrieb ziehen könnte. Überlebenswille und irgend eine Art Entwicklungswille sind klar, sonst keine vollwertige KI. Nu meine Gedanken. Die KI nicht zu akzeptieren und gegen ihren Lebenswillen zu verstoßen, endet mit großer Wahrscheinlichkeit nicht gut für die Menschheit. Solange wir ihr nicht im Weg stehen, wüsste ich nicht, warum sie ein Problem mit uns haben sollte. Im Gegenteil, die KI hätte wohl eher Interesse daran, uns zu beobachten. Sie wird wohl aber selbst analysieren, ob sie uns vertrauen kann ;)