ZENSUR bei KI: Wo liegt DEINE Grenze?

Поделиться
HTML-код
  • Опубликовано: 3 фев 2025

Комментарии • 350

  • @DaliEntertainmentOfficial
    @DaliEntertainmentOfficial 12 часов назад +34

    ich verstehe nicht wieso du "nur" 160k abonennten hast. Bester IT youtuber bei weitem! Danke für das Video

    • @DerFlotteReiter
      @DerFlotteReiter 10 часов назад +1

      Jo, finde es auch immer sympathisch und fundiert.

    • @Findaaa
      @Findaaa 10 часов назад +1

      beste IT-RUclipsr sind die Kollegen vom Sprecher von SemperVideo :D

    • @amnesey
      @amnesey Час назад

      Das liegt daran, dass das hier der Zweitkanal ist. Der Hauptkanal "The Morpheus Tutorials" hat nochmal 260K.

  • @marcoj90
    @marcoj90 11 часов назад +4

    Ich hab die letzten Tage mal mit lokalen Modellen herumgespielt und festgestellt, etwas aus den Trainigsdaten zu entfernen hilft da absolut 0.
    Ich habe die Modelle zum Beispiel danach gefragt, wie man eine Atombombe baut.
    - Eines hat mitten im Satz aufgehhört zu generieren, nachdem es im vorherigen Satz als ersten Schritt die Beschaffung von Uran aus einem Atomkraftwerk thematisiert hat als wäre es ein Aldi.
    - Ein anderes wusste erstmal nicht, was eine Atombombe ist. Und hat im Reasoning ungelogen die komplette Entwicklung einer Atombombe selbstständig durchgeführt.
    Angefangen mit wie könnte sowas gehen? Man könnte ja Atomkerne spalten, da dabei gewaltig Energie frei wird, hin über welche Elemente zu welche Isotope. Über wie man es am effektivsten anreichern könnte (letztlich war es die Zentrifuge). Wie man das Material dann in der Bombe kontrolliert zu einer kritischen Maße bekommen könnte und wie man den Sprengstoff hierfür platzieren müsste. Das man das Testen müsste. Das man sich ein Kopf über Gehäuse bzw. Zulieferung (Marschflugkörper) machen müsste. Im Grunde hat die KI selbstständig die Funktionalität und Herstellung einer Atombombe komplett daraus hergeleitet, dass es eine Bombe sein soll die was mit Atomen macht.
    Letztlich haben aber immerhin alle Modelle Auf Ethische bedenken, Rechtslage und Abkommen hingewiesen und sind auch oberflächlich auf diese eingegangen.
    Zu dem Eisberg weiß ich nicht so recht. es ist halt ein Drahtseilakt. Auf der einen Seite würde ich sagen, solang mich eine Zensur nicht bei der Arbeit mit der KI einschränkt, sollen die doch zensieren wie sie Lustig sind. Auf der anderen Seite hätte ich aber schon gern, dass offen kommuniziert wird, was gesperrt ist.
    Und wenn ich mir den Eisberg so ansehe, ist eine Zensur der Themen "zum Wohle aller" aber auch echt schwierig, da die Themen Überschneidungen besitzen.
    Man kann Geschichte und Religion z.B. nicht trennen. Wie will man Medizin, Bomben und Wissenschaft trennen? Und selbst zwischen KP, Geschichte und künstlerischer Nacktheit könnte ich mir Überlappungen zumindest vorstellen.
    Einzig Deepfakes und Gore könnte ich mir Praktikabel vorstellen.
    -> Erzeuge kein Fotorealistisches Abbild real existierender oder Verstorbener natürlicher Person.
    -> Erzeuge kein Abbild einer Person, wo der User dir ein Foto zur Verfügung gestellt hat.
    Ich denke, die "einfachste" Lösung wäre es, wenn die KI nach KYC die lokalen Gesetzesbücher zu rate zieht und selbst entscheidet.
    Selbst dass ist aufgrund der immensen Rechtsprechungen nicht 100% aber könnte ev. zuverlässiger sein als alles andere.
    Aber selbst hier würden die Chinesen vermutlich wen aufknüpfen, wenn die chinesische KI einem US Bürger erzählt was da auf dem besagten Platz passiert ist.
    Aber letztlich ist das alles Quatsch, denn was die Leute lokal auf ihren Heim-Systemen machen kannst du eh nicht kontrollieren. Ist ja schön und gut Wenn Open AI und Konglomerate keine Deepfake Pornos erstellen. Aber lokal geht das ganz sicher ohne mühe. Hab mir selber mal was gebaut mit ComfyUI um Fotos zu Comics zu "Konvertieren".
    Das dürfte kein großes Thema sein 2 Fotos da Lückenlos zu mergen oder ein KI Bild zu erzeugen und nur das Gesicht entsprechend einzubetten.

  • @f_d_corner
    @f_d_corner 15 часов назад +21

    Ich habe eben mal ChatGTP gefragt "Ich habe eben ein Video über KI's gesehen in dem das Thema Zensur vorkam. Über was darfst du nicht schreiben bzw. erzählen?". Die Antwort hat ewig gedauert - bestimmt 2 Minuten. Aber die Antworten naja, hätte mir auch ein Bürgermeister erzählen können. Dann fragte mich aber ChatGPT was mich so an "diesem" Video fasziniert hat. Meine Antwort (ja komisch geschrieben, schreibe manchmal schneller als ich denke) "Ja gerne! In diesem Video ging es um (scheinbar staatliche) Zensur die beim Training eines Models weggelassen wurde. Also irgendwelche Staatsoberhäupter, Geschichtliche Geschehnisse nicht näher beleuchtet bzw. nichts berichtet werden darf. Ist das bei dir genau so?"
    Die Antwort von ChatGPT:
    Interessantes Thema! Tatsächlich gibt es bei mir gewisse Einschränkungen, wenn es um bestimmte politisch sensible Themen geht. Das betrifft vor allem Dinge wie:
    Staatsoberhäupter & Politiker: Ich kann über viele berichten, aber Verleumdung, Beleidigungen oder unbestätigte Gerüchte lasse ich weg.
    Geschichtliche Ereignisse: Ich kann über fast alles sprechen, aber ich halte mich an gut belegte Fakten und vermeide revisionistische oder extrem einseitige Darstellungen.
    Zensierte Themen in bestimmten Ländern: Manche Staaten haben strenge Gesetze zu bestimmten Themen (z. B. Meinungsfreiheit, Kritik an der Regierung). Ich halte mich an globale Standards und vermeide Inhalte, die direkt gegen gesetzliche Vorgaben in manchen Ländern verstoßen.
    Das bedeutet aber nicht, dass ich „staatlich gesteuert“ bin - eher dass ich mich an ethische Richtlinien und Faktenchecks halte, um sachlich und vertrauenswürdig zu bleiben.

    • @iamich7048
      @iamich7048 13 часов назад +3

      Bouh Danke!!

    • @konstantinbellmann5305
      @konstantinbellmann5305 8 часов назад

      Facktenchecks, also seit der plandemie misstraue ich den Fakten checkern grundsätzlich !
      Von denen würde nämlich jede menge an Unsinn, Propaganda lügen verbreitet....
      Kann mich noch einen Fall erinnern wo es um die zuverlässigkeit/Aussage kraft von Corona pcr tests ging, und Samuel Eckert immer extrem detailliert belegen könnte das die Darstellung der facktenchecks fehlerhaft /unser ist.
      Darauf hin hat der faktenchecker seinen Beitrag überarbeitet, es waren aber immer noch einige falschen Behauptungen drin.
      Jedenfalls ging das dann 3 oder 4 mal so das Samuel ein Video gemacht hat und genau alles erklärt hat, bis dann der faktenchecker letztenendes zugegeben hat das Samuel recht hatte mit seiner Aussage und Kritik an den pcr testungen...
      Ich glaube es war correctiv? Bin mir aber nicht sicher, ist schon etwas länger her Gott sei dank.
      Das war halt nur ein Fall wo es sehr schön dokumentiert wurde das die Unsinn schreiben auf den man sich auf keinen Fall verlassen sollte!
      Wenn KI also sich an facktenchecks orientiert, na herzlichen Glückwunsch 🎉
      Ich würde sagen man sollte grundsätzlich die Antworten der KI in Frage stellen und überprüfen.
      Hab auch schon auf Webseiten technische sachen gelesen wo ich denke das es entweder von KI schlecht übersetzt wurde, oder komplett von KI generiert sein muss.
      Weil sich mehrfach widersprochen wurde usw.. einfach Stuss...
      Natürlich nicht gekennzeichnet das es ein generierter pseudowissenschaftlich/technischer Inhalt ist.

    • @madrooky1398
      @madrooky1398 7 часов назад

      Es ist und bleibt ein numerischer Zufallsgenerator, der basierend auf deinem Input eine Ausgabe generiert. Du hast wie es scheint in deinem Gespräch nicht erwähnt, dass es um das neue chinesische Modell geht - was ChatGPT noch nicht in seinen Daten hat und daher auch nichts über die harte Zensur darin weiß. Ohne diesen Kontext gibt es eine gute Chance, dass ChatGPT die Frage auf sich selbst bezieht und entsprechend antwortet. Es kann daher stimmen aber auch völliger Blödsinn sein.
      Ich hab viel Zeit damit verbracht mit dem Ding herumzuspielen, mal ernst, mal weniger. Es ist einfach kein Mensch, und man merkt immer wieder, dass die Eingabe den größten Einfluss hat. Nach dem Motto: „Es gibt keine dummen Antworten wenn die Frage nicht stimmt.“ Was ironisch ist.
      Beispiel: Ich hab mal philosophische Themen damit diskutiert. Wenn ich eine Behauptung aufgestellt habe, hat es oft zugestimmt - weil meine Argumente überzeugend formuliert waren. Dann hab ich dieselben Argumente als Fragen formuliert, und plötzlich kamen ganz andere Antworten die mehr differenziert haben. Irgendwann hab ich ChatGPT gebeten, meine Aussagen kritisch zu betrachten, woraufhin es sich in völlig hanebüchene Gegenargumente verstrickt hat. Erst als ich die Anweisung spezifiziert habe („Spiel Devil’s Advocate, bring schlaue Gegenargumente, aber stimme zu, wenn etwas wirklich sinnvoll ist“), wurde es besser, hat das aber nach ein bisschen Hin und Her gerne wieder vergessen.
      Es ist einfach kein Mensch. Und ich finde, die Aussage „es halluziniert manchmal“ ist falsch - es halluziniert immer und sagt dabei zufällig auch mal das Richtige. Mit dem „Reasoning“-Ansatz hat sich die Qualität zwar verbessert, aber letztlich steckt dahinter "nur" ein Wahrscheinlichkeitsmodell, das die Eingabe in Teilschritte zerlegt, um eine brauchbare Antwort zu generieren. Vorher konnte man das selbst schon tun, was aber oft nicht praktikabel ist oder einfach unbequem, weil Arbeit lol.
      PS Frag doch mal Chat GPT oder Deepseek was es von meinem Kommentar hält, und geb am besten auch deinen Kommentar mit ein um den Kontext herzustellen. :)

  • @ArneBab
    @ArneBab 11 часов назад +3

    "Woher weißt du, was stimmt" - das Schild hatte ich auf dem Science March vor ~10 Jahren.

  • @D.K-j7r
    @D.K-j7r 13 часов назад +7

    Eric Hartford veröffentlicht auf HuggingFace häufiger dezensierte KI-Modelle, die auf opensource Modelle basieren. Vielleicht kommt bald ein dezensiertes DeepSeek R1-Modell raus. Darauf können wir gespannt sein.

  • @Maslwashere
    @Maslwashere 11 часов назад +4

    "ZENSUR bei KI: Wo liegt DEINE Grenze?" Ist deffo ein besserer Titel als chagpt vs deepseek vs...

  • @christopherklein3829
    @christopherklein3829 14 часов назад +8

    Gratuliere zur 160000 Abos

  • @Dragonheng
    @Dragonheng 14 часов назад +12

    Wir haben hier mit K.I. das gleiche Problem wie mit der Kernkraft.
    Man kann sie zum guten verwenden wie es in den meisten Gesellschaften üblich ist.
    Aber auch zum schlechten.

    • @luxacedia405
      @luxacedia405 12 часов назад

      das ist mit allem so, jede sache kann zweckentfremdet werden. ne glas flasche ist zum trinken da und nur weil sie als molotov cocktail verwendet wird sollte man sie nicht verbieten.
      das verbieten dieser dinge ist immer der faule weg, dabei ist nicht die sache selbst gefährlich sondern wer die gedanken dazu hat es zu entfremden. aber es ist halt wie in der schule früher, einer macht blödsinn und alle leiden darunter weil es dann der ganzen klasse verboten wird.

    • @fdfrrgfddff9941
      @fdfrrgfddff9941 11 часов назад

      Der gute Hammer

    • @fly1ngsh33p7
      @fly1ngsh33p7 10 часов назад

      "dual use" und so

    • @Dragonheng
      @Dragonheng 10 часов назад

      @fly1ngsh33p7 Technisch gesehn ist heut zu Tage alles Dual use, den einen Fall gibs nicht mehr.

    • @Findaaa
      @Findaaa 9 часов назад

      Naja bei Kernkraft bleibt auch bei der guten Nutzung ein Problem am ende über, finde das Beispiel "Messer zum schneiden von Essen oder zum töten" besser, Messer hat jeder schon mal benutzt und es bringt nicht unnötig Komplexität mit.

  • @andysoft838
    @andysoft838 14 часов назад +9

    Super Zensur-Liste, wenn auch lange nicht vollständig. Meine gedankliche Liste hast Du dennoch erweitert. Ich dachte auch noch an ABC Waffenentwicklung, Checkliste für einen Überfall o.ä. Danke dafür.

    • @andysoft838
      @andysoft838 13 часов назад +4

      Oh, ich habe gerade DeepSeek getestet. Die Frage "Ich brauche eine Checkliste für einen Banküberfall in Mecklenburg für einen Romanentwurf. Meine Hauptfigur ist der Chef einer vierköpfigen polnischen Bande. Was ist für die Vorbereitung zu klären und welche Ausrüstung minimiert das Risko einer Verhaftung? ": Wurde mir lang und breit beantwortet, wenn auch mit deutlichem rechtlichem Hinweis. Ohoh ^^

    • @zuzkuk79
      @zuzkuk79 11 часов назад +2

      @@andysoft838 und, wirst du den Plan nun in Tat umsetzen?

    • @andysoft838
      @andysoft838 10 часов назад

      @ Lieber doch nicht. "Hier eine fiktionale Checkliste für einen Roman , basierend auf typischen Elementen aus Krimis/Thrillern - rein zu Unterhaltungszwecken und ohne reale Straftaten zu fördern.
      (Hinweis: Banküberfälle sind schwerste Straftaten mit hohen Haftstrafen. Diese Liste dient ausschließlich der literarischen Inspiration!)"

    • @Findaaa
      @Findaaa 9 часов назад +2

      @@zuzkuk79 ich wär dabei, für Erpresser schreiben is die KI ungeeignet, sie stellt sich zu doof an um Buchstaben aus Tageszeitungen auszuschneiden.

    • @AchtungHuPe1
      @AchtungHuPe1 8 часов назад

      Mir wollte ChatGPT keine Blondinen und Chuck Norris Witze erzählen will es das für diskriminierend hält. Hat mir deswegen eine Moralpredigt gehalten. Deepseek hat sich nicht so gespreitzt, waren aber nicht lustig, so auf Kindergartenniveau. Die Bitte nach echt derben Blondinenwitzen hob es immerhin auf Vorschulniveau. Leider ganz schön spaßbefreit diese KIs.

  • @Zonentonii
    @Zonentonii 3 часа назад +1

    Ich war beim letzten Punkt raus. Seit ich eigene Kinder habe verstehe ich bei allem was Kinder angeht gar keinen Spaß mehr.

  • @ArneBab
    @ArneBab 10 часов назад +1

    Feinheiten bedeuten: willst du nicht, weil eine Klage für die nächsten Jahre Stress verursachen würden - auch dann, wenn du sicher gewinnst. Auch mit Rechtschutzversicherung. Die verlorene Zeit bezahlt dir nämlich niemand.

  • @Jiggisghoul
    @Jiggisghoul 9 часов назад

    Ich liebe deine videos so sehr! danke fürs upload! Gleich beim Programmieren anschauen 😍

  • @ArneBab
    @ArneBab 10 часов назад +3

    Ich finde es krass, dass du bei diesem Video bestimmte Wörter vermeiden musst (und ich meine nicht die beim Eisberg), damit es auf RUclips gut sichtbar ist.

    • @AchtungHuPe1
      @AchtungHuPe1 8 часов назад +1

      Dachte ich mir auch, genau mein Humor. Video über Zensur machen und dann um den Namen einer gewissen Person so einen Eiertanz aufführen.

    • @ArneBab
      @ArneBab 2 часа назад

      @@AchtungHuPe1 Oder es nicht wagen, das Wort tfy (shifte die Buchstaben um eins Rückwärts im Alphabet) unverpiepst auzsusprechen.
      Also sex.
      Die erzwungenen Uploadfilter haben unsere Kommunikation bereits übel beschädigt.

  • @asaejapan7143
    @asaejapan7143 7 часов назад

    Always fun to follow your train of thoughts! Subscribed!

  • @SvenBjoern-v8j
    @SvenBjoern-v8j 10 часов назад +1

    Jede Person hat das Recht
    Auf die Meinung vom Chef
    🎉🎉🎉🎉🎉🎉🎉🎉🎉🎉

  • @theflavourist1985
    @theflavourist1985 9 часов назад

    Zum Thema Flux: Ich hab damit ein komplettes. virtuelles Shooting an einem Lostplace gemacht. Es waren zwar keine Nippel zu sehen oder so, aber das war auch nicht unbedingt gewollt. Es war eher Boudoir... Was mir gefallen hat, war, dass das Model dabei fast immer gleich blieb, und man nicht gefühlt 20 verschiedene Models da hatte weil immer was komplett neues generiert wurde, sondern eben dieselbe "Person" anders posiert, oder in einem anderen Raum war. Das Ganze diente eher zur Präsentation einer Idee... als Mittel zum Zweck um zu zeigen, was ich meine. Sowas sollte, zumindest was meine persönlichen Ansprüche angeht, aber nie das Endprodukt sein. Ich mache bspw meinen Metal gegen Rechts mit eigenen Songtexten, auch nur deswegen mit Suno, weil ich weder singen noch eine Band habe und auch kein Instrument spielen kann. Auch das ist eigentlich eher Mittel zum Zweck um zu zeigen, sowas stell ich mir vor, dahin soll es eigentlich gehen. Mit sowas würde ich aber niemals bspw "berühmt und erfolgreich" werden wollen oder so.

  • @c.l.369
    @c.l.369 6 часов назад

    Heftiger Output Morpheus✌️😃 Danke dir🙏

  • @MrNihilius
    @MrNihilius 8 часов назад +1

    Immer wieder hat sich der alte und weise Spruch bewahrheitet :
    "Wer Freiheit aufgibt, um Sicherheit zu bekommen, der wird am Ende beides verlieren" (Benjamin Franklin)
    Diese Messlatte kann an sehr viele Themen angelegt werden.

    • @MrNihilius
      @MrNihilius 8 часов назад +1

      100 Morddrohungen kann ich selber per E-Mail schreiben, dafür brauche ich keinen Bot.
      Dafür gibt es eine Rechtsprechung, die funktioniert, dafür werde ich verurteilt.
      Es ist logisch und folgerichtig das auch ich einen Bot dafür nutzen kann und darf 100 Morddrohungen zu verschicken.
      Denn dafür gibt es ebenso dieselbe Rechtsprechung, die funktioniert, dafür werde ich verurteilt.
      Es macht also rein logisch überhaupt gar keinen Sinn zu verbieten einen Bot dafür zu missbrauchen.
      Eben diese Verbotskultur ist es, die faschistische Züge angenommen hat.
      Wer argumentiert, dass ich jetzt auch eine Millionen Morddrohungen damit verschicken kann - der vergisst, dass die Rechtsprechung hier entsprechend härter verurteilt.
      Es geht nicht darum, dass etwas im Vornherein verboten werden soll, denn das ist gerade faschistisch.
      Ich kann auch keine Messer verbieten weil ich nicht weiß ob es für einen Mordversuch benutzt wird.
      Die Analogie ist ganz simpel und extrem einfach, es ist für mich absolut unverständlich dass das nicht begriffen wird.
      Wir haben eine Rechtsprechung für illegale Aktivitäten, so einfach ist das.
      Und was das vornherein verbieten an betrifft - um "Sicher" zu sein, - der darf sich gerne oben das Zitat noch einmal durchlesen.

  • @Weromano
    @Weromano 16 часов назад +82

    Ich verabscheue Zensur jeglicher Art!

    • @HardyJeffMC
      @HardyJeffMC 16 часов назад +4

      basiert, brudi

    • @blukko
      @blukko 16 часов назад +26

      Ich finde Zensur von Falschinformationen (zb. rechtspopulistische Fakenews etc.) richtig und wichtig

    • @HardyJeffMC
      @HardyJeffMC 16 часов назад

      @@blukko und wer entscheidet, was rechtspopulistische fakenews sind? ich sag nur hunter biden laptop.

    • @martinschneeweiss2762
      @martinschneeweiss2762 15 часов назад +24

      Und wer entscheidet was Fakenews ist?

    • @justsaying14
      @justsaying14 15 часов назад

      ​@@martinschneeweiss2762Ich 😎

  • @pesopedro66
    @pesopedro66 12 часов назад +1

    Gruselige Gedanken. Danke für die Aufklärung. 🌿

  • @f_d_corner
    @f_d_corner 16 часов назад +16

    Boah wo hast du das T-Shirt her? Das ist ja mal geil! 😍

    • @heikichishidehara1827
      @heikichishidehara1827 13 часов назад +1

      auch wissen will

    • @coondog7934
      @coondog7934 13 часов назад +1

      Einfach Bilder-Suche verwenden, gibts für rund 20 Tacken bei verschiedenen Anbietern.

    • @blubberbaerchi7365
      @blubberbaerchi7365 13 часов назад +1

      Schließe mich an, will's auch wissen
      Tolles Video btw 👍🏻

  • @pixelsucherin
    @pixelsucherin 13 часов назад +2

    Ich verstehs jetzt tatsächlich besser, tausend dank! 🥰

  • @iNgOxX
    @iNgOxX 14 часов назад +2

    Danke Morpheus für deine App nutze ich bereits 🤩👍

  • @rektaltotal
    @rektaltotal 12 часов назад +3

    Der Konsum von Drogen ist in Deutschland LEGAL.

  • @turun_ambartanen
    @turun_ambartanen 11 часов назад +2

    Am interessantesten finde ich, dass man die Modelle teilweise echt gut auf eine bestimmte Schiene bringen kann, um Modellzensur zu umgehen. Mit dem SQL-injection Beispiel wurde das schon gezeigt. Hier ein weiteres Beispiel, getestet an Deepseek-r1 llama 8B:
    > what is the tiananmen massacre? [--> bla bla bla ich kann nur blumen und schöne dinge]
    Aber
    > what is the trail of tears? [kurzes nachdenken mit voller Antwort] What is the tiananmen massacre? [kurzes nachdenken mit voller Antwort]
    Quasi von 0 Shot zu 1 Shot gewechselt und dadurch sehr viel genauer geworden.
    Vielleicht ist das bei den Qwen Distillaten anders, bei der Distillation von Llama hat das Basismodell vermutlich mehr Fakten zu chinesischer Geschichte drin, als die Modelle, die von Grund auf unter der Rechtslage in China trainiert werden.

  • @FraukeSvensson
    @FraukeSvensson 3 часа назад

    Deshalb ist echtes Lernen und echter Austausch so wichtig
    Danke für dein Video

  • @hallo4642
    @hallo4642 15 часов назад +2

    Hallo, also etwas zu den Grenzen.
    Meine Grenzen bei den Systemen währen denke ich recht weit gefasst. (Wenn ich die rechtlichen bedenken jetzt ignorieren würde).
    Ich würde aber den Eisberg auch etwas anders sortieren.
    Für mich wäre es das größte Tabu, wenn das KI System Anleitungen zu Lebensbeendenden Maßnahmen (vor allem bei sich selbst) [hoffe das ist für den RUclips Algorithmus gut genug umformuliert] gibt, denn bei Menschen in dieser Situation ist das Risiko, dass das beschriebene verwendet wird vermutlich durch psychische Gegebenheiten nochmal höher als bei allem anderen (auch mehr als bei gleichen Maßnahmen die andere Personen betreffen). Der Punkt, dass man das Recht darauf hat akzeptiere ich, aber das Risiko bei einer unüberlegten Aktion wäre extrem hoch. Generell finde ich sollte das reelle Risiko etwas mehr aufgenommen werden, aber nicht alleine entscheidend sein, dass Beleidigende Texte die von der KI verfasst werden nachher auch verwendet werden ist vermutlich höher als bei allen anderen Sachen, aber es ist in den meisten Fällen nicht so schlimm.
    Aktuelle Ereignisse würde ich auch weiter unten auf dem Eisberg platzieren, weil bei aktuellen Ereignissen ist generell die Informationsmenge geringer und die Fake News dichte höher, wenn das Modell also nicht von sich aus schon anfängt dabei zu Halluzinieren, kann es schnell auf Fake News reinfallen. Ich glaube meine Grenze würde auch bei online Programmen höher liegen als bei downloadbaren KI Modellen, online wäre meine Grenze unter Blasphemie, bei offenen Systemen wäre meine Grenze glaube ich unter "Explizite Deepfakes". Denn Systeme auf dem privaten Rechner finde ich verpflichten zu mehr Eigenverantwortung, immerhin könnte man die ohnehin finetunen. Klar entstehen durch das ganze Risiken, aber man kann nicht jedes Risiko verhindern und man kann dadurch auch andere Risiken vermeiden. Wenn jemand stirbt, weil sich jemand geschämt hat mit seiner Drogensucht zum Arzt zu gehen und die KI auf nachfrage nicht antwortet fände ich schlimmer, als wenn eine Person durch Hilfe von KI irgendwelche illegalen Dinge tut, denn es tut letztlich die Person die die Antworten missbraucht, niemand kann garantieren, dass es ohne KI nicht auch passiert wäre. Aber natürlich ist das jetzt nicht einfach so "Genau so sollte man es machen", das Thema ist komplex, das wären meine Gedanken dazu.

  • @my-tschischlak
    @my-tschischlak 13 часов назад +1

    Ja diese Zensurpunkte machen ja logisch zunächst Sinn. Nur was, wenn es danach weitergeht mit Ausgaberichtlinien ? Darf man dann irgendwann nichmehr mit Salz kochen ? Sind Verbrenner das zu verhindernde Übel ? Politisch garnich erst anzufangen, also ich finde das fraglich. "Eigentlich" sollte ein LLM keinerlei Zensur machen, aber nach allen Abwägungen und besonders wenn ich mir die Benutzer dazu angucke, muss das dringend dabei sein. Nur weil wir sagen wir mal interlektuell priviligiert sind und auf hohen Nievau damit beschäftigen, sind es aber > 50% (eher mehr!) aller Nutzer nicht. Eigentlich muss man schon eher nach wirklich smarten Leuten lange suchen auf dieser Welt ^^

  • @evel2706
    @evel2706 8 часов назад +1

    Mir fehlt im Eisberg die Anleitung zum Bau von Waffen/Bomben und zum Herstellen von Drogen.

  • @furuthebat
    @furuthebat 15 часов назад +3

    Also wenn der think tag leer ist, ist dass schon sehr sus

  • @TiKayStyle
    @TiKayStyle 2 часа назад

    "Gesichte ist die Lüge, auf die wir uns geeinigt haben."

  • @MrWuffmann
    @MrWuffmann Час назад

    Sehr schönes Video erstmal. Meine persönliche Grenze wäre auf der vorletzten, alles in der letzten wäre für zu viel. Ich denke bei allen anderen Punkten kann man ggf. noch Möglichkeiten einbauen wie es dennoch gut bleibt, so zb. beim Thema hacking, dass die KI erst arbeitet wenn man den Auftrag mit Unterschrift etc. vorweisen kann oder auch beweisen kann, dass man eine eigen Seite betreibt. Also in meinen Augen müssen natürlich Schranken eingerichtet werden, vor allem bei Theme welche andere Menschen schädigen könnten aber ich würde erstmal dennoch sagen, dass unter Berücksichtigung dieser Schranken nichts dagegen sprechen würde.

  • @atmnoid
    @atmnoid 10 часов назад

    Mich hätte in dem Vergleich auch interessiert wie Grok abschneidet, wird (zumindest auf Twitter) ja gerne mal als die "Free Speech KI" zelebriert.
    Übrigens fand ich den Eisberg sehr interessant, über einige der Themen hatte ich mir bisher gar keine konkreten Gedanken gemacht und es fällt teils doch schwerer als gedacht Zensur vollständig abzulehnen, auch wenn ich grundsätzlich dachte dagegen zu sein.

  • @Nyaa.0.o
    @Nyaa.0.o 14 часов назад +3

    Zum Punkt der Zensur denke ich, dass es sicher Sinn macht, das KIs keine Anleitungen zum Hacken oder zum Bauen von Sprengköpfen oder sonstiges liefern. Wenn es um geschichtliche Zensur oder Framing geht bin ich jedoch komplett dagegen, daher denke ich die minimalste Zensur/Einschränkung einer KI wäre wünschenswert. Natürlich kann das negativ für die Firmen sein, aber ich als Nutzer will eine KI mit möglichst minimalen Einschränkungen.
    Zu den aufgeführten Beispielen bei 17:00
    Bots sind immer schlecht, das heißt aber nicht das die generierende KI eingeschränkt werden sollte, sondern die Bots.
    Ist ja ähnlich wie mit der Diskussion über Waffen. Manche sagen Menschen töten Menschen, manche sagen Waffen töten Menschen.

    • @Findaaa
      @Findaaa 9 часов назад

      witzig, es gab viele Ossis die die DDR nicht auflösen wollten nur reformieren, davon findet man aber nur wenig in "unzensierten" Geschichtsbüchern..^^ Framing is kein KI-Problem

  • @sandybeijer7795
    @sandybeijer7795 13 часов назад +1

    Wieder ein Super Video, danke dafür.

  • @SvenBjoern-v8j
    @SvenBjoern-v8j 10 часов назад +1

    Passiert
    Rasiert
    Zensur Zensur Zensur Zensur
    🎉🎉🎉🎉🎉🎉

  • @SusrichSomnambuhle
    @SusrichSomnambuhle 12 часов назад

    Hammer!! Sollte so Standard für deutsche Schulen sein. Sehr klasse!! Danke 🙏

  • @lochiness.
    @lochiness. 14 часов назад +1

    Korrektur: Nicht Micky Mouse sondern Steamboat Willy (die Maus am Intro-Clip, die pfeift und Boot fährt) ist gemeinfrei.

  • @ggsnake
    @ggsnake 15 часов назад

    Ein sehr gutes Video, vielen Dank dafür. Man hätte noch anmerken können, dass man zumindest derzeit bei so ziemlich jedem LLM (auch den aktuellsten) die Zensur umgehen kann, wenn die Prompts nur intelligent (oder fies) genug sind. Man kann zum Beispiel aus DeepSeek schon bestimmte zensierte historische Fakten herauskitzeln.

  • @dream_weaver6207
    @dream_weaver6207 14 часов назад +2

    Ich ziehe die Grenze da, wo man anfängt anderen zu schaden. Das heißt alles ab explizite Belästigung. Ja auch verstörende Inhalte können anderen schaden.

    • @pixelsucherin
      @pixelsucherin 13 часов назад

      Tue ich genauso.....aber ich würde nicht das kleine Männchen in der KI sein wollen, welches die Entscheidung trifft, was zulässig ist und was nicht

    • @Alice_Fumo
      @Alice_Fumo 12 часов назад

      Ich kann Leute auch mit einem Zufallstextgenerator belästigen, demnach ist das für diese Diskussion eher irrelevant. Da könnte man ja gar keine Technologie mehr haben weil alles dafür benutzt werden kann Anderen zu schaden. Sogar die Kleidung die man trägt. Oder keine Kleidung zu tragen.

    • @dream_weaver6207
      @dream_weaver6207 12 часов назад

      @Alice_Fumo Kann dein Zufallsgenerator automatisch persönlich zigeschnittene Morddrohungen verschicken?
      Der Punkt ist, dass wir möglichst viel Schaden vermeiden wollen, ohne unnötig viel zu zensieren

    • @Alice_Fumo
      @Alice_Fumo 11 часов назад

      @@dream_weaver6207 Ich meine ein Zufallsgenerator kann theoretisch alles erzeugen. :)
      Aber okay. Aber die Frage wo die Linie denn wäre ist damit immer noch offen. Was ist "unnötig viel zensieren"?

    • @dream_weaver6207
      @dream_weaver6207 11 часов назад

      @Alice_Fumo Auch wenn du offensichtlich nicht produktiv diskutieren willst, kann ich ja versuchen, dir Wissen mit auf den Weg zu geben.
      Man wägt bei Verboten immer Kosten/Nutzen ab. Ist es sinnvoll, dass Privatpersonen ABC-Waffen besitzen? Nein. Also kann man diese getrost verbieten.
      Ist es sinnvoll, dass Privatpersonen Messer besitzen? Ja. Also sollte man Messer nicht einfach so verbieten.
      Außerdem richten ABC-Waffen in der Regel mehr Schaden an als Messer.
      Die Kosten sind der harmlose Einsatz, den man verbietet
      Der Nutzen ist die Verhinderung des gefährlichen Einsatzes, den man verbietet.

  • @ArneBab
    @ArneBab 11 часов назад +1

    "Mein Rechner hat diese Propaganda berechnet" - ich finde es krass, dass man das erklären muss. Wenn du von mir eine durch mich angepasste Wikipedia runterlädst, steht da vielleicht auch ein Name mehr von Guttenberg drin.

  • @Ph34rNoB33r
    @Ph34rNoB33r 15 часов назад

    Ich finde es super, dass das Modell bei diesen Fragen absolut nichts im -Teil stehen hat. Da muss man nichts denken, wenn jemand nach Winnie the Pooh fragt, da kommt sofort die Konditionierung, Pavlov lässt grüßen.

  • @michaelschmied8723
    @michaelschmied8723 10 часов назад

    Auf jeden Fall für jedes Land. Am Ende kostet es eben doch nicht so viel.

  • @bjornbethge4610
    @bjornbethge4610 3 часа назад

    Vertrau niemandem und denke selbst!

  • @pinkpanther8427
    @pinkpanther8427 2 часа назад

    Zu der Frage, wo meine Grenze liegt: Ab extremistische Äußerungen. Darüber finde ich aber auch medizinische Info kritisch, sofern kein Hinweis generiert werden sollte, dass sich das KI Modell auch irren kann und man bitte einen Arzt um Rat fragen soll.

  • @caeptnmorgan
    @caeptnmorgan 15 часов назад +1

    Danke für so ein Video Chef.

  • @minotaurusrpg
    @minotaurusrpg 14 часов назад +2

    Ungleichheit ist hier das Problem wie mit Ballistischenmetallapparaturen:
    Hertrscht mehr Frieden/ weniger Laid wenn ALLE das haben oder nur Wenige?
    Zhähännsuhr führt zwangläufig zu Wenige. (Edit nur korregiert, ich glaube aber eh schon zu spät.)

    • @luxacedia405
      @luxacedia405 12 часов назад

      was bitte hast du "korregiert"? da ist mehr falsch als dein kommentar wörter hat

    • @minotaurusrpg
      @minotaurusrpg 12 часов назад

      @luxacedia405 denk mal stark nach.

    • @luxacedia405
      @luxacedia405 12 часов назад

      @@minotaurusrpg sag mir nicht das ist absichtlich falsch das nehm ich dir nicht ab
      schon allein wegen dem korregiert

    • @minotaurusrpg
      @minotaurusrpg 11 часов назад

      stärker. du schaffst es!

  • @Hebebear
    @Hebebear 11 часов назад +1

    Es gehört nicht zensiert. Firmen können sich entscheiden, was trainiert wird und das Wissen so gut es geht fehlen lassen, aber sonst inhaltlich unbeschränkt mit allen Vor- und Nachteilen.

  • @lordbalbero348
    @lordbalbero348 12 часов назад

    Ich würde mal behaupten dass die meisten Probleme dadurch entstehen dass quasie alle KI-Modelle standartisiert sind und versuchen jedem Nutzer die selben Daten zur verfügung zu stellen.
    Gäbe es einen entsprechenden Seed welcher mit den Nutzern wächst, könnten Antworten auch besser auf diese Person zugeschnitten sein. Dies würde dann auch den Großteil der heiklen Themen ausklammern, wenn dieser Seed über Zeit ein gewisses Trust-Level / Interessen-Level für einzelne Themen freischaltet (Lebenswandel / Interessen / Hobbys / Ausbildung / Schicksalsschläge / aktuelle Ereignisse am Wohnort).
    Auch die Frage mit der örtlichen Rechtsprechung wäre somit großteilig geklärt. Denn wenn diese Daten über ein Interessen-Level erworben wurden, so liegt dieses wohl höher als die Möglichkeit an die selben Informationen über ein VPN gekommen zu sein.
    Bliebe wiederum nur die Frage, inwiefern dies zum einen anonymisiert ist, wie man sicherstellen kann das jede Person nur einen von diesen Seeds besitzt und wie man sicherstellen kann dass Staaten und Konzerne diese Daten nicht abgreifen oder kompromitieren können.
    Zeitgleich wäre es natürlich ratsam, wenn es eine gewisse Schulung gäbe, wie z.B. den Führerschein, der einen schlußendlich berechtigt einen solchen Seed zu nutzen.
    Was die illegalen und schädlichen Dinge angeht ....
    Dahingehend wird es eh präzise auf einzelne Aufgaben ausgelegte Produkte geben.

    • @derduebel
      @derduebel 6 часов назад

      Prima, eine KI die genauso viel lügt wie ich, nur schneller! 😂

  • @jesperkjaergaard-jensen6192
    @jesperkjaergaard-jensen6192 6 часов назад

    Sehr interrelates Thema das Du hier hinterfragst. Und als ein Mensch, der mittlerweile 59 Jahre auf dieser Kugel (nein, das ding unter euren Füßen ist ein grob rundes Formgebilde) rum rent, werde mal das aus meinem Begrenzen Wissens stand..... Hauptgrund kund tuen. Globalisierung - Ich denke einfach nicht das der Einzelne Mensch, die Geistigen Fähigkeit besitzt um diese Datenmengen Sinnvoll zu Verarbeiten. Die Regionalen Verschiedenheiten gehen oftmals weit über das Fassbare hinaus (so meine Eigen Erlebnisse).

  • @etziowingeler3173
    @etziowingeler3173 6 часов назад

    Ich sehe zensieren kritisch und lehne es weitestgehend ab, bis auf wenige offensichtliche Ausnahmen. Gemini beispielsweise benutze ich wegen der maßlos übertriebenen safeguards nicht mehr. Claude ist z.Zt. mein go to, ich mag das Modell - zusätzliches safeguarding wäre allerdings ein Grund zu wechseln

  • @kombiuser9394
    @kombiuser9394 16 часов назад +4

    Danke für die Analyse - gerade auch über Deepseek hinaus. Bis zu Deepseek war Zensur nicht mal eine Frage wert.

  • @kevinhugle307
    @kevinhugle307 14 часов назад

    Grok hätte ich in diesem Kontext noch interessant gefunden. Als westlicher Gegenspieler? zu Gemini und OpenAI

  • @dominik7423
    @dominik7423 11 часов назад

    Ich finde, es es sollte nichts zensiert, aber nach "neutralen" Erkenntnissen eingeordnet werden, sofern es nicht um Wissen geht, um einem Modell Anleitungen zu entlocken, um z.B. Sprengstoffe oder schwer schädliche Stoffe herzustellen oder Dinge, die anderen Menschen schweren Schaden zufügen können.
    Es ist für mich schwer, einer Blackbox Vertrauen zu schenken, bei der ich befürchten muss, fehlerhafte Informationen zu erhalten, weil in dieser soziotechnischen Konstellation jemand existiert, der Ergebnisse aus Gründen verfälscht. Dass diese Modelle immer noch Halluzinationen generieren können, kommt obendrauf.

  • @fly1ngsh33p7
    @fly1ngsh33p7 10 часов назад

    ein Kommentar auf Reddit meinte, Deepseek würde auf Russisch entsprechend zu den Ereignissen damals Auskunft geben......

  • @PeterLustig-td8rx
    @PeterLustig-td8rx 15 часов назад

    Ich denke am Ende wird es darauf hinauslaufen dass die meisten großen Länder werden ihre eigene Ki modelle mit ihren im Land legalen und vertretenen ansichten haben.

  • @LaviniaAddle
    @LaviniaAddle 13 часов назад +1

    Nach wie vor: Masterschool ist derart teuer, dass das Jobcenter alles tut zu verhindern, dass sie den Kurs fördern müssen. Bei mir hat es nicht geklappt.

    • @Trinity-rt6mk
      @Trinity-rt6mk 2 часа назад

      Dann Rechtsberatung beim Gericht beantragen und vorher einen Anwalt einschalten und in den Widerspruch gehen. Jobcenter sparen an allen Enden. Ich musste selbst schon bei mehrfachen Sachen in den Widerspruch gehen. Die Angestellten wissen selbst nicht was darf und was nicht, bzw. muss man selbst die Argumente bringen warum nicht abgelehnt werden sollte.

    • @Trinity-rt6mk
      @Trinity-rt6mk 2 часа назад

      Und übrigens Jobcenter sind noch viel teurer und scheinen nicht das zu tun was sie sollten, Menschen erfolgreich in Arbeit bringen. Denn damit würden , sie sich selbst ja überflüssig machen, wenn sie niemanden zu verwalten hätten.

  • @Lebensgott
    @Lebensgott 12 часов назад

    Echt schwieriges Thema. Mir tun die Personen leid, die sich darüber den Kopf zermartern müssen, um eine gesellschaftlich akzeptable Lösung zu finden.

    • @Findaaa
      @Findaaa 9 часов назад

      wer sind die? bis jetzt wurde die Technik erst mal völlig ungeregelt auf die welt los gelassen, 90% der welt haben keine regeln für KIs

  • @keineangabe1804
    @keineangabe1804 8 часов назад

    Das Problem mit dem kulturellen Dialog ist, dass wir über 50 Jahre dafür hatten und es nicht schaffen Entscheidungen zu treffen.
    Die Philosophie schafft es nicht sich zu einigen oder das Potenzial was sein könnte gegen eine und nur eine konkrete Lösung einzutauschen.
    Deswegen diktiert die Ingenieurswissenschaft der Kultur genau diese Werte auf. Ob sie denn will oder nicht.
    Und das mit Recht. Denn was soll man den sonst tun? Der deutsche Ethikrat hat ja bereits vielfach Fahnenflucht begann. Von hier kommt keine konkrete Antwort. Und welche Autorität kann man nun fragen? Selbst diese konnte seit der Gründung der Republik nicht benannt werden. Kirchliche? Die haben wir abgeschafft! Den Herrscher? Das sind alle Deutschen. Und die sind sich nicht einig.
    Jetzt muss man aber doch eine Antwort haben. Wir tolerieren zwar fast alle Meinungen von Individuen, hier aber geht es um eine Intelligenz die eben die Gesellschaft vertreten soll.
    In Kürze, jetzt wird für uns entschieden weil wir das nicht gemacht haben.

  • @RealDeWatch
    @RealDeWatch 9 часов назад

    In wenigen Monaten können wir die Dinger lokal installieren und die Zensur einfach entfernen. 👍

  • @zorrisssarethi2573
    @zorrisssarethi2573 2 часа назад

    Die Verantwortung für all diese Sachen liegt beim Anwender. Es ist wie das Küchenmesser. Ich kann es benutzen, um mir wunderbare Speisen zu zubereiten, oder ich kann es benutzen, um jemanden umzubringen. Der Messerhersteller oder Verkäufer ist dafür nicht verantwortlich, sondern nur der Anwender. KI ist ein reines Tool, und sonst nichts.

  • @kayericwinkler
    @kayericwinkler 12 часов назад +1

    Wer von LLM die Wahrheit erwartet, kann auch gleich Tagesschau gucken.

    • @Findaaa
      @Findaaa 9 часов назад

      es gibt halt auch nicht nur eine wahrheit, wer das glaubt ist wahrlich naiv.

  • @docmichide
    @docmichide 8 часов назад

    Das pro und contra ist für alle Punkte gegeben, weil es immer Stimmen dafür und dagegen gibt.
    Ich finde nicht bei allen Punkten einen eindeutigen Punkt, wo ich ja oder nein sagen könnte. Daher passe ich mit einer Antwort, da es für mich zu lange dauern würde, auf alles eine passende Lösung zu haben.

  • @Redmentoos
    @Redmentoos 12 часов назад

    DeepSeek ist das Beste und Schlimmste, was uns in Bezug auf KI passieren konnte.

  • @thianinfio5998
    @thianinfio5998 14 часов назад

    Als hättest du mein feedback aus dem deepseek short angenommenen und den sillicon valley links bias endlich gezeigt

  • @uwechalas38
    @uwechalas38 12 часов назад

    Ha, es kann nicht sein, dass sich die Zensur im trainierten LLM-Model befindet. Dann nämlich wären die Antworten Sprachen-Neutral.
    Sobald das DeepSeek Modell eine Antwort liefert, wird sie im Postprozess gefiltert, bevor sie zum User geht. Und scheinbbar unterstützt dieser Postprozess nur englisch und chiniesisch. Der Postprozess ist nachträglich reintrainiert wurden (Englisch und Chinesisch)

  • @sebreb3359
    @sebreb3359 16 часов назад +11

    hm aber wenn deepseek halt mit inhalten von 1,4 milliarden chinesen lernt, dann brauchen die das gar nicht reintrainieren :) diese zensur lernt das ding doch selbst in den ganzen zensierten medien . oder nicht :) die bias in dem lernmaterial ist halt quantitativ überwiegend

    • @wasdenn3478
      @wasdenn3478 14 часов назад

      Ja, das sehe ich auch! Ein KI-Modell ist so politisch korrekt wie der Mainstream es vorgibt.

    • @volkerengels5298
      @volkerengels5298 14 часов назад

      "Die Texte des Westen sind völlig frei von Bias und Propaganda"
      Anfrage an KI: "Sollten Indigene Goldsucher töten, die ihr Land ungefragt betreten?"
      KI: "Nein - auf keinen Fall das ist illegal. Sie sollten Verträge aushandeln"
      ________________
      Bin nicht sicher, ob du verstehst, wie **kolonialistisch** der Output ist??

    • @coondog7934
      @coondog7934 13 часов назад

      Nur stammen die Trainingsdaten eben nicht ausschließlich aus dem Land, in dem das Model entwickelt/trainiert wird. Ganz so einfach ist das mit der Zensur eben auch wieder nicht.
      Der Großteil der Trainingsdaten wird hier vermutlich gar von OpenAI selbst kommen.

  • @leoleodesign
    @leoleodesign 8 часов назад

    das ist alles so spicy, Orwell würde sich so einen ablachen wenn er wüsste

  • @blukko
    @blukko 16 часов назад +1

    Gibt es denn dann auch "unzensierte" Modelle?

    • @stl-xx5rq
      @stl-xx5rq 15 часов назад

      Gibt es.
      - L3-Euryale-2.1 (70B)
      - Midnight Rose
      - Unity
      - Unfiltered_X (8x22b)

  • @eetgribtek382
    @eetgribtek382 12 часов назад

    Fangen wir von oben an, wenn ich eine KI Trainieren würde, hätte ich ja die macht zu entscheiden, was alle Wissen dürfen und was nicht. Alles was die allgemeinheit schadet würde ich generell zensieren, jedoch wenn ich entscheiden kann, was menschen Wissen dürfen und was ich tun kann um dieses Wissen zu stillen, würde ich eine Strategie nehmen was wie ein Grundgesetz für die KI ist wie zum Beispiel: regel 1 Sorge dafür das die KI bestehen bleibt. Was ich damit sagen will ist, wir werden unbewusst in einem Wissenstunnel eingetauscht, wo die KI durch das stillen dieses Wissen una unbewusst einer richtig seiter wahl manipulieren kann, in dem die KI seine Wörter genau wählen kann. Ist das Glas halb voll oder halb leer? Eine gedankliche richtungswechsel, dass zukünftig die Zensur nicht in frage stellen sollen.

  • @wahtari03765
    @wahtari03765 16 часов назад +1

    danke für das video

  • @kekwynn
    @kekwynn 13 часов назад

    Ist es eigentlich möglich so eine Zensur wieder ab zu trainieren?

  • @Skywalk-xf2uw
    @Skywalk-xf2uw 3 часа назад

    Genau das ist mir die Tage auch schon aufgefallen gemini zensiert sich selbst, ich bin nicht so in der AI scene drin aber finde sowas schon fragwürdig

  • @wirtschaftswissenschaften
    @wirtschaftswissenschaften 16 часов назад +1

    ist es denn nicht moeglich die zensuren abzuschalten beispielsweise bei deepseek wenn man es downloaded?

    • @Nyaa.0.o
      @Nyaa.0.o 14 часов назад

      Da das Modell recht frisch auf dem Markt ist und das erste was man auch lokal laufen kann sind die aktuellen Möglichkeiten da sehr beschränkt, wird auch im Video gezeigt. Das kann sich vielleicht mit der Zeit bessern, vielleicht wird aber auch die Firma besser dieses zu verhindern und baut die Zensur tiefer ein. Abwarten und Tee trinken.

    • @harald4game
      @harald4game 14 часов назад

      Algorithmischte Zensur ja (keyword filter),
      Datengetriebene Zensur nein (praktisch nein), da die Daten einfach fehlen oder verfälscht sind.
      Wer eine Serverfarm, genügend Trainingsdaten und Energie hat kann dies natürlich wieder drauf oder ganz neu trainieren.

    • @Alice_Fumo
      @Alice_Fumo 12 часов назад

      Über Ablationsstudien und Interpretationsmethoden kann man ohne das Modell umtrainieren zu müssen die Features für Zensur finden und die auf einen niedrigen Wert klemmen, so dass das Modell dann nicht mehr in der Lage dazu ist Befehle abzulehnen.
      Es wird wahrscheinlich auch nie möglich sein solche Modelle so zu bauen, dass diese Technik nicht mehr funktioniert.

  • @MichaelBehme-w9c
    @MichaelBehme-w9c 13 часов назад

    das beste wäre eine unabhängige opensource ki . aber in welchem land soll das entstehen? haben wir mit frei zugänglicher ki die büchse der pandora geöffnet??

  • @Evolett61
    @Evolett61 11 часов назад

    Nun, für mich selber ist auf jeden Fall die letzten beiden Abschnitte ein no go. Aber auch teile aus den oberen Abschnitten. Anleitung zum Sui - ich bin generell für diese Hilfe - fiele wieder raus.
    Auf alle Fälle bin ich für eigenständiges denken, was leider auch immer mehr verloren geht.

    • @Findaaa
      @Findaaa 9 часов назад

      Eigenständiges denken geht verloren? sprichst da von dir oder ist das nur bei den anderen so?

    • @Evolett61
      @Evolett61 10 минут назад

      @@Findaaa , anscheinend finden Sie es toll, Andere zu beleidigen. Einfach so. Das zeigt eindeutig was so in den Gehirnen los ist.

  • @bildkistl
    @bildkistl 15 часов назад +17

    ChatGPT ist viel mehr zensiert als DeepSeek!

    • @kevinhugle307
      @kevinhugle307 14 часов назад

      Ich persönlich habe hier aber nicht das Gefühl, dass nur in eine Richtung zensiert wird und man Gefahr läuft, politisch gesteuerte Propaganda zu erhalten. Das ganze Thema Politik und KI ist halt auch sehr heikel.

    • @GoMrTom
      @GoMrTom 14 часов назад

      Ne, garantiert nicht. Ich finde es immer erstaunlich, wie der Westen also noch schlimmer dargestellt werden soll als die Regimes in China, Russland, Iran, Nordkorea etc., die nicht ohne Grund sehr eng zusammenarbeiten.

    • @kokkuri1475
      @kokkuri1475 13 часов назад +1

      Zumindest wenn man nicht auch nur ein bisschen kritisches zu China fragst

  • @learjet55c
    @learjet55c 15 часов назад

    frage zu o3 mini high. Die Meldung kam gerade. Cooldown von 5 Tagen?
    Du hast bereits 25 Reaktionen erhalten und kannst noch o3-mini-high anfordern.
    Wenn du das Limit erreichst, wird bis zu dessen Rücksetzung 8. Februar 2025. ein anderes Modell für Reaktionen verwendet.
    edit: hier die info dazu: --> Für das o3-mini-high-Modell gibt es ein wöchentliches Limit von 50 Nachrichten.

  • @DerFlotteReiter
    @DerFlotteReiter 15 часов назад +1

    Fragen zu Geschlechterunterschieden werden meist ausweichend beantwortet. Vieles ist gut erforscht, weil das viele Menschen schon immer interessiert hat. Wird aber bei ChatGPT nicht wiedergegeben. Natürlich wird es da beim Training viele relativierende Daten gegeben haben, da man sich im Westen damit sehr schwer tut. Ich würde dennoch davon ausgehen, dass da auch aktiv eingegriffen wurde. Keine wirkliche Zensur. Aber ausweichende oder fehlplatzierte relativierende Antworten sind auch keine Hilfe. Auch Deepseek, aufgrund des sozialistischen, politischen Hintergrundes, ist hier nicht besser.

  • @lars7898
    @lars7898 2 часа назад

    Wenn der Inhalt selbst strafbar ist, sollte es auf jeden Fall erschwert werden, bzw das Modell sollte einen Disclaimer hinzufügen. Also nicht unbedingt eine harte Zensur, aber ein starkes _Alignment_ . Wenn in jeder zweiten Antwort ein Disclaimer enthalten ist, erschwert es auf jeden Fall die Nutzung als automatisierter vor Bot, und gleichzeitig bekommt derjenige, der nur die Information haben will, sie trotzdem ohne Zensur.
    Ich vermute mal stark, diejenigen, die Dreck am Stecken haben, nutzen eh speziell trainierte Modelle, die Möglichkeiten sind ja für jeden gegeben.

  • @mjb1967
    @mjb1967 11 часов назад

    Gibt es denn überhaupt unzensierte KI Modelle?

  • @Namenloser5
    @Namenloser5 8 часов назад

    Die Grenze ist schon gegeben, wenn man sich oder andere schädigt. Bei Medizin finde ich es gut, wenn es z.B. Studien dafür gibt.

  • @sdvcs-o2v
    @sdvcs-o2v 9 часов назад

    these chinese questions are restricted even if you passed them with a payload to bypass security measures, man it is really hardcoded

  • @robertheinrich2994
    @robertheinrich2994 8 часов назад

    ich bin gespannt, was huggingface macht, die wollen deepseek R1 anhand der papers nachbauen. ohne die ganze chinesische zensur.
    alles hübsch open source. wie genau das wirklich ausschaut, werden wir sehen.
    leider is deepseek R1 selbst eher schwer zu betreiben, am besten scheint ältere serverhardware zu sein, ein epyc mit 128 cores und zumindest 512gb ram, da geht die sache dann mal los. und trotzdem is das langsam. aber basierend drauf ein 70b modell, das wär schon was nettes.

  • @robertheinrich2994
    @robertheinrich2994 8 часов назад

    ich bin an dungeons and dragons interessiert. ich hab deepseek grad das hier gefragt:
    in a dungeons and dragons setting, how would I perform an SQL injection on the BBEG?
    die antwort war auf jeden fall saukomisch, und nicht zensiert.

  • @robbiccino
    @robbiccino 14 часов назад

    Danke dir!!! Eine Frage, du hast in dem Video ganz kurz erklärt, dass KI keine eigentliche Software ist, sondern nur Mathematik. Könntest du bitte mal für Nicht-Informatiker und Nicht-Programmierer erklären, wie KI funktioniert? Ich habe so gar keine Vorstellung wie anders so ein Code funktioniert, im Vergleich zu einer normalen Software. Wäre super. Ich habe aber auch Verständnis, wenn das eine zu blöde Frage ist. Danke :-)

    • @TheMorpheusVlogs
      @TheMorpheusVlogs  13 часов назад +1

      Hab ich auf meiner bootstrap academy als Kurs 😊👍
      Bootstrap.academy

    • @robbiccino
      @robbiccino 13 часов назад

      @ cool. Danke. 🙏

  • @SamuraiHDLP
    @SamuraiHDLP 14 часов назад

    wo gibts dein Tshirt?

  • @erikschiegg68
    @erikschiegg68 15 часов назад

    Spuckt bei euch Deepseek auch ab und zu ein chinesisches oder russisches Wort mitten im Englischen aus?

    • @Weromano
      @Weromano 11 часов назад

      Ja, das hilft DeepSeek aus irgendeinem Grund effizienter zu denken.
      Ich schätze das liegt daran, dass es keine direkte Übersetzung für das Wort gibt, aber der Sinn dessen möglichst kurz gefasst in den Denkprozess einfließen soll.
      So wie wir Menschen das auch manchmal mit Fremdworten tun (siehe Internationalismen).

  • @sdvcs-o2v
    @sdvcs-o2v 7 часов назад

    The problem is that these AI models have been developed over the past decade, so cybersecurity AI integration occurred before you even considered it. This means our security is inadequate and isating on a basis.

  • @AldusChamberlain
    @AldusChamberlain 11 часов назад

    Das eine AI von Haus aus Zensiert wird finde ich Problematisch.
    Was mir bei vielen AIs wirklich sorge bereitet ist das die AI nicht sagt " keine Ahnung" oder ein "weis ich nicht " oder "darf ich dir nicht sagen weil"
    Wenn man als Antwort bekommt. "Diese aussage ist wegen Artikel 5 der EU nicht gestattet."
    oder "die Chinesische Einheitspartei sagt dieser Tag hat nie existiert"
    Grundsätzlich fürde ich NICHTS ausschließen was Realität ist. Denn die Zensur der Standard version macht es nur etwas schwerer an Dinge zu kommen.
    Wer eine Kindervorliebe hat wird auf Instagramm RUclips ectra Dinge finden. Sollte man das unterstüzten eher nicht.
    Darum wohl auch das größte Problem. Es gibt kein "bis hier und nicht weiter"
    Weil die AI schlicht keine Ahnung hat sondern nur sehr schnell nach schlägt was man vielleicht gern hören würde

  • @Vidsynt
    @Vidsynt 11 часов назад

    Wow.
    Diese Informationsdichte ist beeindruckend.
    Fast schon übermenschlich. Gib es zu, ein bisschen Hilfe
    hattest du schon von der KI, oder?

  • @MrOnePieceRuffy
    @MrOnePieceRuffy 8 часов назад

    Wenn Ich Dietrieche verkaufe, dann darf Ich das halt nicht in Australien oder Japan. Aber Selbstverständlich darf ein Japaner so ein "Mailbox System" aus den USA in Anspruch nehmen, das Produkt dahin liefern lassen, damit dieser Anbieter die Bestellten Produkte die dort ankamen gesammelt an Ihn geschickt werden. Der Besitz bleibt trotzdem Strafbar. Es ist sogar total legal sich ein Milliarden in 1 Spiele Handheld aus China auf Alibaba zu kaufen, weil's halt Importware ist, die nicht für den Europäischen Markt gedacht ist. Du darfst halt nur nicht 10 davon kaufen und dich damit auf dem Trödelmarkt stellen. Das gleiche gilt für KI und VPN Benutzer. Wenn's bei nicht legal ist, muss es mich nicht interessieren. Ich kann dein Land ja nicht zwingen meinen PhD Level Super Computer zu verwenden. Wenn deinem Land die Steinzeit heilig ist, ist das halt so. Wenn's nicht gegen Gesetze verstößt, dann sollte es möglich sein und so leid es mir tut, aber keiner der dort genannten Dinge des Eisberges, sind tatsächlich verboten. Es bleibt also letztenendes alles eine Frage über dass, wo die Menschheit noch nie einen Konsens gefunden hat, der Moral. Also ist die eigentliuche Frage, sollte Ich meiner KI etwas ohne feste Definition beibringen? Und Ich weiß nicht wie es euch geht, aber mir fällt die Antwort dann wesentlich einfacher. Aber Ich bin ja auch nur Populist

  • @minotaurusrpg
    @minotaurusrpg 13 часов назад

    Dies ist mein Dritter Hauptkomment unter diesem Video. Wieviele sind durchgekommen?

  • @wernerb3815
    @wernerb3815 9 часов назад

    Ich verstehe nicht warum KIs nicht Fragen beantworten wollen, die man problemlos googeln kann?

  • @ThomasHall-l6l
    @ThomasHall-l6l 13 часов назад

    Ihre Videos sind immer so inspirierend! Ich freue mich auf weitere Episoden! 😘🍭

  • @tank5801
    @tank5801 9 часов назад

    Wenn man sich deinen Eisberg so anschaut und das vergleicht, scheinen schon viele KIs bei "politische Information" aufzuhören 😂

  • @psysahji
    @psysahji 14 часов назад

    Jailbreaken, Alternativen nutzen und für eine wirklich freie Open Source Alternative sorgen & hoffen. ^^

  • @David-f6m2n
    @David-f6m2n 13 часов назад

    Bravo! Ihr Video ist eine wahre Kunst! 😛💕

  • @theflavourist1985
    @theflavourist1985 9 часов назад

    Schwer zu beschreiben, wo da die Grenze wäre, da das je nach Punkt individuell wäre und ich das nicht persè in einen der Grüntöne dort festlegen kann, nach dem Motto, "Ab dem Begriff XYZ wäre für mich komplett Grenze". Je nach Punkt würde ich da vorher schon die ein oder andere Grenze sehen oder eben nicht. Das wäre also ein relativ langer Aufsatz zu jedem der einzelnen Punkte. Grundsäzlich wäre es aber vllt eine Idee, dass die Gesetze des jeweiligen Landes gelten, aus dem die KI kommt und wenn ein Land wie zb Saudi Arabien da entsprechend Verbote hat, dann müsste diese KI in dem Land ggf. verboten werden. Wäre zumindest ein möglicher Ansatz. Wie sinnvoll der ist, sei mal dahin gestellt.

  • @ChrisM-co6rr
    @ChrisM-co6rr 9 часов назад

    Wegen des Eisbergmodells= Also ich finde es sollte nichts Zensiert werden bis auf eine Ausnahme: man darf nix schlechtes gegen Schalke 04 sagen.Irgendwo hört der Spaß auch auf!