Was ist ChatGPT und wie funktioniert es? - Und welche ähnlichen Tools gibt es?

Поделиться
HTML-код
  • Опубликовано: 27 янв 2025

Комментарии • 39

  • @Giastice
    @Giastice Год назад +6

    Danke für den Beitrag. Wieso ist Prof. Weßels nicht unsere Digitalisierungsministerin frage ich mich gerade!!!!

    • @botten4187
      @botten4187 Год назад

      Weil Minister in erster Linie Manager sind, und keine Experten. So ein Ministerium ist ja keine One-Man Show. Die haben dann Experten, die dort arbeiten und die Minister beraten, Gesetze ausarbeiten usw.
      Minister haben da die Aufgabe das alles zu koordinieren und die Entscheidungen des Parlaments auf ihren Verwaltungsapparat zu übertragen

  • @DavidLohner
    @DavidLohner 2 года назад +1

    Sehr ausführlich! Vor allem der Teil zum technischen Hintergrund von #ChatGPT ist sehr sehenswert (ab 00:16:33): im Grunde ist ChatGPT reine Statistik. Trotzdem kann es meines Erachtens nach ein wertvolles Werkzeug sein (ist Statistik ja auch in vielen Bereichen).

    • @HybridHumaan
      @HybridHumaan Год назад

      Es ist Statistik, aber eben nicht reine Statistik.

  • @josefinahd3245
    @josefinahd3245 Год назад

    Nach dem was ich verstanden habe basiert die GPT auf Datensammlung. Womit sie gefüttert wurde, spuckt diese als Antwort aus. Um "Qualität" als Antworten zu erhalten, müsste man diese mit öffentlich anerkannten Lehrbüchern füttern um öffentlich anerkannte Antworten zu erhalten. Dies ist mit E-books leicht gemacht, ansonsten mit viel Arbeit verbunden. Und das wird sich dann KI nennen wobei derjenige abkassiert der sich nicht die Arbeit mit der Fütterung gemacht hat.

  • @gehwissen3975
    @gehwissen3975 2 года назад +1

    Vielleicht hab ich das mit dem Würfeln nicht richtig verstanden.
    Beispiel: "Noten dürfen nicht gewürfelt sein"
    Ich denke, das "Würfeln" hat damit zu tun, dass es zu einem gegebenen Sachverhalt, eine Menge möglicher Sätze gibt.
    Hier entsteht mir der Eindruck "KI würfelt"
    Das kann nicht gemeint sein....?

    • @DavidLohner
      @DavidLohner 2 года назад +1

      Die KI "würfelt" insofern, dass sie nicht ganze Sätze formuliert. Sie gibt ein Wort aus, das nach bestimmten Parametern statistisch plausibel ist. Diese Aussagen sind aber nicht immer korrekt. Wenn in den Trainingsdaten bestimmte Wortkombinationen häufig vorkommen, gelten diese als statistisch relevant/plausibel. Am Beispiel von Texten über deutsche Politik wird das deutlich: Wenn die meisten Texte von einer BundeskanzlerIN sprechen (was ja den meisten der letzten 20 Jahren korrekt war), wird die KI das Wort "Bundeskanzlerin" als plausibler als "Bundeskanzler" einstufen. So entstehen "zufällige" Wortaneinanderreihungen, die aber sinnvoll erscheinen, weil in den meisten Texten (Trainingsdaten) eben diese Kombinationen vorkommen. Dennoch ist eine Wortkombination (in diesem Beispiel zur Zeit) falsch, wenn sie sich auf die aktuelle Regierung beziehen würde. Die Trainingsdaten haben also einen massiven Einfluss auf die Ausgabe des Sprachmodells (chatGPT).
      Es gibt aber noch zahlreiche weitere Parameter, die diese Large Language Models viel komplexer machen, als dieses eine Beispiel zu zeigen vermag.

    • @patrickg8013
      @patrickg8013 Год назад

      Die generierten Wortkombinationen sind kein reines Zufallsprodukt, das ist klar. Nichtsdestotrotz basiert ein entscheidender Teil des Algorithmus auf "Zufall" bzw., genauer, einem Zufallsgenerator. Wenn ich das richtig verstanden habe: Der Algorithmus bildet mittels eines Zufallsgenerators eine Wortkombination, nur greift er dabei auf eine statistisch eingegrenzte Vorauswahl zurück, welche anhand der "Trainingsdaten" immer genauer festgelegt wird.
      "Training" bedeutet insbesondere auch: Die Eingangsdaten werden von Menschen angelegt und kategorisiert, die Ausgangsdaten bzw. Ergebnisse und Ziele des Algorithmus werden von Menschen definiert, überprüft und ausgewertet, bis man dann irgendwann über genügend ausgereifte Trainingsdaten verfügt und wiederholt Daten ausgegeben werden, die auf andere Menschen plausibel wirken oder eben sinnvoll erscheinen.
      Die damit in Zusammenhang stehende menschliche Arbeit sowie Arbeitsbedingungen von "Clickworkern" aus z.B. Kenia werden dabei auch oft übersehen. All diese Zusammenhänge verlieren sich hinter dem Science-Fiction-lastigen Framing, welches solche Algorithmen als scheinbar eigenständige "Neuronale Netze" bezeichnet und Vergleiche mit den synaptischen Verbindungen im menschlichen Gehirn ins Spiel bringt. Rhetorik. Hinter dem Schall und Rauch von ChatGPT und Co. verbergen sich allerdings, nüchtern betrachtet, vor allem Streamlining-Tools für Big Data. Deswegen sind wohl auch Wirtschaft und Werbeindustrie stark an der Erforschung dieser Thematik interessiert.

    • @amirreza1052
      @amirreza1052 Год назад

      Das Schaubild ist falsch, GPT 3 basiert auf einen Decoder-only Architektur und nicht auf einen Encoder

  • @21stcenturyscots
    @21stcenturyscots Год назад +1

    Doris Weßels
    Warum sollte eine KI keine Bücher schreiben?
    Wenn man die teilweise sehr schlechten Veröffentlichung Ihrer akademischen Kollegen betrachtet, ist das doch mehr als wünschenswert.

    • @dghd_info
      @dghd_info  Год назад +1

      Doris Weßels führt aus, dass Bücher, die von KI geschrieben werden vielfältige Diskussionen lostreten (werden), da insbesondere (Urheber-)rechtliche Fragen neu ausdiskutiert werden: ruclips.net/video/cMuBo_rH15c/видео.html
      Was die Kritik an wissenschaftlichen Publikationen der „Kollegen“ betrifft: hier wäre für eine konstruktive Diskussion ein konkretes Beispiel hilfreich. In der Regel ist der Prozess für die Veröffentlichung von Fachartikeln oder Büchern in der Wissenschaft so organisiert, dass es eine (wie auch immer geartete, in einigen Fällen sicher auch diskutable) Qualitätskontrolle gibt.

  • @tomtom2806
    @tomtom2806 Год назад

    Ich habe ChatGTP gebeten, einen Artikel über die Düsseldorfer Malerschule zu schreiben. Das Resultat war eine Katastrophe. Neben recht allgemeinen Aussagen stellte ChatGTP die falsche Behauptung auf, dass Max Lieberman (sic!), Lovis Corinth und Emil Nolde Absolventen der Düsseldorfer Malerschule waren.

    • @HybridHumaan
      @HybridHumaan Год назад

      ChatGPT kann nicht auf das Internet zugreifen um Informationen über die Malerschule zu bekommen. In solchen Situationen haluziniert es dann gerne.

  • @josefinahd3245
    @josefinahd3245 Год назад

    Den Beitrag finde ich sehr informativ, die Technik aber unbefriedigend. Viel Lob und Erwartung für etwas derzeit mangelhaftes. Unter Betracht der Sugestion des Zwecks und der jetzigen wie auch zukünftigen Daten, befürchte ich dass die Benutzer wie bei den meinungsbildenden Medien nur damit gefüttert werden was diesen durch diese Technik erlaubt wird zu erfahren. Dass die Naturwissenschaften dabei derzeit im System fehlen wundert mich nicht und anbetracht dessen gegenwärtigen Wertes an den Universitäten darf man auch gerne darauf verzichten wenn sich die gegenwärtige Situation diesbezüglich nicht ändern sollte.

  • @gehwissen3975
    @gehwissen3975 2 года назад +1

    Wenn die Lehre daran denkt das Lernen unter diesen neuen Bedingungen zu reformieren... ..dann kann man vermuten, dass das zu langsam und konservativ wird.

    • @boohoo5419
      @boohoo5419 Год назад +1

      zumal dieser ganze beitrag ja einfach nur zeigt wie weltfremd solche institutionen sind. als hätte mir meine oma versucht machine learning zu erklären aber es selbst nur grob verstanden. den gezeigten kram kriegt selbst ne fachfremde ZDF reporterin zusammengetragen!

    • @gehwissen3975
      @gehwissen3975 Год назад

      @@boohoo5419 Die Sendung ist sowas von Deuttsch🤣🤣🤣🤣
      Allein die Diskussionen darüber, ob das Ding jetzt wirklich intelligent ist....
      Die Diskussionen in den USA zum Thema sind auf einem anderen Niveau.
      AI ist wirtschaftlich und sozial und politisch eine H-Bombe
      Der Krieg Google /\ Microsoft zeigt das doch deutlich.
      EGAL wer gewinnt - die Menschen verlieren.
      OpenAI verkauft ChatGPT jetzt auch in BRD für $20.
      Und das ist erst der Anfang. GPT4 wartet schon....

  • @db7752
    @db7752 Год назад

    Die Klausur wurde mit einer 4 bewertet. In der Schweiz(ca.5% der Deutschsprachler) ist 6 die beste Note. Könnte ChatGPT bei der Bewertung eine Mischrechnung gemacht haben?

  • @Claudia-yd3dd
    @Claudia-yd3dd Год назад

    Ich wünsche mir, dass Chat-GPD Rechtsanwendung kann, also juristische Fälle lösen kann. Wer macht mit? An wen kann ich mich wenden?

    • @alexanderdrechsel6858
      @alexanderdrechsel6858 Год назад

      Kann ich gut verstehen. Aber wird es nicht geben, da die deutsche Rechtssprechung das verbietet. Nur ein Mensch darf Urteile fällen. Also müsstest du erstmal die Rechtsgrundlage ändern. Lawgeex hat ja schon vor 5 Jahren die Rechtsanwälte alt aussehen lassen, weil es NDAs deutlich akurater und vor allem sehr viel schneller als der beste Mensch prüfen konnte.

    • @Claudia-yd3dd
      @Claudia-yd3dd Год назад

      @@alexanderdrechsel6858 Zuerst: vielen Dank für die Antwort. Ich meinte jetzt nicht Urteile fällen, also die Aufgabe eines Gerichts wahrnehmen. Sondern auf einer viel früheren Stufe anfangen, beispielsweise die Subsumtion einfachster Paragraphen, also was mit Worten in einem Paragraph gemeint ist, also zuerst die Definition der Tatbestandsmerkmale einer Rechtsnorm. Dann einen Lebenssachverhalt schildern und die KI prüft, was da rechtlich vorliegt. Ich bin wirklich dankbar für weitere Hinweise u Erklärungen. Die Standards im deutschen Recht sind immer gleich. Und sie laufen nach Schema F täglich zig mal in Juristen-Hirnen ab.

    • @Claudia-yd3dd
      @Claudia-yd3dd Год назад

      @@alexanderdrechsel6858 1. Es geht nicht um Urteile, sondern um die Lösung von juristischen Sachverhalten. 2. Wo bitte schön steht im Gesetz, dass nur Menschen urteilen können? Also Richter*Innen Menschen sein müssen. Bitte Rechtsnorm für diese Aussage nennen.

    • @alexanderdrechsel6858
      @alexanderdrechsel6858 Год назад

      @@Claudia-yd3dd zu 2) kurze Google Suche ergibt: Gemäß Art. 92 Hs. 1 GG ist die rechtsprechende Gewalt „den Richtern“ anvertraut. Die Norm beinhaltet ein personales und ein institutionelles Element. Daraus folgt zum einen, dass die Rechtsprechung von natürlichen Personen ausgeübt werden muss (personales Element) und sie als öffentliche Aufgabe in ihrer Hand liegen muss (institutionelles Element). und 1) ich denke es wird nur eine Frage der Zeit sein, bis KI hier als Werkzeug eingesetzt wird.

    • @Claudia-yd3dd
      @Claudia-yd3dd Год назад +1

      @@alexanderdrechsel6858 Lieber Alexander, danke für deine Antwort und dein Bemühen obzwar sie unter 2) falsch ist. Weder die Rechtsprechung, wie du zuerst ausführtest, noch irgendeine Rechtsnorm schreibt vor, dass Rechtsprechung von natürlichen Personen ausgeübt werden muss. Ich finde diesen Punkt im Stadium, in dem wir uns aktuell befinden nicht wichtig, vielmehr bin ich wirklich an Rechtsanwendung interessiert, die von KI erledigt wird und dafür suche ich Leute, die das umsetzen wollen; also Experten sowohl im Bereich der KI als auch Jurist*innen. Es muss doch irgendjemand geben, der daran arbeitet.

  • @claus7555
    @claus7555 Год назад

    Müllwerker ist demnächst einer der sichersten Jobs kann man annehmen...

  • @friedrichjunzt
    @friedrichjunzt 2 года назад

    Ich warte nur darauf, bis die ersten Schüler kapiert haben, dass sie nur ein paar Stichworte aneinanderreihen müssen, damit sie bei den "KI"-Algorithmen Höchstnoten kassieren! Klappt ja bei Bewerbungen auch: Die Parser schauen nur, dass die Stichworte der Stellenausschreibung vorkommen, also kommt der Bewerber durch, der einfach die Stellenausschreibung reinkopiert...

    • @DavidLohner
      @DavidLohner 2 года назад +7

      Ich warte nur darauf, bis die ersten Lehrer:innen kapiert haben, dass sie nur ein paar aneinandergereihte Stichworte abfragen, wenn sie beim alten Konzept "Prüfung" bleiben. ;-)
      Im Ernst: Die Diskussionen rund um ChatGPT und Konsorten führen uns vor Augen, dass wir insbesondere im Bildungsbereich ernsthaft darüber nachdenken, *was* und *wie* wir lernen/prüfen (wollen). Es gibt keine einfache oder schnelle Antwort darauf - gleichzeitig können wir nicht wirklich warten und ewig und drei Tage diskutieren. Informationsveranstaltungen wie die hier aufgezeichnete sind der erste Schritt. Aufklärungsarbeit ist wichtig, wenn wir alle Beteiligten (Lernende UND Lehrende) mitnehmen wollen.

    • @boohoo5419
      @boohoo5419 Год назад

      @@DavidLohner da die KIs auch groben unfug erzählen muss man zumindest so viel ahnung vom gebiet haben das man das ergebnis noch verfizieren kann. selbst mit ki würde somit der lerneffekt nicht ausbleiben. wenn ich selbst nicht weiß was multiplizieren bedeutet dann kann ich auch schlecht ne KI danach fragen.