Open Source ChatGPT zu Hause betreiben?

Поделиться
HTML-код
  • Опубликовано: 2 ноя 2024

Комментарии • 20

  • @ei23de
    @ei23de  Год назад

    Hier nochmal ein großes Update Video zu diesem Thema: ruclips.net/video/wQckybJpioc/видео.html

  • @ei23de
    @ei23de  Год назад +1

    Rund um LLMs (LargeLanguageModel) finden gerade extrem viele und schnelle Entwicklungen statt und ein Video wie dieses gilt nach wenigen Wochen (natürlich) als veraltet.
    Stark im Zentrum ist da bei LLaMa, das LLM von Meta, welches prinzipiell jeder bekommen kann - darauf basierende Projekte wie Alpaca, Vicuna, FreedomGPT haben in kürzester Zeit erstaunliche Ergebnisse präsentiert. Tatsächlich sogar lauffähig auf einem Raspberry Pi (wenn auch langsam)
    Wichtige Schlagwörter sind hier "Finetuning" und "Delta Weights".
    So ist es bereits jetzt (vor ein paar Wochen noch kaum vorstellbar) einfach und günstig möglich - beispielsweise mit Nebuly auf Basis von LLaMa - eigene speziell angepasste Sprachmodelle zu erstellen.
    Spannend!

  • @danielneu9136
    @danielneu9136 Год назад +1

    sehr starkes video

  • @alex82479
    @alex82479 Год назад +2

    Ich bezweifle, dass Mozilla die finanziellen Mittel hat so eine KI zu entwickeln. OpenAi arbeitet bereits seit Jahren daran und wird mit Milliarden von Microsoft und co gefördert. Mozilla schon jetzt mit ihren Finanz zu kämpfen, was man an der Massenkündigung vor einigen Jahren gesehen hat.
    Dazu wird chargpt bald in wahrscheinlich kostenfrei in Bing integriert.

    • @ei23de
      @ei23de  Год назад

      Mag sein.
      Mozilla hat ja sein DeepSpeech Programm auch eingestampft.

  • @maltethehutt4498
    @maltethehutt4498 Год назад

    ChatGPT war mir in der letzten Zeit auch ne gute Unterstützung aber ich würde jetzt ungern ein überteuertes Abbonement dafür abschließen. Eine Version für den gebrauch auf eigenen Geräten wäre da sehr interessant.

    • @lenardkaestner421
      @lenardkaestner421 Год назад

      Für eine Antwort mit ungefähr 300 Wörter ca 2 Dollar/Cent. Das finde ich noch Okay. Auch wenn man häufig mehrere Antworten benötigt.

    • @ei23de
      @ei23de  Год назад +2

      pay per use wäre für mich auch völlig okay, denn auch Open Source ist NIE kostenlos! Jedoch wäre es auch schön, wenn es ein offenes Modell geben würde, wo man prüfen kann was mit Eingaben passiert, wie Modelle angepasst werden, welcher Datensatz genutzt wurde etc.
      Aber sobald es exklusiv bei Microsoft, Google, Apple oder sonst wem liegt...
      Komplette Blackbox -.-

  • @bernharddichtl9710
    @bernharddichtl9710 Год назад

    spannend! danke dir

  • @jms00
    @jms00 Год назад

    Wenn ich ein chatGPT hosten will, dann will ich es auch mit meinen eigenen Daten und Sourcen trainieren!

    • @ei23de
      @ei23de  Год назад

      Ein LLM privat zu trainieren wird teuer, ist aber auch nicht nötig.
      Es reicht ja das Finetuning mit eigenen Daten und das ist bereits jetzt (vor ein paar Wochen noch kaum vorstellbar) einfach und günstig möglich - beispielsweise mit Nebuly auf Basis von LLaMa.
      Was gerade rund um LLaMa (Alpaca, Vicuna, FreedomGPT) passiert ist sowieso sehr spannend.

    • @jms00
      @jms00 Год назад

      @@ei23de ich dachte eigentlich dass chatGPT aus zwei Teilen besteht: der Sprach-KI und den Fakten. Die SprachKI will ich natürlich nicht neu trainieren.

    • @jms00
      @jms00 Год назад

      @@ei23de also llama ist das Sprachmodell von Meta und chatllama ist das Chat-Interface von Nebuly?

  • @LinkEX
    @LinkEX Год назад

    9:20 Denke auch, das Google aktuell noch nach Möglichkeiten zur Monetarisierung sucht, und die Ergebnisse mit ihren großen Datensätzen nicht zufriedenstellend im Griff hat.
    Aus großer Macht folgt große Verantwortung, könnte man sagen.

  • @SezginRuhi
    @SezginRuhi Год назад

    Danke