Rund um LLMs (LargeLanguageModel) finden gerade extrem viele und schnelle Entwicklungen statt und ein Video wie dieses gilt nach wenigen Wochen (natürlich) als veraltet. Stark im Zentrum ist da bei LLaMa, das LLM von Meta, welches prinzipiell jeder bekommen kann - darauf basierende Projekte wie Alpaca, Vicuna, FreedomGPT haben in kürzester Zeit erstaunliche Ergebnisse präsentiert. Tatsächlich sogar lauffähig auf einem Raspberry Pi (wenn auch langsam) Wichtige Schlagwörter sind hier "Finetuning" und "Delta Weights". So ist es bereits jetzt (vor ein paar Wochen noch kaum vorstellbar) einfach und günstig möglich - beispielsweise mit Nebuly auf Basis von LLaMa - eigene speziell angepasste Sprachmodelle zu erstellen. Spannend!
Ich bezweifle, dass Mozilla die finanziellen Mittel hat so eine KI zu entwickeln. OpenAi arbeitet bereits seit Jahren daran und wird mit Milliarden von Microsoft und co gefördert. Mozilla schon jetzt mit ihren Finanz zu kämpfen, was man an der Massenkündigung vor einigen Jahren gesehen hat. Dazu wird chargpt bald in wahrscheinlich kostenfrei in Bing integriert.
ChatGPT war mir in der letzten Zeit auch ne gute Unterstützung aber ich würde jetzt ungern ein überteuertes Abbonement dafür abschließen. Eine Version für den gebrauch auf eigenen Geräten wäre da sehr interessant.
pay per use wäre für mich auch völlig okay, denn auch Open Source ist NIE kostenlos! Jedoch wäre es auch schön, wenn es ein offenes Modell geben würde, wo man prüfen kann was mit Eingaben passiert, wie Modelle angepasst werden, welcher Datensatz genutzt wurde etc. Aber sobald es exklusiv bei Microsoft, Google, Apple oder sonst wem liegt... Komplette Blackbox -.-
Ein LLM privat zu trainieren wird teuer, ist aber auch nicht nötig. Es reicht ja das Finetuning mit eigenen Daten und das ist bereits jetzt (vor ein paar Wochen noch kaum vorstellbar) einfach und günstig möglich - beispielsweise mit Nebuly auf Basis von LLaMa. Was gerade rund um LLaMa (Alpaca, Vicuna, FreedomGPT) passiert ist sowieso sehr spannend.
@@ei23de ich dachte eigentlich dass chatGPT aus zwei Teilen besteht: der Sprach-KI und den Fakten. Die SprachKI will ich natürlich nicht neu trainieren.
9:20 Denke auch, das Google aktuell noch nach Möglichkeiten zur Monetarisierung sucht, und die Ergebnisse mit ihren großen Datensätzen nicht zufriedenstellend im Griff hat. Aus großer Macht folgt große Verantwortung, könnte man sagen.
Hier nochmal ein großes Update Video zu diesem Thema: ruclips.net/video/wQckybJpioc/видео.html
Rund um LLMs (LargeLanguageModel) finden gerade extrem viele und schnelle Entwicklungen statt und ein Video wie dieses gilt nach wenigen Wochen (natürlich) als veraltet.
Stark im Zentrum ist da bei LLaMa, das LLM von Meta, welches prinzipiell jeder bekommen kann - darauf basierende Projekte wie Alpaca, Vicuna, FreedomGPT haben in kürzester Zeit erstaunliche Ergebnisse präsentiert. Tatsächlich sogar lauffähig auf einem Raspberry Pi (wenn auch langsam)
Wichtige Schlagwörter sind hier "Finetuning" und "Delta Weights".
So ist es bereits jetzt (vor ein paar Wochen noch kaum vorstellbar) einfach und günstig möglich - beispielsweise mit Nebuly auf Basis von LLaMa - eigene speziell angepasste Sprachmodelle zu erstellen.
Spannend!
🎉
sehr starkes video
Ich bezweifle, dass Mozilla die finanziellen Mittel hat so eine KI zu entwickeln. OpenAi arbeitet bereits seit Jahren daran und wird mit Milliarden von Microsoft und co gefördert. Mozilla schon jetzt mit ihren Finanz zu kämpfen, was man an der Massenkündigung vor einigen Jahren gesehen hat.
Dazu wird chargpt bald in wahrscheinlich kostenfrei in Bing integriert.
Mag sein.
Mozilla hat ja sein DeepSpeech Programm auch eingestampft.
ChatGPT war mir in der letzten Zeit auch ne gute Unterstützung aber ich würde jetzt ungern ein überteuertes Abbonement dafür abschließen. Eine Version für den gebrauch auf eigenen Geräten wäre da sehr interessant.
Für eine Antwort mit ungefähr 300 Wörter ca 2 Dollar/Cent. Das finde ich noch Okay. Auch wenn man häufig mehrere Antworten benötigt.
pay per use wäre für mich auch völlig okay, denn auch Open Source ist NIE kostenlos! Jedoch wäre es auch schön, wenn es ein offenes Modell geben würde, wo man prüfen kann was mit Eingaben passiert, wie Modelle angepasst werden, welcher Datensatz genutzt wurde etc.
Aber sobald es exklusiv bei Microsoft, Google, Apple oder sonst wem liegt...
Komplette Blackbox -.-
spannend! danke dir
Wenn ich ein chatGPT hosten will, dann will ich es auch mit meinen eigenen Daten und Sourcen trainieren!
Ein LLM privat zu trainieren wird teuer, ist aber auch nicht nötig.
Es reicht ja das Finetuning mit eigenen Daten und das ist bereits jetzt (vor ein paar Wochen noch kaum vorstellbar) einfach und günstig möglich - beispielsweise mit Nebuly auf Basis von LLaMa.
Was gerade rund um LLaMa (Alpaca, Vicuna, FreedomGPT) passiert ist sowieso sehr spannend.
@@ei23de ich dachte eigentlich dass chatGPT aus zwei Teilen besteht: der Sprach-KI und den Fakten. Die SprachKI will ich natürlich nicht neu trainieren.
@@ei23de also llama ist das Sprachmodell von Meta und chatllama ist das Chat-Interface von Nebuly?
9:20 Denke auch, das Google aktuell noch nach Möglichkeiten zur Monetarisierung sucht, und die Ergebnisse mit ihren großen Datensätzen nicht zufriedenstellend im Griff hat.
Aus großer Macht folgt große Verantwortung, könnte man sagen.
Danke
Gerne