GPT4All: Open Source AI can already keep up with ChatGPT!

Поделиться
HTML-код
  • Опубликовано: 7 июн 2023
  • Local. Free of charge. Active community. And above all, open. That sounds exciting.
    Here are the links:
    gpt4all.io/index.html
    home.nomic.ai/about
    / how-google-defeated-op...
    Self learn computer science for free on my website: bootstrap.academy/
    *All my social media portals*:
    _ bio.link/themorpheus
    Discord:
    the-morpheus.de/discord.html
    Support me - Thank you!:
    www.patreon.com/user?u=5322110
    www.paypal.me/TheMorpheus

Комментарии • 126

  • @8bitbrainz
    @8bitbrainz Год назад +49

    Es wär echt cool wenn die so nen Client programmieren würden, wo jeder seine Graka zur verfügung stellen kann um gemeinsam an nem richtig richtig guten modell zu rechnen. Würde mich glatt beteiligen.

    • @thomasspornraft2612
      @thomasspornraft2612 Год назад +14

      Sowas wie "fold at Home" damals als man Proteine berechnen konnte.

    • @blazzycrafter
      @blazzycrafter Год назад +4

      gibt es für all LLM´s nennt sich KoboldAI zumindest fürs generieren der texte

    • @fortunato1957
      @fortunato1957 Год назад +4

      @@thomasspornraft2612 Ja, oder "SETI@Home". Ich glaube, das gibt es immer noch.

    • @X4n1c
      @X4n1c Год назад +1

      yeaaa distributed computing

  • @Labtecs937
    @Labtecs937 Год назад +20

    So etwas könnte ich mir Mega gut für ein internes Firmen Wiki vorstellen. So könnte man relativ schnell an das know How kommen welches die Arbeitskollegen zusammengetragen haben ohne dabei sich selbst durch den Daten Berg wühlen zu müssen.

    • @Schorsch180
      @Schorsch180 Год назад

      sehr gute idee

    • @creytax9802
      @creytax9802 Год назад

      Kann ich mir auch sehr gut für Behörden vorstellen.

    • @AS-os3lj
      @AS-os3lj Год назад

      @@creytax9802 Behörden und Neuland... Ich glaube nicht. Die würden eine ChatGPT Fax Schnittstelle entwickeln...

  • @mrysexe
    @mrysexe Год назад +22

    Wenn man findet, dass Stable Diffusion nicht an Midjourney heran kommt, hat man nur noch nicht genug Stable Diffusion Models gesehen - change my mind

    • @Tudas
      @Tudas Год назад +1

      Also einfach aus dem Haus raus, ohne Models, Lora, Embeddings etc. ist Stable Diffusion definitiv schlechter, genauso muss man viel genauer mit dem Prompts sein (inkl. Negativer), aber mit mehr Arbeit, ist Stable Diffusion definitiv besser.

    • @lars7898
      @lars7898 Год назад +1

      Stable Diffusion kann schon ziemlich gute Ergebnisse erzielen, wenn man mit den Prompts umgehen kann. Zwischen SD1.4 und 1.5 ist auch ein ziemlicher Sprung, finde ich. Dazu kommt, dass Midjourney ja auf leistungsfähigen Servern läuft, während bei Stable Diffusion jeder mit seiner eigenen Hardware herhalten muss. Hat man wenig VRAM, muss man mit geringer Auflösung leben...

    • @mrysexe
      @mrysexe Год назад

      @@lars7898 +6GB VRAM Speicher reichen aus, um Ergebnisse, die Midjourney gleichen, zu generieren. Theoretisch würden auch +4GB VRAM ausreichen, läuft dann aber auch dem entsprechend instabil. Wenn man sich von einer KI dann einen Prompt generieren lässt und man sich minimal mit Models beschäftigt hat, kommt man auf mindestens gleich gute Ergebnisse. Midjourney ist dafür aber benutzerfreundlicher und wie du auch gesagt hast, besser für Leute mit schlechter Hardware.

    • @linux292
      @linux292 Год назад +3

      Stable Diffusion ist schon deshalb besser, weil es lokal läuft und man kostenlos unbegrenzt viele Bilder generieren kann.

  • @WollknaeuelSockenbart666
    @WollknaeuelSockenbart666 Год назад +6

    I love it. And I'm using it in my IT studies together with GPT 4. Thanks for y

  • @user-xu3so2ug1f
    @user-xu3so2ug1f Год назад +4

    open source projekte sind echt was cooles :) ich schreibe auch eigentlich allen meinen code komplett offen

  • @hobo_1616
    @hobo_1616 Год назад +5

    Mal wieder ein super informatives Video! :)
    Hast du schon von "QLoRA" gehört? Ist soweit ich es verstanden habe eine neue Technik Finetuning für LLM vorzunehmen. Das spannende hierbei ist, dass das Trainieren extrem schnell ist und daher auch mit begrenzten Resourcen realisiert werden kann.

  • @PhalzuBG
    @PhalzuBG Год назад +2

    Ich arbeite mit GPT4All schon ein paar Wochen und finde die beiden vicuna-Modelle mit Abstand am besten bisher :D

  • @valentinsipad4269
    @valentinsipad4269 Год назад +2

    So lange darauf gewartet, dass das passiert

  • @soacker264
    @soacker264 Год назад

    Spannend!

  • @damians1343
    @damians1343 Год назад +2

    haha am Ende erzählst du "man kann das ganze auch selbst trainieren" und ich denk mir, "ja geil das will ich jetzt wissen"... und Video war zu Ende :-) Aber geiles Video. Danke

  • @chaosaiart
    @chaosaiart Год назад +1

    Stable Diffusion ist weit vor Midjourney.
    Midjourney ist einfach für Neulinge. bei Stable Diffusion ist aber so viel mehr Möglich und die Ergebnisse wenn man sich auskennt sind um Welten besser. (Controlnet usw.)

  • @19OEmer
    @19OEmer Год назад +5

    Es wäre Cool wenn es ein Plugin für das deutsche Steuersystem geben würde. Das wäre eine erleichterung für viele freelancer :D

  • @ugurcanlar739
    @ugurcanlar739 Год назад +1

    Danke!

  • @rektaltotal
    @rektaltotal Год назад

    Doch, wir haben den KEY. ;) ;)

  • @Philipp..
    @Philipp.. Год назад +3

    Ich könnte mir gut vorstellen wie verschiedene spezialisierte Modelle zusammenarbeiten könnten indem sie durch ein auf Konversation spezialisiertes Modell koordiniert werden.

  • @1234minecraft5678
    @1234minecraft5678 Год назад

    Bin mal gespannt auf orca

  • @josefjohannmichel
    @josefjohannmichel Год назад +2

    ChatGPT ist auch für musikalische Kompositionen interessant, da es musicxml lesen und schreiben kann. ChatGPT ist aber im musikalischen Kompositionsbereich nicht besonders trainiert (Aussage von ChatGPT: musikalische Komposition ist schwierig, ich muss noch viel lernen). Hier wäre interessant ob GPT4all ein Möglichkeit für ein speziell auf musikalische Kompositionen trainiertes Modell wäre. Wie fragt man bei der Opensource Entwicklergemeinde an, ob sich eine Gruppe dieses Themas annehmen könnte und ein derartiges open Source Modell erstellt, dass man selber noch weiter über eigene musicxml Dateien trainieren kann.

  • @tinkerpaper
    @tinkerpaper Год назад +2

    Kannst du auch mal ein tutorial machen wo du so eine Ki programmierst und trainierst (am besten mit tensorflow)?

  • @AndreasGosch
    @AndreasGosch Год назад +2

    Moin, danke für das Video. Das geht alles schon mal in die richtige Richtung.
    Auf meinem Wunschzettel wäre aber, dass die Modelle Zugriff auf das Internet hätten, um aktuelle Recherchen durchzuführen. Genau, dass sie sich weiter personalisieren lassen. Beispiel ich wäre Hobbykoch. Dass ich die AI fragen kann welches Gemüse hat Saison, durchforste meine Umgebung nach Angeboten. Erstelle mit mir einen Ernährungsplan*** nach meinen Wünschen. Schreibe mir einen Einkaufszettel und so weiter…. Ich denke das wird früher oder später kommen.
    *** Ich füttere ihn vorher mit Informationen, wie ich bin Diabetiker, Laktoseintoleranz oder welche Lebensmittel ich nicht mag

  • @VampireSilence
    @VampireSilence Год назад

    14:50 Songtexte stelle ich mir um Bezug auf Originalität schwierig vor, denn die künstlerische Tiefe ergibt sich ja zu einem gewissen Anteil daraus, dass es etwas so in der Form eben noch NICHT gegeben hat. D.h. je größer die Abweichung von den Trainingsdaten, desto origineller ein Songtext. Und genau das wird mit dem Modell nur extrem selten passieren. Trotzdem kann natürlich auch ein weniger origineller Text unter anderen Gesichtspunkten dem Anwender gefallen.

  • @dtjanixx
    @dtjanixx Год назад +2

    du kannst ein 2. openai konto nutzen und den api key für gpt 3.5 nutzen (AutoGPT)

  • @Lauch-Melder
    @Lauch-Melder Год назад

    Puh, ich werde alt. 😂 Ich erinnere mich noch, dass ich als Kind Tage und Wochen damit verbracht habe in der Config von Logox von G-DATA Antworten auf alle möglichen Fragen zu erstellen um mich dann damit halbwegs unterhalten zu können.
    Schon interessant, wie die Technik sich über die Jahrzehnte entwickelt hat. :D

  • @aketo8082
    @aketo8082 Год назад

    Vielen Dank. Wie trainiert man den GPT4All? Kann man auch einstellen, das die GPU genutzt wird?

  • @Olaf_Schwandt
    @Olaf_Schwandt Год назад

    hi, kann man auf lokale Files zugreifen? wenn ja, wird mit den gelesenen Inhalten trainiert, somt das Modell erweitert und wird das erweiterte Netz dann abgespeichert?

  • @echtertill
    @echtertill Год назад +2

    0:33 Wenn sogar Google Schiss vor Open Source hat, ist das super... Hoffentlich wird irgendwann der Großteil der Software Open Source sein, damit man nicht mehr von großen Konzernen abhängig ist...

    • @Tudas
      @Tudas Год назад +1

      Das wäre ja schrecklich für den normalen Markt von unwissenden Leuten. Open Source klingt erstmal immer so als wäre es sicher für viele, aber gerade das ein oder andere kleine Projekt mag sich das zu nutzen machen und Schadsoftware so verbreiten, weil man denkt ja "Open Source, andere Leute überprüfen das schon!"

    • @Tri-Technology
      @Tri-Technology Год назад

      ​@@Tudas Und Support von Firmen ist in der Regel besser bei Problemen. Dafür gibt es im Open Source Bereich manchmal schneller gewünschte Features.

  • @jovankaschauder3369
    @jovankaschauder3369 Год назад +1

    Ich bin noch in der Ausbildung und lerne viel über deinen Kanal. Diesmal war Open-Source KI dran. Ich sollte sie lokal installiern und jetzt kam die Idee, , dass alle Abteilungen darauf zugreifen können über den localhost? Wie kann ich das bewerkstelligen? Geht das überhaupt?

  • @r.a.70
    @r.a.70 Год назад +5

    Wie kann man GPT4All mit eigenen Daten Futtern bzw. ein eigenes Modell dafür programmieren? Welche Schnittstellen gibt es dafür?

    • @sebastiank686
      @sebastiank686 Год назад +1

      man kann im programm ein verzeichniss angeben und der kann dann auf die enthaltenen dateien zugreifen. Aus irgendeinem Grund funktioniert das bei mir aber nicht so toll

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Год назад +2

      Japp, bei mir auch nicht. Ich glaube das ist noch nicht ganz ausgereift. Schauen wir uns asap an

    • @heinzpeterklein9383
      @heinzpeterklein9383 Год назад +1

      Genau. Wie kann man auf Basis bestehender LLMs eine eigene spezialisierte KI trainieren (auch kommerziell nutzbar!). Also ein konkretes Beispiel würde mich interessieren. Was ist mit wenig Geld möglich!?

  • @user-xu3so2ug1f
    @user-xu3so2ug1f Год назад +1

    18:45 naja dafür auch den vorteil das zensur nicht mehr so leicht umzusetzen (zb kann china leicht openai dazu zwingen das die chinesische version sagt das es keine menschenrechtsverstöße in china gibt usw.)

    • @TT-pi8ww
      @TT-pi8ww Год назад

      In China sind alle westlichen Chat/Social-Media Platformen komplett verboten. Genauso wie in Russland. OpenAI kann von deren normalen Einwohner garantiert nicht genutzt werden.

  • @larscarminke364
    @larscarminke364 Год назад +2

    Moin hab auch mit gpt4all herum gespielt . wenn models in Englisch antworten ,schreibe ich nochmal" please speak in german " dann schreibt er alles nochmal in deutsch ;).

  • @danielhofmann7126
    @danielhofmann7126 Год назад

    Die API ist bei der Pro-Variante von GPT4 inklusive.

  • @easypy
    @easypy Год назад +1

    Bleibe bei chatgpt 3 erstmal. :D

  • @benherbst3620
    @benherbst3620 Год назад +1

    4:47 Kleiner Fehler im ton, sonst sehr gutes Video, finde die KI sachen sehr interessant

  • @SchattenZirkus
    @SchattenZirkus Год назад +1

    Also mich verwirrt der Name OpenAI. Wofür steht das Open ?
    Insgeheim Wünsche ich mir sogar das GPT3-4 auch wie bei Meta… freier wird

  • @heyho130
    @heyho130 Год назад +1

    GPT 4 LIVE ❤😅

  • @mariof.1941
    @mariof.1941 Год назад

    über Azure bekommst den GPT4 key schneller... kann ich da auch Azure OpenAi nutzen ;-) ist eigentlich fast genauso nur muss man den API_Key Azure_OpenAI_ApiKey nennen

  • @thomasspornraft2612
    @thomasspornraft2612 Год назад +4

    Weisst du ob man das auf der lokalen GPU zum laufen bekommt?
    In den Docs gibts immerhin ein Tutorial wie mans auf Google Colab laufen lassen kann.
    Finde bisher das "snoozy" modell recht gut aber auf CPU ist das recht langsam und je länger der chat wird desto langsamer scheint es zu werden
    Was hadt du für ne CPU? Scheint bei dir schneller. Hab selbst Ryzen 3900x

    • @8bitbrainz
      @8bitbrainz Год назад +2

      Hay ich hab mich nicht eingehend damit beschäftigt, aber auf meinem Steamdeck gehts sogar recht fix. Dachte daher, die Grafikeinheit wurde genutzt. Scheint auch so als sei die Oberfläche mit DirectX oder so, weil ich die Werte eingeblendet bekommen hab a la Steamdecktools (so wie rivatuner) Alsooo ich hab trotzdem keine Ahnung.
      EDIT:
      Oh und iwie war die CPU auslastung nur auf 40% aber bei meinem 24 kerner alles auf 100% das war echt komisch. Oder ich habs das nur geträumt.. hm ne ich bin so verwirrt.

    • @zwixx259
      @zwixx259 Год назад +1

      Probier mal die Threads hochzusetzen in deinen Einstellungen. Bei mir hat er irgendwas nicht ordentlich erkannt und meine CPU war gerade mal zu 20% ausgelastet bei der Berechnung.

    • @thomasspornraft2612
      @thomasspornraft2612 Год назад

      @@zwixx259 hab schon 24 Thread am start und die laufen alle auf 100%
      Vielleicht bin ich auch nur zu ungeduldig. zuviel Bard und ChatGPT genutzt 😂

    • @8bitbrainz
      @8bitbrainz Год назад +1

      Nö habs grad nochmal getestet. Es werden halt wirklich einfach nur die 8 Threads von der CPU genutzt und das scheint echt auszureichen. (bzw das ist auchdas einzige was das steamdeck zu liefern hat) Davor hab ich es auf nem kleinen Laptop mit nur 4 Kernen (und threads) getestet wo es wirklich sehr sehr langsam war. Da waren allerdings 12 GB ram verbaut. Beim Steamdeck jedoch 16 (wo aber (custom value) der Graka gehören (in dem fall 4 gb))... Hab aber ein anderes Programm verwendet. Da war das mit dem RAM management noch anders. Kurz gesagt: Auch das Steamdeck benutzt nicht die Grafikeinheit und es ist wirklich subjektiv wie schnell die Wörter errechnet werden.. Sorry dafür .-. Ich fand es für ein Handheldgerät echt schnell, weil ich diesen lahmen Laptop gewohnt war. Die endgültige Frage bleibt: Warum hat mein Hauptrechner 100% und errechnet das schnell, jedoch hat mein Steamdeck auch ne recht schnelle rechenzeit- ist aber währenddessen nur auf 40--50%!? Wenn unser guter Herr Morpheus will, dann schick ich ein paar benchmarks und Videobeweise nach. Auch wenn ich voll falsch liege, ich will hier nur Testergebnisse liefern.

  • @chrishonesscheid1399
    @chrishonesscheid1399 Год назад +1

    Danke dir für die info.
    Aber kannst du vllt noch ein installierungsvideo hochladen?
    Weil gpt4all mir grade eine möglichkeit zur verknüpfung bietet. Und da noch weitere interessante aspekte sind die ich gerne erklärt bekommen hätte😅

    • @Hotte1967
      @Hotte1967 11 месяцев назад

      Für mich wäre interessant wie ich chatgpt sage, dass die Models einen anderen Pfad haben.

  • @augustinaugustein5748
    @augustinaugustein5748 Год назад +2

    Wirklich interessante Videos. Hast einen neuen Zuschauer gewonnen.
    Gibt es denn überhaupt schon eine (kostenlose) KI, Modelle, Möglichkeiten für vollkommene DAU’s sich kleine Hilfsprogramme in Python schreiben zu lassen, so Kram wie nach individuellen Vorgaben und Vorlieben mal Verzeichnisse aufräumen zu lassen oder Lesezeichen in PDF Dateien erstellen zu lassen wo die nicht verfügbaren Originaldokumente leider kein Inhaltsverzeichnis hatten und so Tüddelkram wo man auch nicht ohne weiteres Programme findet weil’s sich gar nicht lohnt so was als Programmierer raus zu hauen? Habe mal ChatGPT 3.5 und Bard gefragt weil ich gerade so einen Haufen PDF’s ohne Lesezeichen habe und das Lernen abends auf dem Tablet ohne Lesezeichen einfach nervt, aber das wurde nix. Viel Code, nur Fehlermeldungen, keine Lesezeichen.

    • @OmegaOctagonTesseract
      @OmegaOctagonTesseract Год назад

      *_"...weil’s sich gar nicht lohnt so was als Programmierer raus zu hauen?"_*
      Was?
      Jeder mit ner 'Hacker-Seele', schreibt sich solche Sachen doch selber, um sich die 'Routinearbeit' zu erleichtern...
      Ich hab es 'damals' gemacht, ... und vor einiger Zeit, in nem Video von 'Halbzwilling'(glaub ich) gesehen, das es andere wohl auch machen...
      Das müsste halt nur irgendwo hochgeladen werden, bzw. müsste man wissen wo man so Etwas findet,
      für genau solche Fälle wie deinen, u/o meinen, in anderen Bereichen...
      Aber man kann noch so viel 'potenzielles Talent' haben,
      ohne 'Autodidakt' zu sein, wie in meinem Fall, und der DAU-Version bzgl. Google u co,
      ist man einfach aufgeschmissen...
      Und Programmierer wie Mathematiker sind ja eingebildet wie nichts gutes,
      mit *_ganz wenigen Ausnahmen_* wie ich einen in 'Morpheus' vermute.
      Und um nochmal auf das von dir zitierte zurückzukommen...
      Als ich 'damals' im Forum des 'Q-Basic Cafe' unterwegs war, hab ich mir uA sogenannte 'Kochbücher' runtergeladen, die im Grunde ein Sammelsurium an 'Fingerübungen' und 'Alltags-Routinen' darstellten wie zB. das '99 Bottles of Beer' (glaub ich hieß das).
      Und ich versuche hier nur Etwas anzustoßen, falls Jemand mitliest, und versteht was ich meine, und dir damit hilft,
      weil ich denke das es doch heute Etwas gleiches Derart geben *_'muss'_* . . . !?!
      Auf 'GitHub' zB. ... ?
      Gruß

  • @Splicher
    @Splicher Год назад

    Jahre stimmt schon. Ich hab irgendwie 2021 nen Testzugang zu ner ChatKI bekommen. K.p. obs von OpenAI war oder nicht. Funktionierte auch damals schon recht ok, aber schlechter als die LLMs in GPT4ALL. Denke mal in nem halben Jahr hat die OpenSource Szene ChatGPT überholt

    • @Tudas
      @Tudas Год назад +1

      Sehr unwahrscheinlich, dass da OpenAI überholt wird.

  • @XTR734
    @XTR734 Год назад

    Ich bekomme es unter Linux leider nicht installiert😒
    und unter Windows ist es leider kaum nutzbar mit meinen betagten PC

  • @Velioris
    @Velioris 9 месяцев назад

    😁

  • @xxxxTripplexxxx
    @xxxxTripplexxxx Год назад +2

    Der Vergleich ist aber sowieso nicht gerade fair. Da Chat GPT-3.5 ja über 175 Milliarden Parameter hat und das Snoozy-Modell 13 Milliarden. Aber das Geile ist ja, allein durch Feintuning lässt sich extrem viel Leistung herausholen. Das Ganze wird in den nächsten Monaten und Jahren so geil werden.

  • @raphaelsteffes4492
    @raphaelsteffes4492 11 месяцев назад

    Kannst du ein Video zum thema Traing machen? ich Würde gerne LLama 2 7B auf Klingonisch trainieren

  • @LuciusTSuperbus
    @LuciusTSuperbus Год назад +1

    Ich fände es schon ganz praktisch, wenn das ganze von meiner Grafikkarte berechnet würde. Oder meinetwegen irgendwie so ein Hybrid-Ding, wenn sowas realisierbar ist, einfach zur Entlastung der CPU. Auch, wenn das ein Unter-/Mittelklassemodell der letzten Generation mit ganzen 8GB ist, hätte ich da trotzdem mehr Hoffnung, was die Leistung betrifft. Am Ende könnte der System-RAM mit 32GB dann zusätzlich genutzt werden, falls der Grafikspeicher nicht mehr ausreichen würde. Auch, wenn der wahrscheinlich der größte Schrott ist, den man kriegen kann (hab damals beim Zusammenbau als Laie halt nur Crucial, wegen guter Erfahrungen, und große Kapazität im Kopf gehabt und mich nicht groß weiter informiert), wären zumindest große Teile der Berechnung auf die Grafikkarte ausgelagert. Und wenn ich sehe, wie allein dieser GPT4All-Hub beim Verschieben ruckelt, als wäre ich mit Windows 10 auf einem Rechner aus 2010 unterwegs, habe ich für die Gen 10 Midrange CPU nicht mehr allzu große Hoffnung, dass da wirklich was läuft, sobald tatsächliche Leistung gefordert wird.

  • @lexbach
    @lexbach Год назад

    Kann ich diese Modelle auch für meine eigene App nutzen? D.h. Meine Apps mit API-Schlüssel von diesen Modellen verbinden?

  • @chatgpt4free
    @chatgpt4free Год назад

    Ich hab GPT4All ausprobiert und installiert. Ging soweit alles, aber dann ist mir bei einem Update fast der ganze Mac abgeschmiert und ich musste das Ding wieder runterwerfen. Schade eigentlich war aber ein schwerwiegender Bug, dessen Risiko ich nicht eingehen wollte.

  • @t-i-m1673
    @t-i-m1673 Год назад

    Und wie trainiert man jetzt seine eigene ki

  • @MrAli-dx9tb
    @MrAli-dx9tb Год назад

    GPT 4 funktioniert bei mir irgendwie nicht gibt nur error

  • @T_aus_B_an_der_Spree
    @T_aus_B_an_der_Spree Год назад

    Das mit dem Key verstehe ich nicht. Das ging bei mir sofort. Habe das mal für AgentGPT eingerichtet. Aber überzeugt hat mich was da raus gekommen ist mal so überhaupt gar nicht

  • @lucienferenczy4897
    @lucienferenczy4897 Год назад

    Also Vicuna 13B ist momentan das beste model.

  • @nilszimmermann7102
    @nilszimmermann7102 Год назад +1

    Wie viel CPU hast du auf diesem PC? Ich habe einen 16 GB RAM Laptop und groovy braucht teilweise 25 Minuten für eine Antwort. Danke!

  • @r.a.70
    @r.a.70 Год назад

    Mich würde sehr interessieren, wie ich GPT4All mit eigenen Daten futtern kann, damit es GPT4All aus diesen Daten lernt. Geht das überhaupt oder muss man dafür programmieren? Wenn ja, wie kann man so ein Modell programmieren? Vielen lieben Dank im Voraus für die Antworten.

  • @musil63
    @musil63 Год назад

    Ich rate dazu jedes Model mal zu laden und dann zu schauen wie schnell sie antworten und vor allen Dingen wie umfangreich die Antwort ist und wieviel von dem Geschwafel auch noch verwendbar ist. Was bringt einen der ganze zensierte Käse ? Ja nix. Bei den Tests auf meinen eher durchnschittlichen Rechner, Lenovo ThinkStation P500 hatte ich da die besten Erlebnisse mit den Modellen "nous-gpt4-vicuna-13b" und "vicuna-13b-1.1-q4_2". Inzwischen gibt es auch FreedomGPT mit den Modellen LLAMA und ALPACA. Aber so richtig alltagsfähig kann man noch nichts von den GPT Desktop Versionen bezeichnet. Am meißten stinkt mir, das man das belehrende Gelaber nicht abschalten kann. Das ist ungefähr so sinnvoll als wenn man vor der Benutzung einer Flachzange die allgemeinen Geschäftsbedingungen durchlesen muss. Es gibr eine Gesetzeslage. Also was soll der Käse mit den ständigen Belehrungen dann ?

  • @creytax9802
    @creytax9802 Год назад +1

    Lol hab nach 15 Sekunden das Video gestoppt, um diesen Kommentar zu verfassen, weil mich der Einspieler abgeholt hat! :D

  • @ORDER1510
    @ORDER1510 Год назад

    Die Schwarminteligenz der Gommunitys ist unschlagbar, hädd i x8

  • @stephankempa6914
    @stephankempa6914 Год назад

    Kannst du nicht mal ein Video machen, das zeigt, wie man ein LLM einigermassen schnell auf einem Raspberry zum laufen bekommt? Die ganzen Dinge, die zur Zeit rauskommen, brauchen trotzdem schon hefftige Hardware. Ein 7b model braucht auf meiner alten Kiste schon fast 1 Minute zum antworten. Das Ziel wäre kleine Hardware, aber trotzdem lokale model, die auch funzen.

    • @Tri-Technology
      @Tri-Technology Год назад

      Derzeit braucht das einfach zu viel Rechenleistung, wenn man vernünftige Antworten haben will oder eben extrem ausgefeilte Software, die sowas auf kleinen Geräten möglich macht aber dafür bezahlt man derzeit halt noch gut Geld bzw. behalten die großen Firmen für sich.

  • @user-xu3so2ug1f
    @user-xu3so2ug1f Год назад +1

    btw im hintergrund dieser linkedin tab nervt ein wenig weil der die ganze zeit den titel ändert xD

  • @blank_35m
    @blank_35m Год назад

    gibt das schon als docker version ?

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Год назад +1

      Leider nein 🥲 aber Llama gab's als docker. Ist etwas weiter vorne in der Playlist

    • @blank_35m
      @blank_35m Год назад

      @@TheMorpheusTutorials ja hab ich schon geteset lauft nicht auf meine synology leider

  • @integeroverflowexception
    @integeroverflowexception Год назад +1

    418 I'm a teapot

  • @karisch8472
    @karisch8472 Год назад

    Wird GPT4all auch von euch aufm PC geblockt ? Win 10

    • @linux292
      @linux292 Год назад +1

      Nö. Tuxedo OS.

  • @RainerK.
    @RainerK. Год назад

    Da sind einige Sprünge im Ton. War das so gewollt? :D InstALLA klingt schrecklich. Es heisst InstOHLER.

  • @olis936
    @olis936 Год назад

    "OPENSOURCE" 😂

  • @TT-pi8ww
    @TT-pi8ww Год назад

    ist das eigentlich Zufall das du hier oft die gleichen Themen behandelst wie Keno von c't3003, oder arbeitet ihr irgendwie zusammen?

  • @azmo_
    @azmo_ Год назад

    Was ist sein "anderer" Kanal?

  • @Reiner_Markenfreund
    @Reiner_Markenfreund Год назад

    ·

  • @Game_Lab_Germany
    @Game_Lab_Germany Год назад

    Erstmal OpenSource tätowieren lassen ö.ö

  • @lucamaximilian632
    @lucamaximilian632 Год назад

    Hallo Morpheus, ich habe soeben Chatgpt gefragt, wer denn the morpheus tutorials ist und bekam dabei die antwort, dass es sich um einen RUclips Kanal von Florian Dalwigk handelt. Umgekehrt wenn ich nach florian dalwigk frage wird ueber den kanal the morpheus tutorials berichtet. Waere vielleicht auch interessant fuer ein video und ein gutes Beispiel dafuer, das AIs auch falschliegen koennen. Du koenntest auch analysieren warum chatgpt diesen fehler macht

  • @ismbeatz
    @ismbeatz Год назад

    nicht mal annähernd kann gpt4all mithalten

  • @milesmules
    @milesmules Год назад

    tf this guy talking about😂

  • @Sapoinho
    @Sapoinho Год назад

    I don't know why, anyway, improvement .... Sprich englisch oder deutsch, entscheide dich und entspanne dich. Zur Sache: GPT4all ist noch Welten entfernt von der Qualität, die ChatGPT liefert. Die meisten Modelle sind nicht brauchbar, man braucht viel Geduld, bekommt immer wieder gar nichts oder Hallos zurück. Snoozy oder Vicuna. B. sind zwar beeindruckend aber nicht vergleichbar mit ChatGPT. Das ist eine andere Liga, du implizierst mit dem Clickbait-Titel, dass GPT4all mit seinen Modellen an ChatGPT herankommt. Dem ist definitiv noch nicht so.

  • @arturschulz6190
    @arturschulz6190 Год назад

    Was los, Krise? Burnout? Machst nen bisel irren eindruck😅
    Chill mal, alles wird gut😄

  • @tnaplastic2182
    @tnaplastic2182 Год назад

    Du solltest German learnen...!😮

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Год назад +1

      Na wenn das dein größtes Problem ist, ist ja gut 😊👍

    • @tnaplastic2182
      @tnaplastic2182 Год назад +1

      @@TheMorpheusTutorials Come on... Findest du nicht, dass du manchmal Englisch "overused"? Erinnert mich irgendwie an Otto und Englisch für Fortgeschrittene (English for Runaways), ohne es böse zu meinen...!

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  Год назад +2

      Stimmt schon, aber das passiert vermutlich, wenn man 80% Englisch liest oder spricht. Ich finde es bei mir nicht so übertrieben, aber ich versuche drauf zu achten

    • @tnaplastic2182
      @tnaplastic2182 Год назад

      @@TheMorpheusTutorials Ich kenne das Problem. Ich baue seit über 20 Jahren die Homebrew-Szene mit auf (speziell PS2-Sparte)... Da das eine internationale Kooperation ist, ist der Kontakt da auch Englisch.
      Ich finde es sehr gut, dass du versuchen möchtest etwas darauf zu achten.
      Die heutige Generation (Englisch gelesen xD) versteht das schon, aber da gibt es noch old-schooler und dann auch schlicht und einfach alte Leute... Alte Noobs sozusagen...!

    • @beka7989
      @beka7989 Год назад

      ​​@@tnaplastic2182 nein das hat weniger mit Oldschool etc. zu tun, sondern mehr mit Kulturgut. Es gibt Wörter wie Internet, die sich halt durchgesetzt haben, aber es gibt noch Wörter in den verschiedenen Sprachen, welche nicht obligatory mit englichen Begriffen unnötig ersetzt werden brauchen, total unnecessary! Das Deutsch, aber auch jede andere Sprache mit englichen Begriffen verunstlatet werden sollte.
      Speak Englisch, ose fol tjetër gjuh si për shembull shqip, hablamos en espanol, no problemo, aber bitte nicht Sprachen mit Englisch mehr mixen als nötig. Meine Mutter- und Vatersprache sind albanisch, trotzdem muss ich zusehen wie "ur-Deutsche" die eigene Sprache freiwillig aus Lust daran "verenglischen". Da hätte ich mir Deutsch lernen sparen können, gleich englisch, in Mülleimer mit Goethes Sprache. Es gibt auf jeden Fall Wörter, welche gerne genutzt werden, die nicht gut übersetzbar sind, cool, kosher, halal, haram, mashallah, sind ins deutsche schlecht übersetzbar, aber manche Begriffe haben sehr gute deutsche Pandants, da kommen sich manche Online-Aktivisten, aber auch Lehrer, Manager, Politiker bis zum Kanzler womöglich "cool" vor statt Heimbüro "homeoffice" zu sagen (muss das h groß geschrieben werden oher breibt es wie im englischen kleines h?). Oder statt Arbeitamt "Jobcenter", und mehr Verunstaltungen der Sprache, die sogar von höchsten Ämtern betrieben wird...
      Besonders nervig wird das ganze, den nicht Deutschen für Aufenthalt, Einbürgerung, etc. Deutsche Sprache aufzuzwingen, aber Politiker sagen mit gewissem Stolz "homeoffice", da könnt ich solchen hypocrite Politikern ein Bürotisch in die amerikanische Fresse klatschen. Totengräber sind weniger die Zuwanderer, wir scheinen Goethes Erbe mehr zu Beschützen als die Eliten des Landes... übrigens habe ich freiwillig in einer AG im Gymnasium Sütterlin lesen und schreiben gelernt, 90% der Deutschen:"was ist das denn?" 😂

  • @tnaplastic2182
    @tnaplastic2182 Год назад

    "ein starkes Improvement"......... 🙄

  • @leweed3049
    @leweed3049 Год назад +1

    ich der einfach den gpt4 api key schon seit 1 Monat hat

  • @PhillipAmthor
    @PhillipAmthor Год назад +2

    O P E N S A U C E
    P
    E
    N
    S
    A
    U
    C
    E