Je tiens à dire que ta vidéo est vraiment claire précise est accessible. Tu es un des seuls fr à fournir un tuto très clair sur le fonctionnement et l'installation de LLM studio Merci !
@@SommersAdvisors après avoir beaucoup cherché car je suis une cruche en réseau (entre autre) il faut remplacer, dans le endpoint, localhost par l'ip du PC ou tourne lm studio en mode server et cors sur True ma première requête a été de demander quel llm j'utilisais et ça a marché
Bonjour, Oui on peut espérer. :) À vrai dire, cela existe déjà. Mais il faut connecter l'IA à Google (via leurs API). Quand je trouverais un modèle stable qui arrive à bien le faire, je ferais un tuto. Bonne journée SB
Fonctionne pas et bug.... Je tourne en rond pas moyen de démarrer LM-Studio sur Windows, cela bug et fait qu'afficher ce message d'erreur systématiquement malgré avoir installé node... Error: Une routine d'initialisation d'une bibliothèque de liens dynamiques (DLL) a échoué. \\?\C:\Users\PCWORK\AppData\Local\LM-Studio\app-0.2.10 e...\liblmstudio_bindings.node Une solution ?
Mince :( Essaye de redémarrer ton PC, désinstaller reinstaller LM Studio. Si cela ne fonctionne pas, voir si ta version de Windows est compatible avec ta version de LM Studio. Si cela ne fonctionne tjs pas, je ne sais pas. SB
@@SommersAdvisors Je suis allez directement sur le Discord de LM-Studio, en faite j'ai deux processeurs Xeon avec 50Go de Ram et une Nvidia rxt3050, assez dommage car la configuration aurai très bien marché. Le problème viens des Xeon ne supportant pas les instructions AVX ou AVX2. C'est vraiment bête :(
Bonjour j'ai regardé les deux premières vidéos de cette suite. J'ai testé mixtral Ia avec un amd core 7 et 48 go. Le modèle pour 32go . Lorsque j'interroge ce modèle dans. L intece de. Chat lmstudio j ai l impression de lire la rédaction d'une personne atteinte d attrite aiguë. La rédaction de textes de l ia est très lente. J ai voulu utiliser le modèle pour la création de code et je n' ai que des réponses évasives. J'ai demandé à cette ia réputé selon d' autre youtuber comme six fois plus rapide que chatgpt et je suis étonné de la lenteur des réponses , voir de la prétendue répondre apporté. Par exemple à ma demande dessine une fleur , l ia demande des précisions et forte de c'est précision dit le vous est envoyé le dessin d'une fleur. Mais je ne vois aucun lien interne au pc avec le dessin... Déjà la lenteur des réponses de l ia sur mon pc me semble bien loin de ta présentation. Comment puis-je améliorer ce problème selon toi
Bonjour, Normalement Mixtral devrait être correct pour le code, je suis surpris. Pour les dessins, je ne pense pas que Mixtral de Mistral puisse le faire. Pour la lenteur, peut être que cela vient de l'ordi. Pas assez de RAM. Je ne suis pas sûr. Pour revenir au code, je vous conseil d'utiliser ChatGPT de OpenAI. SB
Purée c’est lent… (mixtral Q6) genre 60/100s pour obtenir une réponse, je vais essayer d’autres modèles mais j’ai du rater un truc… (normalement pas de problème de bécane j’ai une 3090 ti) Aurais-tu des conseils ou des vidéos ou liens pour optimiser sur pc à tout hasard ? En tout cas les réponses sont top. Merci encore pour la découverte
Je tiens à dire que ta vidéo est vraiment claire précise est accessible. Tu es un des seuls fr à fournir un tuto très clair sur le fonctionnement et l'installation de LLM studio Merci !
Un grand merci :)
Si le sujet des IA t'intéresse, tu trouveras plein de vidéo ici ;)
Bonne journée
SB
Je découvre votre chaine avec cette vidéo. Non seulement je m'abonne mais en plus je fais circuler le lien de votre vidéo.
Un grand grand merci ☺️
Merci pour le contenu, c'est très clair et détaillé!!
👍👍👍
Clair et concis ! question de néophyte : cette fonctionnalité de serveur permet à une tablette ou autre smartphone de se connecter au LLM ?
Bonjour
Il ne me semble pas que cela soit possible.
SB
@@SommersAdvisors après avoir beaucoup cherché car je suis une cruche en réseau (entre autre) il faut remplacer, dans le endpoint, localhost par l'ip du PC ou tourne lm studio en mode server et cors sur True ma première requête a été de demander quel llm j'utilisais et ça a marché
Très clair merci Sommers hate de voir ce que tu vas en faire 🎉
:) :)
+1, tuto ultra clair merci à toi !!
Merci 👍
+1 Vraiment TOP merci !
👍
+1 bon travail 😊
Merci :)
Merci vous êtes le meilleur ❤
😊😊😊😊😊😊😊
+1
Merci pour la découverte !!!
👍👍👍👍
Voici la vidéo avec Autogen.
ruclips.net/video/7aAzK4sn2Q4/видео.html
:)
+1 merci tuto très clair
Merci :)
Merci pour la vidéo. Tu penses quoi de Pinokio dans le même genre ? J'ose pas l'installer car peu de gens en parlent.
Bonjour
Malheureusement je ne connais pas Pinokio.
Si je trouve le temps? Je regarde.
SB
Je découvre et je suis bluffé ! Merci pour ta présentation
+1 Peux on espérer des Ai locales connectées ? Comme Chat GPT Plus actuellement ?
Bonjour,
Oui on peut espérer. :)
À vrai dire, cela existe déjà. Mais il faut connecter l'IA à Google (via leurs API).
Quand je trouverais un modèle stable qui arrive à bien le faire, je ferais un tuto.
Bonne journée
SB
+1, merci pour ta vidéo
✅
J'aime bien LM Studio et je voudrais l'utiliser sur un disque dur ou une partition différent/e pour soulager mon ssd. Encore maerci.
+1 Merci mec.
Fonctionne pas et bug.... Je tourne en rond pas moyen de démarrer LM-Studio sur Windows, cela bug et fait qu'afficher ce message d'erreur systématiquement malgré avoir installé node...
Error: Une routine d'initialisation d'une bibliothèque de liens dynamiques (DLL) a échoué. \\?\C:\Users\PCWORK\AppData\Local\LM-Studio\app-0.2.10
e...\liblmstudio_bindings.node
Une solution ?
Mince :(
Essaye de redémarrer ton PC, désinstaller reinstaller LM Studio. Si cela ne fonctionne pas, voir si ta version de Windows est compatible avec ta version de LM Studio.
Si cela ne fonctionne tjs pas, je ne sais pas.
SB
@@SommersAdvisors Je suis allez directement sur le Discord de LM-Studio, en faite j'ai deux processeurs Xeon avec 50Go de Ram et une Nvidia rxt3050, assez dommage car la configuration aurai très bien marché. Le problème viens des Xeon ne supportant pas les instructions AVX ou AVX2. C'est vraiment bête :(
@@davidpilato9817 Mince :(
Si LM Studio ne fonctionne pas, peut être Ollama.
ruclips.net/video/x87pHFXn2-M/видео.html
SB
@@SommersAdvisors Malheureusement il faut attendre la version Windows, donc je devrai patienter.
@@SommersAdvisors Je l'ai installé sur Ubuntu WSL apparemment l'installation c'est bien passé. Plus qu'a tester un module Llms
Bonjour j'ai regardé les deux premières vidéos de cette suite. J'ai testé mixtral Ia avec un amd core 7 et 48 go. Le modèle pour 32go . Lorsque j'interroge ce modèle dans. L intece de. Chat lmstudio j ai l impression de lire la rédaction d'une personne atteinte d attrite aiguë. La rédaction de textes de l ia est très lente. J ai voulu utiliser le modèle pour la création de code et je n' ai que des réponses évasives. J'ai demandé à cette ia réputé selon d' autre youtuber comme six fois plus rapide que chatgpt et je suis étonné de la lenteur des réponses , voir de la prétendue répondre apporté. Par exemple à ma demande dessine une fleur , l ia demande des précisions et forte de c'est précision dit le vous est envoyé le dessin d'une fleur. Mais je ne vois aucun lien interne au pc avec le dessin... Déjà la lenteur des réponses de l ia sur mon pc me semble bien loin de ta présentation. Comment puis-je améliorer ce problème selon toi
Bonjour,
Normalement Mixtral devrait être correct pour le code, je suis surpris.
Pour les dessins, je ne pense pas que Mixtral de Mistral puisse le faire.
Pour la lenteur, peut être que cela vient de l'ordi. Pas assez de RAM. Je ne suis pas sûr.
Pour revenir au code, je vous conseil d'utiliser ChatGPT de OpenAI.
SB
+1 🥰
✅
ça me met une erreur quand je load un model x)
Mince, quel est l’erreur qui apparaît?
SB
Failed to load model 'TheBloke • mistral openorca 7B q8_0 gguf'@@SommersAdvisors peut être que je me trompe de model mais c'est le 4eme que j'essaie
+1
merci
👍👍
Merci top
👍
Purée c’est lent… (mixtral Q6) genre 60/100s pour obtenir une réponse, je vais essayer d’autres modèles mais j’ai du rater un truc… (normalement pas de problème de bécane j’ai une 3090 ti)
Aurais-tu des conseils ou des vidéos ou liens pour optimiser sur pc à tout hasard ?
En tout cas les réponses sont top.
Merci encore pour la découverte
Ce modèle a besoin d’un ordinateur puissant (avec minimum 64 GB de Ram).
Même le Q2 est super lent alors que j ai un M1 Pro.
SB
+1
✅✅✅✅✅✅
I love You
☺️🥰☺️
+1
👌👌👌
Qu'ils n'ont pas accès à internet, ce n'est pas intéressant.
Personnellement j'aime
+¹
💯💯
+1 merci
✅
+1
💯
+1
🙌🙌🙌
+1
✅✅
+1
✅✅✅
+1
✅✅
+1
✅
+1