Utiliser facilement Mistral AI, le ChatGPT made in France (LM Studio)
HTML-код
- Опубликовано: 14 окт 2024
- Abonnez-vous : www.youtube.co...
Mon programme de formation IA ultra complet : anthonyc.gumro...
Apprenez à utiliser Mistral AI, l'intelligence artificielle générative made in France. Il s'agit d'une IA qui rivalise avec ChatGPT et fait même mieux dans certains domaines.
Mistral AI propose deux modèles d'IA : Mistral et Mixtral.
Mixtral est un modèle ultra puissant qui est une fusion de 8 IA en 1.
LM Studio est un outil qui vous permet de parler à une IA directement en local sur votre ordinateur sans avoir besoin d'être connecté à internet.
Le site de LM Studio : lmstudio.ai/
Le site officiel de Mistral AI : mistral.ai/
Mon Discord : / discord
Mes cours Udemy : www.udemy.com/...
Ma vidéo Mistral AI orientée techs & devs : • MISTRAL AI : Comment i...
Abonnez-vous !
Parfait je cherchais justement ce genre d'outil.
Merci pour la vidéo et les explications
C'est génial d'avoir ses llm en local non censuré, ce sera encore plus le feu le jour où ils pourront utiliser des liens internet, on pourra faire des automatisations etc..
c'est déjà possible avec Open Interpreter !
top pour l'utilisation des IA en local, étant développeur je vois qu'il y a aussi une partie serveur(API) ça peut être utile pour faire des interactions entre un programme et de l'IA.
Merci
Merci je ne connaissais pas LM Studio ce me semble plus pratique pour utiliser les IA
Au top , peut on entraîner mistral sur un tâche en particulier et avec des références texte spécifiques ?
Merci
Je souhaitais poser exactement la même question ! Est-ce possible de l'entrainer avec nos données (sans savoir coder) ?
Bonjour
merci pour votre vidéo.
Je ne trouve pas la solution pour changer la langue !
Je suis en espagnol.
Merci beaucoup
Et Mistral, par rapport à un chatGPT en ligne sur leurs site. C'est plutot pertinent ou alors "c'est gratos donc on fais avec"? Perso j'aime bien aussi Bard ;)
Il y a une différence importante c'est que en local, vos données ne sont pas partagées ou revendues. Donc c'est toujours utile de savoir utiliser un modèle local en complément de Bard.
merci pour la video, mais ce que je veux savoir est ce que on peut les connecter a internet genre si je veux mon model qui cherche un truc sur internet est ce que il peut le faire ? et deuxieme choses est ce que je peux lui donner des piece jointe genre des fichier pdf ou des image ou non ?
je comprend que l'avantage c'est en local mais sa reste tres limite non ?
ba tu peux justement fine tuner ton modèle mistral avec la documentation que tu veux et le rendre expert du domaine que tu souhaite qu'il maitrise spécifiquement, tu peux trouver des videos sur yt qui explique ca
Salut j'aimerai héberger sur un pc une ia "documentaliste", que peux tu me conseiller comme techno et également comme config PC ?
Merci à toi
Bonjour, qqlq à une idée de la configuration nécessaire pour faire tourner mixtral 8x22b ?
Parler de la ram nécessaire est assez important aussi... J'ai trouver ca : Mistral-7B-v0.2 : 7,3 milliards de paramètres, 16 Go de RAM GPU minimum.
Mistral-8X7B-v0.1 : 46,7 milliards de paramètres, 100 Go de RAM GPU minimum.
Le 7B je le fais tourner sur une 4060 8Go sans pb
Il faut regarder la taille du fichier, 5g télécharger = 5g vram a peu près et non 16
Merci pour cette vidéo claire et efficace !
On peut pas uploader des fichier ou des images à Mixtral?
Super video, juste une question est ce qu'il se connecte a internet ? Merci
Pas besoin de connexion internet pour utiliser l'IA.
Je ne suis pas d'accord. Perso je cherche a travailler sur des videos ou des sites web particuliers, et quand je lui donne l'url d'une vidéo YT, il m'en trouve une autre ? Dois je comprendre qu'il a figé le net a un moment donné et que tout ce qui est récent, il n'en a pas connaissance ?
Bonjour! Est-il possible d'apprendre des choses à cette IA? :)
Question naive, si on veut entrainer un model pour apprendre un langage informatique 'maison' , de quel model faut-il partir? et comment faut-il s'y prendre? peut il apprendre à partir d'une grammaire lex yacc? ou faut il donner que des exemples de bout de code en expliquant ce que ça fait?
Bonjour, alors on peut entrainer un modèle de façon très précise mais je ne sais pas exactement comment faire, je ne me suis pas penché dessus. Par contre il existe une technique simple pour un entrainement rapide (que j'utilise souvent) c'est de dire "Tu vas m'aider à ... Dans ce contexte voici la documentation : [Copier/coller la documentation sur le truc à lui apprendre]. Sachant cela, aide moi à ...". Voilà une technique assez simple. Bien sûr on ne peut pas copier un grand nombre de données de cette façon. Mais ça aide pour de nombreuses situations déjà.
Merci beaucoup !
Es que l'on peut l'utiliser en locale ?
Sur notre propre ordinateur/ carte graphique, sans passer par un serveur.
LM Studio fonctionne en local pas en ligne. Donc oui.
Bonjour, peut-on sauvegardé mes model ailleurs que sur le disque C?
Bonjour, les modèles sont obligatoirement dans le dossier d'installation. Il faut donc installer LM Studio sur un autre disque si besoin.
thank you well presented
Je peux lui donner les accès à mon repo de code pour en faire un assistant de développement?
On peut copier/coller des parties du code dans le prompt. Donner un accès complet je ne sais pas.
Bonjour,, pour ma part quand je lui parle il répète se que je lui dit en Anglais, peu importe la question que je lui pose, il me la repose en Anglais ... Savez-vous pourquoi ? Merci à vous
demande lui de parler en Français ?
Est-ce possible d'avoir accès à l'api de mistral en local ?
par définition non ?
Mouai et les données receuillies sont stockées où ?...
Nulle part étant donné que le modèle est en local. Le tout reste uniquement sur notre PC. Pas besoin de connexion internet ou autre.
Va falloir que je teste ça. Même si ça n'a pas l'air très compliqué à installer, c'est tout de même moins clef en main que ChatGPT ou Google Bard.
Là c'est la version locale
Jolie mais pour une raison qui m échappe trop lent à générer par rapport a chatgpt ou blackbox ia ??!:!
Générer du texte en local est plus lent que générer du texte en ligne. Ca dépend de la carte graphique. Mais l'avantage c'est que les données ne sont pas partagées.
@@F0rmati0nFacile Mon GPU n'est pas utilisée, pourquoi ? j'ai une 3080
La comme ça aucune idée. Ca me semble étrange. Il faudrait vérifier car il me semble qu'il y a un paramètre pour passer du CPU au GPU mais normalement le GPU doit être utilisé en priorité. Sur sur PC portable quand on est sur batterie alors le CPU est utilisé.@@lorenzo7098
@@F0rmati0nFacile Salut j'ai un ordinateur fixe, 48gm de ram, i9 9900k et une 3080, GPU utilisé nul part, que le cpu, je vois pas de paramètre
personnellement j'ai récupéré mistral par leur torrent, mais je ne sais pas du tout quoi en faire ensuite T_T
GPT4all fonctionne aussi pour avoir Mistral mais est moins gourmand
Est-elle censurée et politiquement correct comme GPT ?
Je ne sais pas à quel point il y a de la censure mais il ne s'agit pas d'un modèle totalement non censuré. Il existe des modèles spécifiques pour ça.
Lequel ? Je suis entrain d'écrire un livre. Type z. 'Il'me change chaque fois le texte quand il a trop Hémoglobine.
Utiliser la version dolphin de mistral normalement non censuré
Merci pour la vidéo
Cependant, Je me suis cassé le nez parce que LMStudio demande un certains nombre de préalables, dont celui qui est d'avoir un ordi avec un processeur puissant qui supporte la virtualisation AVX2 (>2020 je crois). Du coup, soit je change d'ordi 😡soit je trouve une autre solution ...
Si tu veux faire du local. Sinon en ligne il y a déjà de quoi
Le souci, c'est que je voudrais que cette IA puisse acceder a mon DD pour me rendre des données sous forme excel ou sheet , voir pour modifier directement un fichier excel ?
Il y a encore beaucoup de travail, vraiment beaucoup de travail. Une réponse sur deux est complètement hors sujet.
C'est super mais faut un bon pc