Toujours aussi intéressant, bravo ! Ca va être super sur mon tout nouveau framework 13 (sous mint) (et tout ça en partie sur tes super conseils), vraiment merci
J'ai installé sur INTILLj Idea mais faut payer direct pour utiliser la fonction alors que je peux l'utiliser sur le net. Je comprend pas on a pas des essais gratuit limité au départ ?
Tu parles clairement mais parfois mériterait un peu plus de temps pédagogique. En même temps ça reste concis donc très bien quand même. Je vais te suivre. Bonne journée !
Merci beaucoup. C’est vrai que je survole certain point. Mais j’avais peur que le format 30 minutes ne bloque certaines personnes. Mais je dois avouer que je me suis trompé.
Merci. Juste ajouter que sur Windows, on peut aussi utiliser les GUI comme Jan et GPT4All puis télécharger les modèles LLM libres ou payants pour utiliser l'IA en local.
Merci pour la vidéo, est ce que tue peux nous dire quel est la marque de ta carte graphique c est modéls tournent souvent sur des carte puissante comme RTX 3090 ou RTX 4090 il sont gourmands en local
Ça veut juste dire que tu va faire fonctionner le modèle avec ton processeur et la RAM vu que tu n’as pas d’accélération matérielle par le biais de ta carte graphique. Je n’ai pas de carte graphique et ça fonctionne bien tant que tu prends un modèle pas trop gros (évite de prendre un modèle au-dessus de 8 milliards de tokens).
Sans vouloir être méchant, le titre ne correspond pas à la vidéo. Ce serait plutôt : Comment remplacer Copilot dans VSCode par un autre LLM, tout aussi payant à l'utilisation. Dès la quatrième demande, tu évoques déjà tes tokens. Oui, on peut installer un modèle en local... mais c'est un peu comme dire qu'on peut avoir l'électricité gratuite en installant une centrale nucléaire dans son jardin. Bon, j'exagère un peu, mais quand même. Copilot coûte 10 € par mois et est gratuit pour les étudiants. Un LLM en local, avec des performances tout juste acceptables, coûtera bien plus cher, rien qu'en électricité pour faire tourner ton GPU et le reste, sans parler du matériel nécessaire pour que ça fonctionne correctement. L'IA en local a bien sur un intérêt, mais pas pour faire des économies. Ce sera surtout une question de confidentialité des données. Même question réactivité on est loin de ce qui se fait dans le cloud.
C’est parce que il va falloir que tu télécharges le modèle LLM et que tu l’installe en local sur ton Pc. 🖥️ Et la, ça devient gratuit. 🆓 Mais pour simplifier et raccourcir la vidéo, je ne l’ai pas fait.
pourquoi ne pas etre claire ? chatgpt n'est lama ou n'importe quel autre llm model aujourdh'ui je saute d'un putaclick titre a un autre , vraiment ca devient une monnaie , et ce n'est pas nouveau ou un secret d'avoir un LLm installer sur en local a condition d'avoir un pc qui a les couilles pour ca , , les gens qui se plaigne que le mec va vite baisser la vitesse de speed , moi je demande juste un peu juste un peu de clarte dans les titre
Ah moi je ne connaissais pas le principe d’un LLM installé en local et donc GRATUIT !!! Au moins cette vidéo didactique m’aura été très utile. Après c’est sur que pour les experts du sujet, ce n’est peut être pas une découverte.
Bonjour Rémi je te suis depuis un moment et aujourd’hui j’aimerais avoir ton aide… J’ai payé un bien à un particulier via internet et maintenant ce dernier me demande de payer plus pourrait tu m’aider ? ( ex prendre son compte insta histoire qui me rembourse) STPPPP REMII❤
Toujours aussi intéressant, bravo !
Ca va être super sur mon tout nouveau framework 13 (sous mint) (et tout ça en partie sur tes super conseils), vraiment merci
Ça fait plaisir de lire ça. 🥰
Super intéressant ! La fin de la vidéo m’a bien fait rire ! Je teste et je mets des screenshot dans les comm’ dès que possible
Génial !
Merci pour ton commentaire. Ça fait plaisir. 😇
J'ai installé sur INTILLj Idea mais faut payer direct pour utiliser la fonction alors que je peux l'utiliser sur le net. Je comprend pas on a pas des essais gratuit limité au départ ?
Tu parles clairement mais parfois mériterait un peu plus de temps pédagogique. En même temps ça reste concis donc très bien quand même. Je vais te suivre. Bonne journée !
Merci beaucoup.
C’est vrai que je survole certain point.
Mais j’avais peur que le format 30 minutes ne bloque certaines personnes. Mais je dois avouer que je me suis trompé.
Super intéressant merci
Merci ☺️
Merci. Juste ajouter que sur Windows, on peut aussi utiliser les GUI comme Jan et GPT4All puis télécharger les modèles LLM libres ou payants pour utiliser l'IA en local.
Je n’utilise quasiment pas Windows au quotidien (plutôt sur Linux).
Merci pour le partage des GUI pour Windows. 👍🏼
Merci pour la vidéo,
est ce que tue peux nous dire quel est la marque de ta carte graphique c est modéls tournent souvent sur des carte puissante comme RTX 3090 ou RTX 4090 il sont gourmands en local
Je n’ai pas de carte graphique dédiée.
J’utilise mon Framework Laptop (qui est costaud mais c’est pas un Pc de Gamer).
❤👌
Merci 🙏🏼
when i try to install ollama i got this error WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode. aide moi svp
Ça veut juste dire que tu va faire fonctionner le modèle avec ton processeur et la RAM vu que tu n’as pas d’accélération matérielle par le biais de ta carte graphique.
Je n’ai pas de carte graphique et ça fonctionne bien tant que tu prends un modèle pas trop gros (évite de prendre un modèle au-dessus de 8 milliards de tokens).
Ça ne répond pas à la question comment l'avoir en illimité
Sans vouloir être méchant, le titre ne correspond pas à la vidéo. Ce serait plutôt : Comment remplacer Copilot dans VSCode par un autre LLM, tout aussi payant à l'utilisation. Dès la quatrième demande, tu évoques déjà tes tokens. Oui, on peut installer un modèle en local... mais c'est un peu comme dire qu'on peut avoir l'électricité gratuite en installant une centrale nucléaire dans son jardin. Bon, j'exagère un peu, mais quand même.
Copilot coûte 10 € par mois et est gratuit pour les étudiants. Un LLM en local, avec des performances tout juste acceptables, coûtera bien plus cher, rien qu'en électricité pour faire tourner ton GPU et le reste, sans parler du matériel nécessaire pour que ça fonctionne correctement.
L'IA en local a bien sur un intérêt, mais pas pour faire des économies. Ce sera surtout une question de confidentialité des données. Même question réactivité on est loin de ce qui se fait dans le cloud.
Biarement il a pas rep
et si cétait vrai ?
Bon c’est un peu confus et surtout pas gratuit ( free trial n’est pas gratuit).
C’est parce que il va falloir que tu télécharges le modèle LLM et que tu l’installe en local sur ton Pc. 🖥️ Et la, ça devient gratuit. 🆓
Mais pour simplifier et raccourcir la vidéo, je ne l’ai pas fait.
Je me disais bien que le titre était mensonger. T'as amplement mérité ton ban
pourquoi ne pas etre claire ? chatgpt n'est lama ou n'importe quel autre llm model aujourdh'ui je saute d'un putaclick titre a un autre , vraiment ca devient une monnaie , et ce n'est pas nouveau ou un secret d'avoir un LLm installer sur en local a condition d'avoir un pc qui a les couilles pour ca , , les gens qui se plaigne que le mec va vite baisser la vitesse de speed , moi je demande juste un peu juste un peu de clarte dans les titre
Désolé que cela t’ais induit en erreur.
As-tu appris quelque chose sur cette vidéo ou sur les autres ?
Ah moi je ne connaissais pas le principe d’un LLM installé en local et donc GRATUIT !!! Au moins cette vidéo didactique m’aura été très utile. Après c’est sur que pour les experts du sujet, ce n’est peut être pas une découverte.
Bonjour Rémi je te suis depuis un moment et aujourd’hui j’aimerais avoir ton aide… J’ai payé un bien à un particulier via internet et maintenant ce dernier me demande de payer plus pourrait tu m’aider ? ( ex prendre son compte insta histoire qui me rembourse) STPPPP REMII❤
Désolé, je ne fais pas ça. :-)