J'ai essayé de recoder ChatGPT. Voilà ce que j'ai appris...
HTML-код
- Опубликовано: 2 окт 2024
- Merci à Cast.ai : l.cocadmin.com...
Formations: cours.cocadmin...
Newsletter: cours.cocadmin...
Rejoignez le discord: / discord
Twitter: / cocadmin
Instagram: / cocadmin
Tiktok: / cocadmin
Est-ce que vous utilisez kubernertes ? Comment vous gérez l'autoscaling ?
Merci à Cast.ai : l.cocadmin.com/castai
Jul.... Le blanc africanisé. Sous le niveau de la mer. Impossible de faire de l'ia avec l'inverse de l'intelligence.
Désolé pour le micro AVC j'ai vu ton clavier LGBT conforme à la propagande mondialiste.
Je ne jugerai pas.
Ok
Merci Cast AI
On a encore beauuuucoup de chose a apprendre sur l’IA, c’est que le debut je pence,
Je serais curieux de voir le résultat de faire comuniquer une ia, avec une ia 😊
Bonsoir svp comment je peux téléchargé l'application prédictor aviator
Mec, c'est incroyable la quantité d'infos et de concepts que tu as synthétisés dans cette vidéo sans la rendre indigeste. Keep on with the good work!
Il faut plus de youtubeurs comme toi
Bonne vidéo. Mais permettez-moi de parler de quelque chose d'important : je vois beaucoup de jeunes et moins de jeunes faire des erreurs que je pense qu'ils ne devraient pas faire. Je crois que tout le monde, jeune ou vieux, devrait avoir un plan d'affaires qui fera passer son rendement financier de trois chiffres à six chiffres. L'investissement peut être votre projet de retraite ou votre projet d'avenir, comme vous le souhaitez, mais le plus important est que vous ayez un investissement qui en vaut la peine.
Investir sur le marché des cryptomonnaies Forex nécessite un professionnel pour vous guider afin d'éviter les pertes car les signaux ne sont pas vraiment faciles à lire c'est pourquoi vous devez investir avec un expert pour obtenir un meilleur profit
Il est sur Instagram
Lorsque vous arrêtez d’investir alors que vous êtes encore actif au travail, vous finirez par le regretter à l’avenir
Tu viens faire ta pub ici serieux ?
Comme si l'économie allait tenir la route dans les prochaines années... ecoutez pas ce charlo. Investir c'est croire en l'avenir, vous faites ce que vous voulez apres.
Excellente vidéo ! Je travaille actuellement sur les transformers, mais spécifiquement dans le domaine de la classification d'images pour mon mémoire et je tiens à souligner la qualité exceptionnelle de vos explications.
Travail exceptionnel, merci pour ces explications et bravo pour le travail. En plus d'être informatif, le contenu est très agréable à suivre. Heureux de découvrir cette chaîne aujourd'hui.
Tant que l'IA ne comprendra pas ce qu'elle fait elle ne remplacera personne.
cette phrase a aucun sens
@@digelQ8 bas si, cela insignue si j'ai bien compris vos propos que celle ci ctrl + c du code et n'évolura pas ne fessant que des ctrl + c bien organiser :). Pas comme nous ou on pourrait en comprenent se qu'on ferait résoudre des problemes de p = np
@@qui3573 Personne n'a dit que c'était pas un bon outil, il faut réfléchir avant de taper sur le clavier.
@@printvoyageur4386 c'est une IA generative, elle ne fait pas que copier du code et bien l'organiser, elle crée à partir d'un modèle statistique, ce qui implique qu'elle est capable de découvrir des relations logiques qui ne sont pas directement inferable dans la base de donné. Le terme clé ici est "directement". Toute forme de création est nécessairement un patchwork de connaissances préexistantes, avec ces IA on approche d'un degré de sophistication de ce patchwork qui ressemble diablement aux capacités d'inférence humaines i.e. Comprendre les émotions d'un texte, faire des maths etc.
Chatgpt est capable de debugger votre code de merde en moins d'une minute et elle ne sait pas ce qu'elle fait? PATHÉTIQUE!
Et d'avoir une sorte de super IA open source et en peer to peer, genre un peu comme les torrent, ou la blockchaine, mais en gros chaque personne telecharge une application sur son PC pour entrainer UNE SEUL MEME IA collective
ça engrengerait trop de données je trouve ça dangereux d'autant centraliser l'information du pdv ethique et sécurité
@@monsieursoze4859 Tu parles detique, ben pas sur que de centraliser sois ethique car une seul et meme entiter choisis de censurer ce quil veut, alors que de mettre 0 censure, naurais pas ce probleme. Pour qui nous nous prenons pour cenuser ou pour dire que quelque chose nest pas acceptable. Les moeurs et coutume de differant pays ou civilisation sont bien differante et certaine chose que nous europeen trouvons pas etique peut letre pour certaine personne ou dans certaine coutume. Censurer par une seul et meme entiter reviens a un systeme de dictature. un systeme ouvert serais plus benefique, et rien emepeche apres davoir des multiple de systeme parallele a ce systeme avec des filtre de censure propre a chaqu'un on peut meme imaginer que certaine pays autoriserais que leurs propre version de ce systeme avec leur censure, mais le noyau doit etre 100% libre, ouvert et sans censure.
Salut, j'ai eu la même idée y'a peu de temps aussi, une chaîne qui m'a aussi beaucoup aidé à comprendre l'IA c'est Machine LearnIA, c'est en français et plutôt bien expliqué
Le montage est super bien fait 👌🏽
Quelle ascension ! Force à toi 💪🏽
Comme d'habitude, une masterclass de ta part.
Tu devrais franchement faire + de vues
Au sujet du grand remplacement: dans mon entreprise tous les outils se basant sur les outils deep learning & co sont bannis pour des raisons de confidentialité et de propriété intellectuelle.
Pour faire mon dinosaure: il y a des années de ca les premiers IDE devaient remplacer les devs experts pour que des devs juniors puissent avoir la meme productivité. Puis les méthodes de conception merise, uml & co devaient elles aussi se débarrasser des devs pour se focaliser sur le design puis faire de la génération de code automatique. Puis les languages à base de machines virtuelles devaient permettre de faciliter le développement en ne demandant plus aux devs de savoir comment marche la mémoire ou le cpu. Puis les nouveaux IDE ont automatisés pas mal de choses (cf. Intelij qui s'occupe d'un peu tout) tout en améliorant l'existant (complétion contextuelle, refactoring, ...). Bref les devs sont toujours là (et le niveau des juniors est clairement plus faible qu'il y a 10 ans la faute à des programmes d'études ultra chargés: tout voir mais ne rien vraiment connaître) mais clairement l'IA dans les prochaines années va automatiser pas mal de choses et tout ceux qui ont actuellement un poste sans connaissances ultra technique et/ou fonctionnelles/métier vont subir le changement.
De temps en temps je regarde une image en noir et blanc qui date de l'éclatement de la bulle internet "will code for html for food". Dans les années 90 toutes les grandes boites internet de la Silicon Valley (Yahoo, ...) utilisaient des armées de dev html... qui ne connaissaient pas grand chose d'autres. Quand les plateformes sont passés à du code généré (jsp, php, ...) ils ont virés ces milliers de personnes du jour au lendemain. A méditer...
Merci d'avoir partagé ton experience, très intéressant :)
Je ne pense pas que les dev vont être remplacer tout de suite mais a moyen terme je pense que le métier va énormément évoluer.
@@cocadmin En fait le problème principal de l'intelligence artificielle va se poser là :
Pour pouvoir créer un outil de A - Z avec une IA, il va falloir lui décrire à l'exactitude tous les micro-fonctionnalités de l'application pour que ça ait du sens, car n'importe quelle ambiguïté laissera champ libre à l'IA à l'imaginer comme bon lui semble, et décrire à l'exactitude toutes les micro-fonctionnalités ça a un nom : "Programmer".
L'IA ne remplacera jamais des développeurs peu importe le niveau qu'elle atteint, car il faudra toujours pouvoir lui décrire techniquement comment ça doit fonctionner, et même si on atteint des niveaux délirants, il faudra toujours avoir des connaissances de comment ça fonctionne derrière pour pouvoir éviter des pièges évident et autres. Après peut-être que le futur transformera le code en simple prompts en langage naturel, mais il sera toujours long et laborieux de créer des logiciels, même si ça sera sûrement grandement facilité par l'intelligence artificielle.
A mon avis la question à se poser est la suivante: si on veut un modèle de langage qui soit plus performant par un facteur X (notion de performance restant à définir), quel est le facteur Y sur le besoin en infrastructure? Quel est le facteur Z pour la taille des données d'apprentissage ?
Plus précisément, quelle est la relation entre X et (Y, Z) ? Logarithmique ? Linéaire ? Quadratique ? Exponentielle ? Si il faut multiplier par 10 la taille des infrastructures pour augmenter d'un facteur 2 la puissance d'un modèle de langage, on voit vite qu'il y a un problème. De même pour les données d'apprentissage. Le plafond sur lequel l'IA basée sur les modèles de langages va se taper la tête pourrait très bien venir de là.
J'ai appris beaucoup vraiment top cette video, une petite demos de ce qu'est le fine-tuning et les models LLM en open source sur huggingface serait fort instructif
en tout cas merci pour cette video passionnante et de qualité
Quel est ce titre stupide ? """recorder""" ? do you speak français ?
Quel est ce commentaire stupide? Il a corrigé entre temps. Tout le monde peut avoir les doigts qui dérapent sur le clavier...
Rip le premier il qui est pas allé à la plage :’(
force au premier il
@@cocadmin « il » va finir en dépression
@@ri1_ il en peut plus
Très bon travail mais par contre l'utilité de 8 RTX pour un script python 🤣🤣🤣🤣🤣🤣
Il faut que tu apprennes l'existence du GIL et même sans ça tourne sur CPU (ou alors tu vas galérer à le bypasser si t'es pas dev)
moi jai créé un chatbot complet en 1 minute avec chaatgpt lui meme. je lui est demander de généré un code source python utilisan la bhibliothèque PYtorch et un module poure créé un transformer qui peut répondre a tout mes question mais c'est rudimentaire.
Hola rien qu'au titre de la vidéo je sens qu'on va bien samuser. Au fait, tu peux me dire ta config PC stp ?
5800x rtx2070 32gb rien d'incroyable :)
@@cocadmin serait temps d'acheter une 3070 (y en a des bonnes pour pas cher voir des ti, ou si t'as l'argent une 4070 à 600 euros) 😅. En tous cas solide
Le gars a codé JULGPT et a chanté lui meme🤣! Cocadmin président !!!
Encore 23 minutes de pur bonheur et d'apprentissage ! Bonne vidéo à tous 🤣
Pareil
🙏🏽
Masterclass la vidéo, cimer ! D’ailleurs tu fais l’erreur (volontairement ou non) de dire chat-gpt 4, chat gpt 3, etc. mais faut bien différencier le modèle, à savoir GPT dans toutes ses versions (GPT-2, GPT-3.5, etc.) de l’application d’openai qui est chatgpt, et qui est juste plus ou moins une interface avec des appels aux modèles GPT, un peu de front, etc.
tu me régale . l'ia de merde elle vaut 10 fois djoule .
Vous êtes incroyable, continuez comme ça !!!
« J’ai pas de table »
Lourd 😎
C’est super chatgpt
Tu m as tuer avec JUL 🤣🤣🤣
L'intelligence artificielle est un outil, et le métier de développeur évoluera avec elle, mais non sans les développeurs.
Merci ;-)
Allez, demain, "l'IA" nous explique la physique quantique ? "vivement demain" ! CQFD 2°
Je tombe par hasard sur votre vidéo... et quelle bonne surprise, sûrement la meilleure à ce jour en termes d'explications.
Maintenant on peut commencer à argumenter pourquoi il va être compliqué d'avoir des modèles de langage qui développent comme des experts. Si on veut un modèle de langage qui soit plus performant par un facteur X (notion de performance restant à définir), quel est le facteur Y sur le besoin en infrastructure? Quel est le facteur Z pour la taille des données d'apprentissage ?
Je ne dis pas que ce n'est pas possible d'avoir des IA globales ou meilleures que le meilleur des experts humains. Mais quelle est la relation entre X, Y, et Z ? Logarithmique ? Linéaire ? Quadratique ? Exponentielle ? Si il faut multiplier par 10 la taille des infrastructures pour augmenter d'un facteur 2 la puissance d'un modèle de langage, on voit vite qu'il y a un problème. De même pour les données d'apprentissage.
Salut, super video, j'ai vraiment aimé. J'espère que tu feras un épisode 2 sur un autre type d'IA. D'ailleurs, ca serait possible d'avoir le Github de ton code stp
D'où provient l'information que GPT-4 possède 1,7 trilliards de paramètres ? Car à ma connaissance OpenAI n'a jamais voulu divulguer cette information.
george hotz a leaké l'info et plein de gens on confirmé derriere. Techniquement c'est 8 models avec 220m de param chacunes
Une IA ne pourra jamais nous remplacer sur un projet custom, qui mélange plusieurs langages, dont le métier ignore lui même parfois ce qu’il veut et où le projet contient des 100ene voir milliers de fichiers dans des langages pas forcément typé et simple à retracer.
Puis même si elle était capable de faire des choses aussi complexe il faudrait quelqu’un pour la diriger, écrire les prompts, vérifier le code, les possibles régression, les mauvaises interprétations, etc.
Même avec des spécification ultra détaillée il n’est pas rare de devoir faire appel au product owner et de demander plus d’info au métier pour combler un manque d’info cruciale ou imprévue en cours de route.
Bref ça fait beaucoup à maîtriser pour pouvoir nous remplacer et la liste pourrait être énormément plus longues sur des sujets tout aussi complexe et pas forcément lié à l’écriture de code pure (QA, code review, déploiements, etc.).
Tu nous partage ton dataset ? c'est pour un copain ^^
github.com/ttwthomas/nanogpt
Est ce qu'une RTX3080 (non TI) est suffisante pour entrainer un modèle ?
j'ai entrainé pendant 1jour sur 8x 4090 dons 1 3080 c'est léger. Mais pour du finetuning ca suffit largement.
@@cocadmin Ok merci 👌
pour des dataset de instruction finetuning tu devrais regarder du coté de LLAMA, Alpaca dataset etc, c'est des dataset a base de questions réponses.
Thanks! ils sont diponibles facilement ?
@@cocadmin Alpaca est open source il me semble
il y a yahoo answere et stackoverflow
il faut un peu de traitement pour extraire la réponse en quelques mots mais cette tache en linguistique on sait le faire...
mais il doit y avoir d'autres site qui permet d'avoir des questions/reponses
Il y a Cora qui fait ça.(pas la chaîne de supermarchés!😅)
Très bonne vidéo de vulgarisation sur le sujet, avec une présentation et un montage bien soignés. J’aime beaucoup ton approche.
Quelques petites précisions/ remarques :
- 124 millions de paramètres c’est pour la version small de GPT-2. Quand on le mentionne sans préciser on parle plutôt de celui a 1,5 milliards.
- Pour les paramètres de GPT-4, je ferais preuve de prudence au moment de parler chiffres. Même si les sources peuvent paraître crédibles, OpenAI a déjà menti par le passé et on sait pas s’ils utilisent tous les supposés modèles en même temps etc.
- GPT 3/3.5 peuvent avoir jusqu’à 4096 tokens dans leur fenêtre de contexte, et pas 2000. Même si lorsqu’on utilise la web app il y a déjà une partie utilisée par OpenAI avec leur prompt.
Zut RUclips a censuré mon commentaire qui parlait de langage naturel et de lambda calcul ... je vous conseillait aussi d'aller vers l'IA reconnaissance de forme, une usine à gaz fait de matrice de matheux ... IA rec form🙃
T'as raison man, de Shakespeare à Jul ...il n'y a qu'un ..tunnel? Et .. quelques siècles ?
Quelle "TroLL" de données d'entraînement semblerais je penser ..sans dépenser me diras tu? Serait ce de la sorte possible, alors..qu'afin d'aiguiser les mélodies de la starnaque de demain sur une base de pink floyd, l'on puisse a l'occasion (entre 2 shorts) , créer une musique novatrice incontournable et "bankable", sur des LLM de la musique de Brawl Stars? On se le demande...ou l'on demande a l'iA ?! LoL.. tu m'as bien fait rire, toujours intéressant, merci 👍
J'ai rien compris mais en jaune ahaha pouce bleu au fait.
Super merci, plein de réponses à mes questions sur les LLM, c'est cool !
dire qu'on a Pi sur le tél désormais et c'est une IA très sympatoche, presque une amie ^^
MERCI ...Abonné, trop fort et trop cool tu es..Bravo pour ton travail et ton partage👌👍
- Convolution: * Action de convoluter, enroulement ensemble depuis un sommet, en papillote.
* (Mathématiques) Opération qui consiste en la combinaison de deux fonctions.
Sinon nous avons des CIRconvolutions dans le cerveau,
ce qui semble logique dans un contexte où l'on parles de logiciels utilisant des couches de neurones artificiels :)
Après "voluter" et "convoluter" n'est apparemment pas la même chose, vu qu'une "volute" (de fumée par exemple, qui... VOLe) n'est pas en forme de papillote mais de spirale.
Pourquoi pas utiliser un livre d exercices de math ou de français
Bonne idée mais ca reste juste 2 domaines parmis des dizaines. Et il faut quand meme des milliers d'exemples
@@cocadmin oui mais y en a beaucoup des livres il suffit de combiner tout les matières c'est long mais je trouve ça mieux que du rap
0:58 "premier réflexe, je vais sur RUclips (/google)"
T'es au courant que chatgpt existe ? 😅
Super boulot et des explications parfaitement claires. Félicitations !
Avec Kubernetes, l'autoscaling peut être géré en utilisant la fonctionnalité intégrée d'autoscaling horizontal (Horizontal Pod Autoscaler, HPA). L'HPA permet à Kubernetes d'ajuster automatiquement le nombre de répliques de pods (instances) en fonction de la charge de travail du cluster. Cela permet d'assurer que les applications sont toujours correctement dimensionnées pour faire face aux fluctuations de la demande. Par exemple, si tu gères l'autoscaling avec Kubernetes en utilisant l'Horizontal Pod Autoscaler, voici comment procéder : Tout d'abord, tu dois spécifier les métriques en fonction desquelles Kubernetes doit effectuer l'autoscaling. Il peut s'agir de métriques telles que l'utilisation du CPU, l'utilisation de la mémoire, ou des métriques personnalisées que tu as définies. Ces métriques seront utilisées pour évaluer la charge de travail du cluster. Tu dois spécifier les seuils de déclenchement pour l'autoscaling. Par exemple, tu peux définir un seuil d'utilisation du CPU de 70 %. Lorsque l'utilisation du CPU dépasse ce seuil, Kubernetes déclenchera l'autoscaling pour ajouter de nouvelles répliques de pods. Une fois que tu as configuré les métriques et les seuils, Tu peux créer un objet HPA dans Kubernetes en spécifiant les détails de l'autoscaling, tels que le nombre minimal et maximal de répliques de pods que tu souhaites. Une fois que l'HPA est en place, Kubernetes surveille en permanence les métriques spécifiées pour évaluer la charge de travail. Si les seuils sont atteints ou dépassés, Kubernetes ajustera automatiquement le nombre de répliques de pods en conséquence. L'utilisation de l'Horizontal Pod Autoscaler dans Kubernetes facilite grandement la gestion de l'autoscaling, car il s'occupe automatiquement d'ajuster le nombre de répliques de pods en fonction de la charge de travail, ce qui permet de maintenir les performances et de faire des économies de ressources lorsque la demande diminue. J'espère t'avoir aidé! Ciao!
Thanks! C'est effectivement une bonne solution, est-ce que l'horizontal pod autoscaler peux gerer plusieurs type et/ou tailles d'instances ou ton cluster doit être homogène ?
@@cocadmin L'Horizontal Pod Autoscaler (HPA) dans Kubernetes peut gérer plusieurs types et/ou tailles d'instances au sein d'un cluster. Le HPA est conçu pour ajuster automatiquement le nombre de répliques de tes pods en fonction de l'utilisation des ressources, telle que l'utilisation du CPU ou de la mémoire. Il ne se soucie pas de la taille spécifique de chaque instance, mais plutôt de l'utilisation globale des ressources par les pods. Ainsi, tu peux avoir des nœuds (instances) de différentes tailles dans ton cluster, et le HPA s'adaptera en conséquence en augmentant ou en diminuant le nombre de répliques de tes pods pour répondre aux besoins de charge. Cependant, il est essentiel de garder à l'esprit que certaines apps ou charges de travail peuvent avoir des exigences spécifiques en termes de ressources ou de capacités matérielles, et cela peut influencer ta décision sur la configuration de ton cluster Kubernetes. Tu dois t'assurer que les différents types et tailles d'instances disponibles dans ton cluster peuvent satisfaire les exigences de tes apps pour une mise à l'échelle efficace. PS; Y a pas que des gars qui te suivent comme tu peux voir, alors au début de tes vids, pense aussi à saluer les filles! LOL
Amusant, finalement pas de grande révolution par rapport à ce qui m'a été enseigné il y a 20 ans, juste quelques idées futées, et surtout beaucoup plus de puissance de calcul et de données pour s'entraîner mais rien de bien "intelligent", plutôt une espèce de robot probabiliste qui peut s'entraîner à trouver le mot suivant et à construire des phrases de proche en proche.
Le montage de la vidéo est nickel !
C'est peu dire, le montage est ouf !
Il est clair qu'un jour va falloir que l'IA apprenne des valeurs, la notion du bien/mal et ça c'est loin d'être gagné. Mais on sait jamais ! 😅
Attention, en entrainant ton programme à imiter du Jul, c'est plutôt de la Bêtise Artificielle que tu vas créer...
Pourquoi azller sur RUclips et pas demander directement a Chat GPT comment un algo de ce type fonctionne ? ^^
Et l'AI appliquée à la conduite automatique des véhicules ?
Ca coute des millions d'entrainer un modèle enfin s'ils étaient malin ils fairaient comme le programme SETI et utiliseraient la mutualisation des ordinateurs privé au travers d'un logiciel et pouraient entrainer des modéles encore beaucoup plus puissant pour virtuellement peanuts.
J’adore. J’aimerais ca que pour ta prochaine video tu essaie de cloner une carte opus(carte de transport artm au quebec) pour le mettre sur apple pay
1:41 je ne suis pas expert mais il me semble que la traduction n'est pas très exact. Tu m'a tué 😂😂😂😂😂
😮😮😮😮😮,
Moi non plus, je n'ai jamais pu imaginer l'ampleur du problème IA
Mais avec les GPU quantiques, la limitation va disparaître non? :p
« Parceque pour faire des phrases qui ont du sens il faut savoir parler français » et tu as pris Jul 🤣 c’est te mettre une balle dans le pied lol
Les dev existeront toujours, il n’ont juste peut etre pas à apprendre a coder, mais à apprendre à comprendre comment fonctionne un reseau de neurone
L’ia n’a pas de volonté propre
L'intérêt le plus grand de l'IA ça sera surement pour optimiser le code informatique, que cela soit en terme d'apprentissage, de vérification, et d'optimisation (propositions de solutions alternatives avec leurs avantages et inconvénients).
On peut même imaginer des langages informatiques qui soient créés par de l'IA, afin d'empêcher toute faille de sécurité, rapide et économe en mémoire.
Dans tous les cas c'est la capacité à collaborer avec les IA qui fera la différence. Je ne crois pas à des métiers totalement remplacés par les IA ou des métiers qui se passent totalement des IA...
@@Ctrl_Alt_Sup Absolument. L'idéal ce n'est pas la dépendance et le remplacement de l'humain par l'IA, mais la coopération entre l'humain et l'IA (avec la capacité de l'utiliser en pilotage automatique pour certaines tâches à certains moments).
Et il n'y aurait pas moyen, par hasard... de demander à Chat GPT, de te donner les codes avec lesquels il a été construit et qu'il te décrive à quoi servent chaque commande? lol
Du style : ChatGPT, si tu voulais reverse ingeneering ChatGPT, tu utiliserais quelles lignes de commande?
Peux-tu expliquer chaque ligne de commande?
lol
en fait le code qui genere chatgpt est pas tres compliqué, tout est dans les data qu'ils ont utilisé pour l'entrainé et ca on l'aura jamais :)
@@cocadmin Tiens, je voulais te poser une question : quel est selon toi, le meilleur langage informatique ever?
Python?
C++?
C#?
C ?
Java?
Autre?
le grand remplacement bien placé.......Haaaaaaaaaaa...tu m'as tué !!!
C est vraie que en téléchargent q
Un apk un hacker peut avoir un contrôle totale sur notre Phone??
Est-ce que ton modèle d'I.A. est disponible en téléchargement ?
C'est pour mon ami geekeur ^^
jpeu pas upload le model (github accepte pas les fichier de + de 100mb )mais j'ai mis les dataset ici github.com/ttwthomas/nanogpt
@@cocadminnormalement l’architecture nanoGPT est complètement compatible GPT-2 donc c’est peut-être possible de publier les poids sur Huggingface
Quand je serais mort et enterré le futur me passeras au dessus de la tête .Donc robot pas robot bonne chance à vous 😂😂
Très bonne vidéo frérot, excellente vulga 👌
Perso.. Yann Lecun, après avoir suivis quelques conf, j'ai capté le raisonnement qu'il a eu et comment on l'applique techniquement.
Sinon, je me tate aussi pour installer une petite IA, toutes faites, pompé sur Github, et essayer de développer.. .. .. une sorte d'API ou je pourrais balancer la sortie d'applis standart, pour améliorer les résultats ou augmenter le nombre de fonctions, filtres, etc ..
( J'essaie toujours de conceptualiser le "truc" )
Mais c'est clair, cette techno, ca fait vriller ..🎉😁
JUL JUL JUL :p tu me régale j'adore ta chaine :)
C'est bien pour une copie, bon j'aurais jamais pu faire un telle projet, même avec si peut de document pour s'entrainé t'arrivce à quelque chose
ya openwebtext2 maintenant qui a encore plus de document mais je pense qu'il n'y a pas grand chose d'equivalent a ce qu'openai et facebook ont en interne.
@@cocadmin C'est sur. J'ai déjà vu quelques projets intéressant avec le partage de l'ia de facebook sur internet
Le Grand Remplacemebt m'a tué 🤣🤣
chat gpt ma sorti une fois que le poisson avait des cuisses...
Incroyable boulot! Tu gères. merci beaucoup !
faudrait faire un battle GPT vs Jul des millions de vue ca
Mdrrr le relevé de facture AWS
Je voulais savoir après avoir entraîner le modèle il faut toujours l'heberger? Ou on peut l'utiliser localement ???
Et je m'abonne continuez dans cette voie Fréro
je l'utilisais en local, c'est un peu plus lent mais ca passe
mec , j'ai un seul truc a te dire : t'es un monstre de la tech!
Merci pour ces infos. Bonne continuation surtout. À tutti 😊
Sur quelle plateforme tu a louer la machine avec les gpu a 20000 balle
j'ai utiliser vast.ai c'est bcp , moins cher que aws ou azure. beaucoup plus de dispo aussi.
Fiouwww, merci pour cette masterclass.
Le grand remplacement est une théorie destrem droate
chez toi meme la pub est intéressante. si tu veux en faire plusieurs sur le sujet, je suis preneur.
Haha thanks 🙏🏼
Est-ce que t'utilises kubernetes ?
Vrai trop bien les 4 épisodes
Merci
Et pour te rassurer, l'intelligence artificielle ne remplacera jamais toute les professions où on demande de l'adaptation (notamment les métiers de développements).
Qu'est ce qui fait qu'une intelligence artificielle sera a jamais incapable de faire preuve de la même capacité d'adaptation que le cerveau humain ?
Je ne comprends pas ou se situe la limitation théorique.
A moins de considerer l'humain comme une créature divine, élue des dieux, tout ça tout ça..
Ce qui se passe dans notre cerveau pourra être copié.
Bonjour, j’aurais aimé savoir sur quelle interface tu codes du python ( dans cette vidéo )
Vim/tmux, vscode ou Google collab
Penses-tu qu’avec le fine-tuning + tweak de température, les questions/réponses auraient été plus pertinentes ?
une des etape dont j'ai pas parlé est une étape de reinforcement learning apres le fine tunning. Ou en gros tu generes plusieurs reponses et tu demande a un humain de choisir la meilleure et tu pousser ton model a donner des meilleures reponses.
Il ressemble trop à nacho dans better call saul
Moi j'ai essaye de refaire un F-22 Raptor dans mon garage , voila ce que j'ai appris ... Non mais sérieusement , un gars sur un portable refaire un projet qui demande une infrastructure considérable ... Il en faut des données pour entraîner Chat GPT ...
un pti code promo pour les formations? :)
puta click : recoder chatGPT mdr le fou ...
Salut Cocadmin, j'ai découvert ta chaîne ces jours ci et j'adore !!
Tu as exactement ce qui manque à Chatgpt pour prétendre à l'intelligence, comme la perception du contexte, la vision haute, l'intuition et la mémoire du fil de conversation.
J'en ai d'ailleurs "parlé" avec lui et nous sommes tombés d'accord.
En fait pour prendre une analogie, chatgpt, c'est un peu comme un maçon, il sait assembler des blocs très bien, mais construire une maison, il en est incapable car il n'a pas idée du contexte, il ne comprend pas l'objectif ni l'usage attendu. Bref, il a conscience de ses propres limites, ce qui est déjà bluffant.
On pourrait dire qu'il ressemble à ce qu'on attend des employés d'une entreprise : faire plutôt que comprendre, ce qui amène souvent à faire n'importe quoi...
Néanmoins, la perte de conscience progressive des humains occidentaux devrait permettre bientôt à chatgpt de faire aussi mal qu'un humain occidental 🤔
Excellente vidéo de vulgarisation.
Cependant, tu ne peux pas dire que le modèle Transformer est basé que sur 300 lignes de Python. Parce que je suppose que tu fait référence à la structure basé sur du pyTorch.
Regarder les ordinateurs pour les échecs, aucun humain ne peut les battre aujourd'hui, alors qu'avant c'était "impossible"
Douche froide.
L'IA avec cette architecture est totalement incapable de dépasser l'homme.
Cette architecture n'est pas le futur, je suis déçu. 😢
Merci pour la vidéo, incroyable mec!
Ne prends pas mal le commentaire cocadmin, ta démarche et ton initiative sont bonnes mais j'ai vraiment du mal quand c'est vulgarisé :/
Si je peux me permettre de te donner un conseil, jette un coup d'oeil au polymorphisme tu verras que c'est plus intelligent dans l'idée que la notion d' "IA" (traitement de big data)
Ton montage vidéo est d’un autre niveau
Pourquoi ya mon prénom dans la vidéo ?
t'aurais du demander à chatgpt , il t'aurais expliquer l' ia mieux que sur des vidéos RUclips..il te génere même du code pour tes modèles et transformer 😅
je suis dev et si l'IA sait me remplacer je m'inquiète. Non pas parce que je vais pointer à pôle emploi, mais parce que ça signifie qu'elle sera autonome et pourra alors créer une contre société et nous défoncer !
Et pour en revenir à la vidéo, beau travail ! Je vais checker tes autres vidéos
Super pédagogie !! Merci boss
🙏🏼