Bonsoir, je viens de prendre aussi la formation , depuis le temps que j'hesitais.. je vais enfin voir si cela pourra me motiver a me focus un peu plus!
Trop déçu 😅😢😢 de l automatisation chat GPT. 🍆 Que 2 modèles en copier coller. Faire un liste de mots clef, 😲. Faire un article par liste de mots clef 😲 Publier sur twitter , LinkedIn à partir de l'article... 😳 Et c'est fini Aucune information sur les paramétrages ou bien la personnalisation pour d'autres fonctions hormis les deux modèles. Grosse carotte 🥕🥕🥕🥕
à 6:55, je ne lui dis pas quel LLM j'utilise et je lui passe les prompt directs; et le prompt commence par "ChatGPT ..." ??? C'est un indice ça, ou bien ?
Méta-cours ! Et tes dernières recommandations de fin de vidéo sont très pertinentes, je m'aiguille dans ce sens... Aurais-tu pu tester ce meta-prompt avec Mistral ? Et Gemini pro est-il accessible en France ? Merci beaucoup 👍💯/💯
Merci Ludo… moi je ne pense pas utiliser cette méthode mais c’est toujours interessant d’en apprendre ts les jours. Petite parenthèse, tu as mis à jour « MyVeilleuse »? Il me semblait pas que tu avais cette petite synthèse téléchargeable à la fin (un vrai plus). Si à l’occasion, et si tu as le temps, tu peux en faire une présentation plus développer ( bonnes pratiques, bonnes questions à poser pour optimiser les résultats), je suis preneur 😊
avec un prompt optimal, le résultat de la recherche est meilleur sur le plan qualité mais est ce qu'il est détectable en tant que texte généré par AI ?
Merci Ludo pour cette Vidéo ;) moi j’ai eu la même expérience avec bard au sujet des prompt un peu trop complexe ou trop long pour lui , quand je lui demandais réviser un prompt il me le renvoyait jamais en entier , et quand je lui disait continue , il recommence à écrire le prompt au lieux de le continuer , il fait une ligne de plus et voilà , par contre j’ai l’impression qu’il est plus fort pour les structure en JSON mais comme il arrive pas à me faire un truque en entier je peut pas confirmer
Bonjour, et pourquoi pas utiliser Perplexity AI qui peut lui-même jongler avec plusieurs GPT pour faire l'ensemble enchainé avec un prompt à étape pour Perplexity ?
Salut tous, aujourd'hui mon GPT4 n'accepte plus de lire et travailler sur des fichiers que je luis envoies notamment des fichiers excel ? c'est normal ?? Merci
Salut et merci pour cette vidéo. Tes propos sont aussi intéressants ! Je viens de bénéficier de ta formation à 99 euros en promotion et je t'en remercie infiniment. Je n'ai pas encore eu le temps de m'y mettre car je suis un peu trop débordé par mes activités professionnelles, mais j'ai hâte de m'y plonger, en particulier pour m'aider dans ma formation de développeur informatique. Que me recommandes-tu à ce sujet ?
Merci Ludo, ca marche du feu de dieu même pour les gpts. Les instructions a l’arrache de gpt 4 etant bien inférieures et trop longues par rapport à mistral 7b (merci poe gratuit). Il faut juste les ajuster un peu
Salut Ludo, j'achète régulièrement des Ebooks au format Kindle, format propriétaire apparemment. Quelqu'un connait-il un moyen pour que Chatgpt puisse les lire et ainsi les analyser svp ? merci toujours au top !
C'est super. Un grand merci. Juste une chose si je puis me permettre: A force d'écouter vos très bonnes vidéos, je trouve que vos monteurs ne devraient pas couper les espaces blancs de son si courts systématiquement. Parce que ça devient très fatiguant à écouter à la fin d'une vidéo de 20 minutes. En fait on perd du temps à cause de ça parcequ'il faut sans arrêt revenir en arrière. C'est dissuadant de vouloir en écouter une autre de vous à la suite, même sachant qu'elle va être très interessante mais désaggrémentée de ce même défaut. Il faut plus de respiration pour ingurgiter vos textes plus facilement. En toute amitié.
Obtenir un prompt optimal, c'est alléchant mais je ne suis pas convaincue par ce que vous avez présenté. Nous avons l'habitude d'itérer la construction de nos prompts en faisant nous-mêmes les corrections en fonction du résultat obtenu. Il me semble qu'une méthode d'optimisation consisterait à donner une note à la réponse de ChatGPT et de lui dire ce qui manque dans sa réponse. Puis de lui demander de corriger lui-même son prompt en tenant compte de nos remarques. Et ainsi de suite jusqu'au prompt optimal, c'est-à-dire le prompt que l'on notera 10/10, aucune modification à faire. Dans l'article, le prompt est optimisé grâce à des exemples notés. Tout cela me rappelle Promptor, mais avec Promptor, c'est ChatGPT qui évalue lui-même le prompt et non l'utilisatrice (en fonction du résultat obtenu avec le prompt). Je n'ai pas vu ce type de démarche : l'utilisatrice évalue la réponse, donne son feedback et demande à ChatGPT de corriger en tenant compte de ses retours. Et vous?
Ok la News Letter passe bien... mais est-elle pertinente? Est-ce qu'il est possible de demander à ton IA de cibler des sources d'information de qualité? J'ai lu qu'il était possible d'entraîner (ou affiner) un LLM comme Mixtral 8x7B sur des données particulières ou sur un domaine précis. Bref, est-ce que ça vaut le coup d'investir du temps pour créer ton propre LLM expert afin de valoriser la génération de contenu?
Bonjour Ludo, sauf erreur, j'obtiens de meilleurs résultats avec un VPN sur USA et mon compte Google configuré en anglais. Et bien sûr en conversant en anglais.
Il est dans la base, lien dans la description, mes ressources IA. Si vous avez déjà la base, faire bien attention d’aller sur la base originale, donc pas dupliquée ;) Sinon, ça ne se met pas à jour !
Je suis assez mitigé sur cette méthode. Elle permet certainement de faire mieux qu'un prompt générique, mais selon mon expérience, les différents modèles ne réagissent pas aux prompts de la même manière. Un prompt qui est bon pour un modèle ne le sera pas nécessairement pour l'autre. C'est difficile à déceler sur les gros modèles performants, mais c'est flagrants sur les petits modèles qu'on fait tourner en local. Et dans ce contexte, un même prompt peut permettre à un modèle moins performant d'obtenir de meilleurs résultats qu'un modèle bien meilleur. Un exemple simple : certains ont besoin d'être bien plus guidés pour sortir un résultat complet et pertinent, d'autres au contraire ont besoin d'avoir des instructions lâches pour les laisser révéler leur potentiel. Ne pas respecter ces spécificités c'est s'exposer à des réponses lapidaires et peu détaillées, ou à une boucle sans fin, à des contresens dans le développement ou même un amalgame sans queue ni tête des concepts évoqués dans le prompt... Et c'est valable aussi bien pour le rôle assigné au modèle que pour le prompt en lui-même.
Whoo, c est la manière de dompter cette IA qui évolue, pour réussir à lui faire cracher quelques chose de révolutionnaire. Essaye de faire le parallèle avec les débuts de l automobile ! C est marketing de rouler à 200kmh, certes pas révolutionnaire même en 1924. Mais la méthode pour tous y arriver même moi peut être révolutionnaire !!
Dommage que pour faire des vue sur RUclips il faut mettre des titre qui ne sont pas vrai. Non la méthode n'est pas révolutionnaire le prompt final est pas ouf et ya des manière plus simple d'avoir de meilleur prompt
Hum… le prompt est révolutionnaire dans son approche. Faire appel à un LLM pour optimiser le prompt d’un autre LLM. Révolutionnaire ne veut pas dire ultra performant de ouf. Ça veut juste dire que c’est une approche nouvelle, qui diffèrent des autres.
@@LudovicSalenne tu a raison mais les gens quand il voient le mot révolutionnaire et quand il regarde des vidéo sur des prompt il attendent surtout que la chose est vraiment utile mais d'après moi c'est pas hyper utile 🥴
@@LudovicSalenne Cela semble une bonne idée d'affiner des prompts par des IA. Il pourrait être intéressant d'effectuer avant une étape de recherche sur les centres d'intérêt de ta cible. En tout cas cela semble passionnant.
Merci Ludo ! Toujours les meilleurs info de l IA ,GROS gain de temps pour nous !
Ludo, comme d'hab, j'adore tes vidéos et les infos qu'elles donnent. Tu es au top, ne change rien !
La formation payante est pas a la hauteur
Merci pour cette belle info. Quel est la méthode la plus optimisée entre métaprompt et /PimpMyPrompt ?
Merci beaucoup pour cette vidéo. Je suis un grand fan de ces outils AI et du contenu que tu proposes.
Surtout ne prend pas la formation
@@prenomnom6119 Je n'utilise pas pour des raisons professionnelles donc je n'en vois pas l'utilité perso.
Je viens de prendre ta formation 👍 merci pour le travail!
Génial, merci beaucoup pour ta confiance et le partage en commentaire 😀
@@LudovicSalenne je t’en prie, j’espère que ça boostera les gens à la prendre ;)
Bonsoir, je viens de prendre aussi la formation , depuis le temps que j'hesitais.. je vais enfin voir si cela pourra me motiver a me focus un peu plus!
Génial. T’as raison, c’est une bonne manière de s’engager en payant un peu pour agir. C’est ce que je fais souvent 😀 Ça me bouge bien en général !
Trop déçu 😅😢😢 de l automatisation chat GPT. 🍆
Que 2 modèles en copier coller.
Faire un liste de mots clef, 😲.
Faire un article par liste de mots clef 😲
Publier sur twitter , LinkedIn à partir de l'article... 😳 Et c'est fini
Aucune information sur les paramétrages ou bien la personnalisation pour d'autres fonctions hormis les deux modèles. Grosse carotte 🥕🥕🥕🥕
@@prenomnom6119envoie la formation en privé chef !
à 6:55, je ne lui dis pas quel LLM j'utilise et je lui passe les prompt directs; et le prompt commence par "ChatGPT ..." ??? C'est un indice ça, ou bien ?
Bonjour. Quel est le moyen le plus simple pour utiliser chat-gpt turbo avec les GPTs et les customs instructions ? Passer par le playground ?
Salut Ludo, merci pour ton travail 👍
Hello Xing, merci pour le commentaire :) oui j’ai vu ça ! J’en parlerai peut être sur la chaîne 😀
Méta-cours ! Et tes dernières recommandations de fin de vidéo sont très pertinentes, je m'aiguille dans ce sens...
Aurais-tu pu tester ce meta-prompt avec Mistral ? Et Gemini pro est-il accessible en France ? Merci beaucoup 👍💯/💯
Hello Ram, oui et oui. Et pour Gemini Pro j’en ai fait un test vendredi sur la chaîne, la vidéo juste avant celle ci 😀
Merci Ludo… moi je ne pense pas utiliser cette méthode mais c’est toujours interessant d’en apprendre ts les jours. Petite parenthèse, tu as mis à jour « MyVeilleuse »? Il me semblait pas que tu avais cette petite synthèse téléchargeable à la fin (un vrai plus). Si à l’occasion, et si tu as le temps, tu peux en faire une présentation plus développer ( bonnes pratiques, bonnes questions à poser pour optimiser les résultats), je suis preneur 😊
Merci 🎉❤
avec un prompt optimal, le résultat de la recherche est meilleur sur le plan qualité mais est ce qu'il est détectable en tant que texte généré par AI ?
Merci Ludo pour cette Vidéo ;) moi j’ai eu la même expérience avec bard au sujet des prompt un peu trop complexe ou trop long pour lui , quand je lui demandais réviser un prompt il me le renvoyait jamais en entier , et quand je lui disait continue , il recommence à écrire le prompt au lieux de le continuer , il fait une ligne de plus et voilà , par contre j’ai l’impression qu’il est plus fort pour les structure en JSON mais comme il arrive pas à me faire un truque en entier je peut pas confirmer
Bonjour, et pourquoi pas utiliser Perplexity AI qui peut lui-même jongler avec plusieurs GPT pour faire l'ensemble enchainé avec un prompt à étape pour Perplexity ?
bonjour Ludo, je n'arrive pas à m'abonner à Chat-GPT 4 plus... saurais tu pourquoi ?
Salut tous, aujourd'hui mon GPT4 n'accepte plus de lire et travailler sur des fichiers que je luis envoies notamment des fichiers excel ? c'est normal ?? Merci
Comment faire pour utiliser claude en france stp
Utilsez le VPN Windscribe !
Salut et merci pour cette vidéo.
Tes propos sont aussi intéressants ! Je viens de bénéficier de ta formation à 99 euros en promotion et je t'en remercie infiniment.
Je n'ai pas encore eu le temps de m'y mettre car je suis un peu trop débordé par mes activités professionnelles, mais j'ai hâte de m'y plonger, en particulier pour m'aider dans ma formation de développeur informatique.
Que me recommandes-tu à ce sujet ?
Merci Ludo, ca marche du feu de dieu même pour les gpts. Les instructions a l’arrache de gpt 4 etant bien inférieures et trop longues par rapport à mistral 7b (merci poe gratuit). Il faut juste les ajuster un peu
Merci beaucoup de m’avoir fait un retour :) Avec la solution que je vais vous montrer sur la chaîne semaine prochaine, ça peut faire un carnage :)
Salut Ludo, j'achète régulièrement des Ebooks au format Kindle, format propriétaire apparemment. Quelqu'un connait-il un moyen pour que Chatgpt puisse les lire et ainsi les analyser svp ? merci toujours au top !
Super video comme d'habitude ! Mais on trouve pas les props utiliser a la page web , est ce que c'est normal ?
Les prompts dans la base ? Si si ils y sont !
C'est super. Un grand merci. Juste une chose si je puis me permettre: A force d'écouter vos très bonnes vidéos, je trouve que vos monteurs ne devraient pas couper les espaces blancs de son si courts systématiquement. Parce que ça devient très fatiguant à écouter à la fin d'une vidéo de 20 minutes. En fait on perd du temps à cause de ça parcequ'il faut sans arrêt revenir en arrière. C'est dissuadant de vouloir en écouter une autre de vous à la suite, même sachant qu'elle va être très interessante mais désaggrémentée de ce même défaut. Il faut plus de respiration pour ingurgiter vos textes plus facilement. En toute amitié.
Ca ressemble au systeme de notation et du retour de prompt ameliorer que tu avait presenté dans le passée
Ça me semble long comme processus pour obtenir des prompts " parfait"
Au passage j'ai finalement pris la formation depuis plusieurs jours et j'adore ❤
Génial Sandy, merci oour le partage :) Ravi que la formation te plaise :)
Moi je trouve bidon... Automatisation sur 2 exemple. Oubtu peu rien faire de plus, grosses carottes 🥕🥕
Obtenir un prompt optimal, c'est alléchant mais je ne suis pas convaincue par ce que vous avez présenté.
Nous avons l'habitude d'itérer la construction de nos prompts en faisant nous-mêmes les corrections en fonction du résultat obtenu. Il me semble qu'une méthode d'optimisation consisterait à donner une note à la réponse de ChatGPT et de lui dire ce qui manque dans sa réponse. Puis de lui demander de corriger lui-même son prompt en tenant compte de nos remarques. Et ainsi de suite jusqu'au prompt optimal, c'est-à-dire le prompt que l'on notera 10/10, aucune modification à faire.
Dans l'article, le prompt est optimisé grâce à des exemples notés. Tout cela me rappelle Promptor, mais avec Promptor, c'est ChatGPT qui évalue lui-même le prompt et non l'utilisatrice (en fonction du résultat obtenu avec le prompt).
Je n'ai pas vu ce type de démarche : l'utilisatrice évalue la réponse, donne son feedback et demande à ChatGPT de corriger en tenant compte de ses retours. Et vous?
Ok la News Letter passe bien... mais est-elle pertinente?
Est-ce qu'il est possible de demander à ton IA de cibler des sources d'information de qualité?
J'ai lu qu'il était possible d'entraîner (ou affiner) un LLM comme Mixtral 8x7B sur des données particulières ou sur un domaine précis.
Bref, est-ce que ça vaut le coup d'investir du temps pour créer ton propre LLM expert afin de valoriser la génération de contenu?
Bonjour Ludo, sauf erreur, j'obtiens de meilleurs résultats avec un VPN sur USA et mon compte Google configuré en anglais. Et bien sûr en conversant en anglais.
Pour gpt ou Gemini ? Cela est normal dans tous les cas car elle est plus entrené avec des bases des données anglophone je suppose
On peut avoir le prompt stp?
Il est dans la base, lien dans la description, mes ressources IA. Si vous avez déjà la base, faire bien attention d’aller sur la base originale, donc pas dupliquée ;) Sinon, ça ne se met pas à jour !
*Tes vidéos sont bien car on est pas obligé de regarder l'image pour te comprendre, juste t'écouter suffit...*
Je suis assez mitigé sur cette méthode. Elle permet certainement de faire mieux qu'un prompt générique, mais selon mon expérience, les différents modèles ne réagissent pas aux prompts de la même manière. Un prompt qui est bon pour un modèle ne le sera pas nécessairement pour l'autre.
C'est difficile à déceler sur les gros modèles performants, mais c'est flagrants sur les petits modèles qu'on fait tourner en local.
Et dans ce contexte, un même prompt peut permettre à un modèle moins performant d'obtenir de meilleurs résultats qu'un modèle bien meilleur.
Un exemple simple : certains ont besoin d'être bien plus guidés pour sortir un résultat complet et pertinent, d'autres au contraire ont besoin d'avoir des instructions lâches pour les laisser révéler leur potentiel. Ne pas respecter ces spécificités c'est s'exposer à des réponses lapidaires et peu détaillées, ou à une boucle sans fin, à des contresens dans le développement ou même un amalgame sans queue ni tête des concepts évoqués dans le prompt...
Et c'est valable aussi bien pour le rôle assigné au modèle que pour le prompt en lui-même.
Google duet ?
rien de révolutionnaire, les IA génératives plafonnent en ce moment, tout le reste n'est que marketing...
Whoo, c est la manière de dompter cette IA qui évolue, pour réussir à lui faire cracher quelques chose de révolutionnaire. Essaye de faire le parallèle avec les débuts de l automobile ! C est marketing de rouler à 200kmh, certes pas révolutionnaire même en 1924. Mais la méthode pour tous y arriver même moi peut être révolutionnaire !!
Je partage ton avis.
Sa formation c'est pareil, du vent
Prime
Dommage que pour faire des vue sur RUclips il faut mettre des titre qui ne sont pas vrai.
Non la méthode n'est pas révolutionnaire le prompt final est pas ouf et ya des manière plus simple d'avoir de meilleur prompt
Hum… le prompt est révolutionnaire dans son approche. Faire appel à un LLM pour optimiser le prompt d’un autre LLM. Révolutionnaire ne veut pas dire ultra performant de ouf. Ça veut juste dire que c’est une approche nouvelle, qui diffèrent des autres.
/PimpMyPrompt ?
@@LudovicSalenne tu a raison mais les gens quand il voient le mot révolutionnaire et quand il regarde des vidéo sur des prompt il attendent surtout que la chose est vraiment utile mais d'après moi c'est pas hyper utile 🥴
@@LudovicSalenne
Cela semble une bonne idée d'affiner des prompts par des IA. Il pourrait être intéressant d'effectuer avant une étape de recherche sur les centres d'intérêt de ta cible. En tout cas cela semble passionnant.
Je trouve que la méthode PimpMyPrompt est largement supérieur
putain on dirait un vendeur de tapis ... tu respires parfois ?
mon ami concentrons nous sur ce que Ludo nous apporte plutôt que perdre du temps à écrire des commentaires qui n'apport rien