- Видео 101
- Просмотров 643 547
CNRS - Formation FIDLE
Франция
Добавлен 18 янв 2021
FIDLE (Formation Introduction au Deep LEarning) est une formation en ligne, libre et gratuite, ouverte à toutes et à tous !
Elle est proposée et soutenue par les réseaux DEVLOG, RESINFO et SARI du CNRS
Pour en savoir plus, rendez-vous sur :
fidle.cnrs.fr
Elle est proposée et soutenue par les réseaux DEVLOG, RESINFO et SARI du CNRS
Pour en savoir plus, rendez-vous sur :
fidle.cnrs.fr
JDLS 2024 / Multimodal Pre Training for Scientific Data
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS).
Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris.
L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues.
Des intervenant·e·s issu·e·s de domaines scientifiques variés se sont succédés tout au long de la journée pour présenter leurs usages des méthodes d'intelligence artificielle.
Cette journée à été portée et soutenue par :
CNRS* : www.cnrs.fr/fr
GENCI : genci.fr
MIAI : miai.univ-grenoble-alpes.fr
Université Grenoble-Alpes : www.univ-gre...
Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris.
L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues.
Des intervenant·e·s issu·e·s de domaines scientifiques variés se sont succédés tout au long de la journée pour présenter leurs usages des méthodes d'intelligence artificielle.
Cette journée à été portée et soutenue par :
CNRS* : www.cnrs.fr/fr
GENCI : genci.fr
MIAI : miai.univ-grenoble-alpes.fr
Université Grenoble-Alpes : www.univ-gre...
Просмотров: 768
Видео
JDLS 2024 / IA et industries culturelles - Illustration de pistes pour le chercheur
Просмотров 3976 месяцев назад
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / OpenLLM
Просмотров 4186 месяцев назад
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / CroissantLLM
Просмотров 4296 месяцев назад
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / Mon projet en 3 minutes
Просмотров 4836 месяцев назад
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / Common Corpus
Просмотров 3126 месяцев назад
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / Jurimétrique & LLMs - Quantification des décisions judiciaires à l'aide de LLMs
Просмотров 5166 месяцев назад
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / Écosystème national de support en IA
Просмотров 8966 месяцев назад
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
Perspectives pour la Science (vue de mai 2023) - Bertrand Cabot (IDRIS/CNRS)
Просмотров 949Год назад
Perspectives pour la Science (vue de mai 2023) - Bertrand Cabot (IDRIS/CNRS)
Alphafold2 et la prédiction de structures de protéines - Thibaut Véry (IDRIS/CNRS)
Просмотров 1,4 тыс.Год назад
Alphafold2 et la prédiction de structures de protéines - Thibaut Véry (IDRIS/CNRS)
L'Histoire de BLOOM - Lucille Saulnier & François Yvon
Просмотров 1,5 тыс.Год назад
L'Histoire de BLOOM - Lucille Saulnier & François Yvon
Illustration - Classification d'image (MNIST) avec un DNN
Просмотров 2,3 тыс.Год назад
Illustration - Classification d'image (MNIST) avec un DNN
Illustration - DNN Régression œnologique
Просмотров 2,4 тыс.Год назад
Illustration - DNN Régression œnologique
3. 80 ans d'histoire... et la victoire des neurones !
Просмотров 3,7 тыс.Год назад
3. 80 ans d'histoire... et la victoire des neurones !
1. Intelligence Artificielle, Machine Learning, Deep-Learning... De quoi parle t-on au juste ?
Просмотров 9 тыс.Год назад
1. Intelligence Artificielle, Machine Learning, Deep-Learning... De quoi parle t-on au juste ?
2. De la régression logistique au neurone artificiel...
Просмотров 4,1 тыс.Год назад
2. De la régression logistique au neurone artificiel...
Nouvelle saison FIDLE !! Jeudi 16 Novembre, 14h00
Просмотров 2,1 тыс.Год назад
Nouvelle saison FIDLE !! Jeudi 16 Novembre, 14h00
Seq. 05 / Evaluation et Données creuses
Просмотров 4,1 тыс.2 года назад
Seq. 05 / Evaluation et Données creuses
Seq. 04 / Démystifier les maths (Live)
Просмотров 5 тыс.2 года назад
Seq. 04 / Démystifier les maths (Live)
Installez votre environnement Fidle pour les TPs !
Просмотров 5 тыс.3 года назад
Installez votre environnement Fidle pour les TPs !
Introduction au Deep Learning, nouvelle session !
Просмотров 10 тыс.3 года назад
Introduction au Deep Learning, nouvelle session !
Bonjour. Je suis débutant en deep learnong. Est ce que j'aurais besoin de connaissances en informatique comme la programmation pour comprendre cette matière ?! Et merci
Merci pour ce live et bonne année ! ;) Petite question sur le TP DNN avec la classification des chiffres, on récupère la prédiction du modèle en prenant avec la fonction argmax (donc la plus grande proba parmis les 10 valeurs) la position dans le vecteur. Comment sait on que la position 0 dans le vecteur correspond à la valeur 0 ? Le modèle a-t-il organisé lui même les 10 sorties (avec les proba) dans un ordre croissant en fonction des obervations ?
Merci. Très bonne question. Le modèle organise les 10 sorties pendant l'apprentissage avec les labels "vérité" que l'on lui donne. On lui dit que la bonne réponse est la valeur 0 en position 0. Normalement, si nous, superviseur de l'apprentissage, n'avons pas un esprit désordonné, nous indiquons un ordre croissant : 0 en position 0, 9 en position 9. Le modèle apprend ce qu'on lui donne à apprendre. J'espère avoir été clair. PS :Il y a une petite subtilité entre le sparse_categorical_cross_entropy et le categorical_cross_entropy, que je vous laisse regarder par vous même pour bien comprendre.
Merci beaucoup, C'est clair et en plus en français :)
19:15 Si on pioche dans la région des 1, on va générer Attila !
Un grand merci pour ce contenu très riche
Merci pour cette vidéo, on y comprend bien le principe ! J'ai par contre un problème quand j'utilise les dropouts, le code dans l'exemple ne dépasse jamais les 0.85 d'accuracy. Sans le dropout je monte à 0.95.
merci beaucoup
Merci pour explication Excellent mais s'il veut plait veux peuvez donner la fonction plot_multivaraint_serie et merci beucoup
bonjour jai essayer de reproduire votre travail avec une autre base de donnee et je n'arrive a savoir qui est pwk
Mille mercis pour ces séances de présentation ! En tant que jeune ingénieur en construction qui souhaite approfondir sa maîtrise du deep learning en douceur, votre format est adéquat.
Merci beaucoup pour votre commentaire et votre soutien !
subclassing = héritage, non?
Bravo pour cette vidéo fort bien faite au niveau contenu et sur la forme.
Merci beaucoup pour votre soutien
Bonjour, merci beaucoup pour votre travail ! Je n'ai pas saisi l'aspect "non supervisé" dans l'apprentissage de cet exemple. Merci
Merci beaucoup pour cette formation Fidle ! Très complète !
merci vraiment
Merci pour ces formations mais le point 2. n'est qu'en partie vraie. Presque aucune IA mettait en avant des générations d'image de personnes caucasiennes, c'était même le contraire. Gemini par exemple, a lourdement était acccusé de faire preuve de Wokisme dans ses générations d'images. Des personnes racisées et complétement non-alginées avec l'aspect temporel de certains événements historiques. Cela n'est pas un problème en soit, elle permet d'égaliser les ethnies mais elles étaient faites de manière abusive et incohérente. Cela relève d'un point crucial: les modèles sont concus par des organismes et des bigtech qui orientent leurs modèles. La solution serait d'avoir des IA décentralisées.
Bonjour, Suite à l'audition du témoin numéro 6, j'aimerais avoir quelques références pour répondre à une accusation maintes fois entendue "Les ingénieurs qui développent des I.A. feraient bien de lire des livres d'éthique". Il m'est arrivé de répondre que les philosophes feraient aussi bien de lire des livres d'informatique pour comprendre qu'une I.A., c'est juste des maths. Si je pouvais enrichir ma bibliothèque, répondre "Hannah Arendt a écrit que..." et en gros faire le premier pas, pour encourager d'autres à ne pas confondre LLM et magicien d'Oz, ce serait avec plaisir ! Bref, toute suggestion du style "L'éthique pour les nulles / pour Oppenheimer / pour ingénieure" est la bienvenue.
Bien joué pour la mise en scène d’un procès captivant qui aborde l’éthique de l’IA de manière ludique et engageante ! Merci pour cet exercice stimulant
Merci beaucoup pour votre soutien ! N'oubliez pas de répondre au formulaire afin de participer aux délibérations du jury de ce faux procès : fidle.cnrs.fr/jury
L'IA comment ça fonctionne ?
Si vous suivez tous nos cours vous devriez pouvoir nous le dire avant l'été !
Merci pour le partage
Content de vous retrouver !
Merci nous sommes très heureux de revenir cette saison
Vous êtes très généreux Bonne continuation
découvert par hasard en me renseignant sur les pinns presque pile à l'heure !
Merci pour le partage est une formation très riche d'informations
thanks
Excellent, exactement ce que je cherchai. Cerise sur le gateau, en français. Très bien détaillé. une analogie avec une surface courbe où on cherche le point le plus bas local aurait été un plus.
Merci beaucoup pour votre retour
Bonsoir Professeur, j'ai vraiment aimé vos explication. Mais je n'arrive pas à importer pwk, je suis sur Googlecolab. je voulais afficher les erreurs
Votre contenu est vraiment très riche
Bonne présentation
superbe explication
Comment faire qu’une descente de gradient ne soit pas une piste noire mais une piste verte ! Merci beaucoup pour la clarté et les détails des explications.
Tout est plus simple avec un bon moniteur :)
Merci a vous tous. j imagine le travail en coulisses...
Bonjour, Merci énormément a l équipe: La qualité des présentations, des supports, des profs ... donne une idée sut le volume de la préparation et l effort de l équipe pour ce projet. Merci a vous.
Merci infiniment pour votre retour !
félicitation pour des explications claires merci
Merci beaucoup pour votre retour !
Je peux ajouter que parfois des modèles peuvent être très faibles en paramètres, mais que les tenseurs sont de grande dimension dans la fonction forward, c'est rare, mais cela existe dans les modèles de super-résolution, notamment quand on utilise le ReflectionPad à l'intérieur du modèle. Merci beaucoup pour les informations, j'ai beaucoup appris.
Merci pour votre remarque pertinente et votre intérêt pour cette séquence !
Excellente explication ! Très bon travail.
Merci beaucoup !
Je suis très modestement en charge de l'IA au sein de ma société, vos vidéo m'aide énormement dans mon quotidien à comprendre, à mettre en oeuvre et à cerner les enjeux. Aussi, après tant d'année, je trouve encore incroyable tout ce partage. Encore un grand merci. Bravo.
Merci à vous de suivre notre contenu ! Nous sommes ravis si cela peut vous aider
Cette vidéo est une Masterclass !! Merci pour le partage de connaissances et d'expérience !
Merci infiniment pour votre retour !
Avoir une formation de cette qualité et gratuite, c'est quand même dingue. Un grand merci pour votre travail.
Merci beaucoup !!
Merci beaucoup
Merci également à vous !
Pour cette partie maths, je recommanderai de commencer un peu plus simple notamment pour le gradient. Un truc qui permet de bien comprendre je trouve c'est un "computational graph" très simple, pour montrer comment le delta d'une variable d'entrée se "propage" dans les couches intermédiaires et finales, puis comment on peut "remonter" avec les dérivées. Andrew Ng a une très bonne explication dans sa spécialization "Deep Learning" sur Coursera (si besoin d'inspi) En dehors de ça FIDLE c'est toujours aussi génial ;)
Merci beaucoup pour ce retour et cette idée ! :-)
Très bien expliqué. Je suis allé lire cette Article, c'est très intéressant.
Merci beaucoup :-)
Bonjour, merci pour la clarté de vos explications. Une question SVP, au niveau des RNNs, est-ce que la sortie Y(t) va avoir tjrs pour taille, le nombre des neurones du recurrent layer. Merci d'avance.
Oui, chaque unité de la cellule générera une dimension dans la sortie. Si la cellule possède n unités, sa sortie sera de dimension n.
53:16 : Multimodal LLM
?? que voulez-vous dire ?
This channel is a gem, thank you.
Thank you very much, your thanks are our best reward!
C'était digérable, cher ATIM 😁
Nous sommes les diététiciens de l'IA !: ;-)
Merci beaucoup pour cette séquence... tout est très clair !👍
Merci beaucoup, votre retour nous fait plaisir !! Le sujet de cette séquence n'est pas le plus simple.... ;-)
Merci beaucoup
Merci à vous pour votre intérêt !!
Super ! Merci !
Merci à vous !