j'adore vos émissions , mais je me sens un peu seul quant tu dis "tout le monde à vue ça en terminal , pardon même en troisième il ne voulait plus de moi " trêve de plaisanterie , C'est juste génial que vous partagiez tout ça avec nous .
Un des meilleurs épiodes que j'ai vu. Très intéressant et éclaircissant sur tous les enjeux et dangers liés à l'IA. Underscore a vraiment un gros potentiel. Continuez comme ça !
Faut quand même se rendre compte que si le mec avait bien fait son boulot de nettoyage des données, l'IA qui a appris à détecter des cancers plutôt que des pâtisseries aurait fini par faire des choses moins intéressantes... comme quoi la sérendipité existe même en IA
Salut Micode, je te découvre et j'aime pas mal tes sujets. C'est marrant de voir 2 ans plus tard un sujet sur l'IA et OPENAI. l'évolution est belle quand même! Continue tout tes sujets. Beau boulot!
Hello Micode . Je ne sais pas si tu connais le vulgarisateur scientifique Scienc4all. Il parle d'IA et d'éthique dans l'IA. Ca serait cool de le voir dans Underscore, je trouve qu'il a un avis éclairé et intéressant sur l'IA et son évolution ^^
Super intéressant ! Je connaissais déjà pas mal de trucs sur le sujet et pourtant j'ai pu apprendre beaucoup de choses et il y a eu des réflexions très sympa puis j'aime beaucoup le fait que vous n'avez pas forcément la même position sur le sujet (entre Hardisk qui se méfie un peu de l'ia et au contraire le spécialiste du sujet qui dit qu'on en est encore loin mais que personnellement il rêverai de voir cela) Merci pour votre boulot c'est un plaisir à regarder 👌
C'était l'épisode que j'ai préféré suivre depuis le début, j'ai appris vraiment beaucoup de choses et j'ai entendu parler de plein de nouvelles notions. :) Je préfère tres largement des episodes comme ceux-là à ceux ou vous parlez entreprenariat :)
Ça me fait penser à l'IA qui arrivait à détecter des loups mais seulement grace au fond blanc de la neige qu'on retrouve sur bcp de photos du data set et pas sur la forme d'un loup
Ah ben ça c'est intéressant... Ça montre bien la difficulté de créer un dataset sans biais. Mais d'un autre côté la neige fait parti du contexte. Perso si je croise un husky en liberté dans la montagne je penserai que c'est un loup. Et si je vois un loup tenu en laisse en pleine ville, je le confondrai sûrement avec avec un husky. En fait c'est la loi de Bayes. Bref :)
Petite précision au sujet des termes "Intelligence artificielle", "Machine Learning", "Deep Learning" : Le terme "Intelligence artificielle" (IA) est plutôt grand publique et commercial, il désigne le fait de mimer une des intelligences humaines (capacité à reconnaitre un chat, faire des calculs ... ). On peut dissocier cet ensemble d'algorithme en 2 sous-ensembles : - Les IA symboliques dont les règles sont définit par l'humain (e.g. les systèmes experts) - Les IA statistiques également appelé "Machine Learning" dont les règles sont définit par l'algorithme lui même à partir des données (e.g régressions linéaires, réseaux de neurones) Le "Machine Learning" désigne donc l'ensemble algorithmes dont les règles sont défini grâce aux données. On peut divisé cet ensemble selon différent critères : la façon de fonctionner (statistique, heuristique ...), la façon d'apprendre (apprentissage supervisé, non-supervisé ...). Le Deep Learning quant à lui désigne une toute petite sous-partie partie du "Machine Learning" et donc de l'"Intelligence artificielle". Il regroupe l'ensemble des algorithmes de type "réseaux de neurones" ayant plus d'une "couche cachée". Un réseau de neurone fonctionne par couches successive de neurones. La première est la couche d'entrée, la dernière est la couche de sortie, et toute les couches entre sont les "couches cachées". Ce sont ces couches qui analysent et décompose l'entrée (une image par exemple) pour en extraire les informations dont elle a besoin. La couche de sortie va alors traduire le résultat de la dernière couche cachée pour qu'il soit compréhensible et exploitable par l'humain et le reste du programme. En espérant que ce commentaire puisse être utile et éclairer le plus grand nombre 😁.
Vidéo super intéressante, le sujet abordé n'est pas facile à expliquer et vous y arrivez super bien ! :) Je me permets de compléter un peu à la réponse donnée à la question d'@Hardisk à 4:52, à savoir comment marche un réseau neuronal. C'est un sujet qui est super dur à expliquer à l'oral en freestyle, donc je me dis qu'une version écrite peut être un peu plus simple à appréhender bien et complètera celle donnée par @Defend Intelligence. L'objectif de ces systèmes est d'apprendre à faire quelque chose à partir d'exemples. Dans le cas du chat donné par @Defend Intelligence, le système va devoir dire si, ayant vu une image, il y a un chat dessus ou pas. Au départ, les "règles" connues par ce système sont aléatoires. De fait, il va voir une image, tenter de déterminer s'il y a un chat dessus ou non et à un moment ... se tromper. Lorsque c'est le cas, le système va essayer de changer ses règles de façon à ne plus se tromper pour cette image précise. Puis il passe à l'image d'après en gardant les "règles" qu'il a définit auparavant, puis les raffine sur l'image en cours. En faisant ça sur pleins d'images différentes, il va donc chercher à trouver des "règles" qui fonctionnent pour un maximum d'images, soit à généraliser ses règles pour être correct dans un maximum de cas. Avant de parler de comment le système met à jour ses "règles", il faut avoir une mesure de "à quel point je me suis trompé ?". Concrètement, le système de détection de chat va devoir dire "Je pense à XX% que c'est un chat" ; s'il pense à 12% que c'est un chat et qu'il se trompe, c'est moins grave que s'il pense à 92% que c'est un chat et qu'il se trompe. La façon dont le système met à jour ses règles est la partie qui semble magique. Pour l'analogie, c'est comme un robot aspirateur qui va se déplacer : il avance, se prend un mur, recule un peu, tourne à gauche et là il n'y a plus de mur. Il a essayé, il s'est trompé, il a changé son comportement et il a réussi à passer ! Dans le cas d'un réseau neuronal de classification d'images de chat, une image va être donnée en entrée. Les "règles" dont on parle depuis tout à l'heure sont en fait assimilable à une grande équation dont les paramètres sont les valeurs des pixels de l'image. Au départ, le système ne va pas trop savoir à quoi faire attention et va se rater. A ce moment-là, il va se dire "Et si j'avais fait plus attention à ces pixels là, est-ce que je me serais moins trompé ?" et modifier les caractéristiques de l'image auquel il fait attention. Il modifie son comportement jusqu'à ne plus se tromper, puis passe à une autre image. Une fois dessus, il va répéter la boucle : "avec ce à quoi je fais attention maintenant, est-ce que je me trompe ou pas ? Oui ? Ok bon bah je vais encore changer ce à quoi je fais attention afin de moins me tromper". Comprendre comment le système change ce à quoi il fait attention demande un peu de connaissances de math, mais globalement ce n'est rien de sorcier. Avec quelques graphiques explicatifs, ça passe assez simplement. :) Si vous voulez en savoir plus je vous conseille l'incroyable vidéo de Sciences Etonnantes à ce sujet. Elle s'appelle "Le Deep Learning". Voilà voilà, en espérant que c'était clair et que cela en aide certains, désolé pour le pavé ! ✌
Très bonne explication, très facile d'accès. Je me permet d'ajouter Science4All avec sa série sur l'IA qui est étonnamment abordable et vraiment complète pour de la vulgarisation, puis 3Blue1Brown si vous voulez tout comprendre aux maths derrière la descente de gradient.
oui, c'est pareil - je pense qu'il a pas compris qu'on parlait pas de l'AI native du jeu (of course les joueurs humains experimentes defoncent l'AI du jeu)
Je viens de voir la vidéo je suis un peu en retard j'ai fait partie du projet alphastar sur SC2 comme de nombreux joueurs. Et en effet, sur ago of empire ça serait pareil, ce n'est pas le côté aléatoire de la carte qui va désordonné l'Ordi. Et pour revenir sur le fait que alphastar soit bridé, c'est sur les APM (clique par minute) en tant que bon joueur on a plus de 200 APM mais aplhastar lui c'est un ordi il peut "cliquer" a une vitesse inhumaine c'est pour ça qu'il a été bridé. Seul un jeu avec un grosse part de rng (aléatoire) pourrait laisser une chance à un humain de gagner contre un ordi comme alphastar
Encore une très bonne émission ... 13:49 : le point Terminator existe déjà. Les américains l'ont appelé ... sans doute appellent ils ça de l'humour : "Skynet" ... comme dans Terminator justement. C'est un programme d'espionnage des télécommunications de la NSA, en œuvre au Moyen-Orient qui cible les téléphones et décide SEUL, selon les conversations, qui doit vivre ... ou mourir. Skynet est relié a son bras armé qui dirige les drones. Les frappes ont commencé sous Obama et ont fait déjà beaucoup de morts en Afghanistan, au Yémen, en Irak ... Le problème, que l'audition du Sénat Américain a relevé, lors de l'enquête et l'audition du directeur de la NSA de l'époque sur ce programme , suite au "Drone Gate" que Snowden à révélé, est qu'il a totalement supprimé l'homme de la décision. Un programme décide SEUL que le téléphone X est dangereux du fait de ses discutions et ce même programme décide, SEUL, de lancer un drone pour tuer le porteur de ce téléphone. En plus, en cas de doute, le programme à pour consigne de tuer plutôt que de risquer de laisser s'échapper un potentiel terroriste. Skynet ne s'ennuie pas non plus avec les "détails", puisque lors de la frappe, il ne vérifie pas que le porteur du téléphone soit seul, déciment ainsi parfois des familles entières. Du coup, sur les milliers de morts, le Sénat Américain à affirmé, que 90% des morts étaient innocents. Visiblement le monstre a échappé à son créateur et n'est pourtant pas au point. Donc Skynet existe ... ce sont des sources officielles américaines qui l'ont affirmé, ce n'est donc pas une rumeur. Vous avez un wagon de retard ... très étonnant de votre part ;o) La réalité a déjà rattrapé la fiction ;o)
Tu regardes cet épisode maintenant, tu penses à ce qu'est devenu Open AI, avec GPT 3.5 et maintenant GPT 4. Ça fait drôle de voir l'ancien design de leur site web.
Super inintéressant, très bon invité :) Je kiffe sa chaîne car il est vraiment doué et passionné pour transmettre le savoir. En tout cas vers 6:00 je me suis pris une nouvelle claque, je me suis rendu compte un peu plus de la puissance de nos processeur actuels. Pfff le nombre d'actions qu'ils font à la seconde, à la minute.. C'est fou!!!
AI Dungeon, c'est un jeu basé sur du GPT-3 justement. On a demandé aux devs pendant longtemps une traduction du jeu dans certaines langues et en fait... Bah l'IA a appris elle-même à parler des langues au fur et à mesure que les joueurs lui parlaient dans d'autres langues. C'est assez marrant ^^
20:00 je ne sais pas si cela existe déjà, mais comme je suis absolument génial, j’y ai pensé. Pour résoudre le problème, on peut faire une médiane 3x3 des pixels (en gros on prend les pixels alentours et on dit qu’ils ont la même valeur) ce qui va « pixeliser » l’image. En calibrant l’IA de telle sorte à ce qu’une image ait la même valeur que son homologue 3x3 on résout le problème du bruit. Mieux encore, on peut faire une 4x4 ; 6x6 ; 10x10 et chercher à obtenir une certitude décroissant de façon linéaire quant à la nature de l’information. En somme ce que je dis c’est qu’une IA qui n’aurait pas ce problème évoluerait de cette façon décrite plus haut (un décroissement linéaire de type a*x+b), quant à sa certitude sur la nature d’une image quand on applique du flou gaussien d’un rayon de N ; une médiane NxN. De ce fait, dans la base de données on devrait inclure pour une image donnée son homologue NxN et son homologue avec un flou gaussien de rayon N. Du moins, pousser l’IA à considérer à partir d’une image ce qu’il y a au delà des pixels, ce qu’il reste lorsqu’on généralise. Et quelle meilleur moyen de généraliser que d’inclure la généralisation au sein même de l’apprentissage.
Super impressionnant moi qui m'interresse à l'AI depuis quelques temps pour un ancien pro' de l'image mais aimant aussi la com'. On revisite nos propres principes biologiques qui nous paraissent plus que naturelles. Déontologie : où se trouve la vérité du faux dans l'infos et définir un Troll d'une vraie pro' de l'infos ? Merci pour ce début de connaissance qu'il me reste à creuser ! Bravo, encore une fois ... ;)
Merci beaucoup! C’est pour ça que j’ai commencé ma chaîne. En travaillant dedans je voulais partager ma passion sans tombé dans les travers de la science fiction.
Petite precision pour AlphaStar quand meme :) La fois ou l'IA a fait sa demonstration et battu TLO et Mana, elle n'avait pas a gerer la camera en jeu (Comme si un joueur avait pu dezoomer et voir toute la carte a la fois). En lui rajoutant cette limitation, elle n'a pas reussi a venir a bout des meilleurs (comme Serral). Ca reste cepandant un exploit impressionant !
@@DefendIntelligence Les gars de AlphaStar avaient confirmer ce "probleme" de l'IA pendant le stream de demonstration, Je peux retrouver des sources ecrites avec un peu de recherche, je te mets ca ici quand j'aurais retrouver :)
Concernant Open IA, rappelons que cette IA gagne mais selon certaines conditions. Par exemple lors de The International 2017 sur Dota 2 (la ou Open IA a battu des joueurs pro en 1v1 mid) elle a gagné par ce que certaines conditions devait être respecté comme par exemple que le joueur pro devait avoir le même personnage que l'IA par ce que l'IA ne savait en joué qu'un seul perso, les "Rain Drop" (item qui absorbe des dégâts magiques) étaient interdit, les runes était aussi interdites. Et même avec ses conditions un jeune joueur pro a réussi quelques mois après à le rebattre: ruclips.net/video/DQ3fPS9345A/видео.html Et même en 2019 quand ils ont fait un Open IA en 5v5 sur les 117 héros on nous soumettais qu'un pool de 30 héros par ce que l'IA ne savait pas jouer contre et avec la plupart des autres héros. Tout ça pour dire qu'il y a tellement de paramètres à prendre en compte qu'une IA aujourd'hui ne peut pas gagner contre des pro sans qu'ils y aient des conditions qui soit soumise au préalable pour réduire les possibilités.
En vrai c'est une chouette émission. J'écouter que d'une oreille à un moment et votre invité dis"ceux qui disent que c'est une blackbox, en fait, ne savent pas vraiment comment ça fonctionne", ça m'a ramener sur terre, je suis du genre à faire ces remarques faciles.
Petite rectification : il y a déjà de l'intelligence artificielle explicable, notamment en machine learning. Par exemple un arbre de décision c'est très clair et on voit comment la machine est arrivée à la conclusion. C'est en deep learning qu'on cherche de l'explication, donc il existe déjà des modèles très explicables (en ML) :)
La différence entre Age of Empires, Starcraft ou n'importe quel autre jeu (ou problème en fait) c'est l'espace de recherche. Quand une IA cherche une bonne solution, elle ne peut modifier qu'un nombre de fini de paramètres (dans le cas des réseaux de neurones artificiels, ce sont les coefficients des connexions). L'ensemble des valeurs que tous les paramètres peuvent prendre est appelé l'espace de recherche du problème. Ce sont souvent des espaces qui ont une très haute dimensionnalité et donc qui sont compliqués a évaluer/rechercher/naviguer. Entre deux jeux très similaires, l'ajout ou le retrait d'une règle de jeu par exemple, peut faire exploser la taille de l'espace de recherche.
Une question me tarode. Un être humain n'est pas lisse, n'est pas une machine, mais on peut via je cite, ( lavage de cerveau, technique d'hypnose...)le remodeler. Quid d'une ia ? Peut on camoufler une ia dans une ia ? Car l'ia à la base reste un ensemble de donnés quantiques intelligente de base. Donc peut on lui donner des directives compliqués, à savoir par exemple dissocier une flame au gaz d'une flame au charbon de bois. Ou tout simplement de camoufler des informations en les transformant en d'autres informations sans passer par la fameuse technique du face clipping. Il y a trop d'incertitudes et de possibilités face à une ia trop complex. Trop intelligente. Je pense à ça mais c'est un exemple comme tant d'autres, même si ça paraît extrême. Bon un avion se crash près d'un site milutarisé, l'ia conçois ça comme un acte de guerre, et décide en son propre chef d'enclencher les boutons de mise à feu nucléaires sur des cybles potentiel en rapport à sa banque de donnés à sa disposition. Ne dit on pas que l'erreur est humaine ? Que dira t on si c'est une ia qui a fauté ?
Pour être un joueur de longue date de Starcraft, j'ai quelques précisions à apporter sur AlphaStar car j'ai suivi le truc et j'ai été impressionné. De un sur le blog de deepmind qui parle de AlphaStar, ils disent qu'il y a jusqu'à 10^26 actions possible à chaque moment dans le temps. De plus, il faut faire des milliers d'actions différentes avant d'arriver au résultat d'une victoire ou d'une défaite. Faire le lien entre quelles actions aident à gagner est particulièrement complexe. Micode compare à Age of Empire, en soit, ca reste le même type de jeu avec beaucoup de similitude, mais je crois que dans Starcraft 2 l'engine était plus performant, le unit pathing, etc. Il dit aussi que dans AoE les cartes sont générées, peut-être mais ca reste toujours plus ou moins pareil de partie en partie, tu vas aller trouver tes ressources et les miner. Dans Sc2, il existe plusieurs cartes différentes et l'IA va simplement apprendre ce qu'est une "base" par la manière dont les minerais sont placés, grace au positionnement des rampes, des falaises, etc. L'IA ne va pas apprendre à jouer que sur une carte au point de pouvoir abuser des positions stratégiques. Il va devoir apprendre à reconnaitre une position stratégique puis à l'abuser qu'importe la carte. AlphaStar, quand on lit le blog, ca dit qu'il apprenait a jouer contre lui-même. Mais un IA qui joue contre lui-même certes il va se développer, mais il va avoir un "skill cap" où d'autres IA pourraient développer des stratégies qui abusent des points faibles de l'IA principal. Donc google à continuer de l'entrainer face à des stratégies spécifiques qui abusaient de ses points faible. C'est avec les différentes sortes d'apprentissages qu'il en est venu à battre des joueurs de haut niveau. C'est vraiment intéressant de voir une IA prendre des centaines de décisions complexes en temps réel qui auront un impact que plusieurs minutes plus tard. Sur youtube il y a des vidéos d'alphaStar qui montre un interface où tu peux voir l'estimation des chances de gagner d'alphaStar. Ainsi en fonction du temps qui passe, des engagements, etc, l'IA estime ses chances de victoire, ca m'a toujours surpris.
Enfaite ce sinon faut comprendre, c’est qu’une IA qui fonctionne en machine learning, c’est un programme qui fait des statistiques avec des modèles complexe à plusieurs variables. Mais comme pour n’importe qu’elles statistiques, plus on a de donnees en entrée, plus on est précis dans nos résultats. Le gros danger avec l’IA comme ça, ce sont les données qu’on donne en entrée. Si les données ne représente pas la réalité, ne sont pas objectives (et c’est très dur d’avoir des données réellement objective), la prise de décision en sortie sera biaisé et c’est dangereux car beaucoup (grand publique) pensent l’IA comme un être suprême (IA forte des films) qui pense par lui même et dit forcément la réalité parce qu’il n’est pas biaisé comme les humains. Il ne faut pas oublier que l’IA est une création humaine, donc prend les biais humains par la même occasion. Donc ne soyez pas naïf, sans non plus ne croire aucun résultat d’IA, gardez un regard critique dessus.
On ne dirait pas que ce format est nouveau pour vous tellement c'est quali, enfin une émission francophone sur ces sujets. La seule chose qui me dérange c'est sur le plan de l'invité et Hardisk, quand l'invité parle vers Micode, ça me donne envie de sortir du cadre et le changement de plan met du temps à me casser cette sensation. Peut-être un ressenti personnel !
Le jeux avec IA learning est Virtua Fighter 2 sur Saturn. L'iA apprend comment on joue et fini par trop bien jouer Il devient injouable si le joueur ne se force pas à changer son style de jeu, le varier et ainsi progresser. Dans les options il y a la possibilité de reset l'apprentissage. J'adore commenter une vidéo 3 ans après. 😄
1:50 mdr l'expert, il ne dit que des banalités sauf là où il se trompe complètement puisque le deep n'est utilisé que depuis 2012, les modèles existaient avant mais la puissance de calcul n'existait pas
Le jeu video creatures, utilisant des réseaux neuronaux date de 1996.Un an plus tôt En 1995 le premier véhicule autonome réalisa le trajet Munich- Copenhague. Fin des années 80, du machine learning capable de faire de la reconnaissance d'images utilisé dans les prototypes de systèmes d'aide à la conduite (détection des bandes blanches et autre signalisation).
Petite donnée sur alphastar aussi il y a la problématique du fait qu'elle a une vision non limitée par l'écran (celons les versions). Donc foncièrement elle est partout simultanément contrairement a un joueur qui aussi rapide soit il ne voit que ce qui est sur son ecran
Merci 🙏. L’aspect dystopique de l’IA c’est un immense sujet oui. Et on est souvent biaisé avec nos vision issue de film de science-fiction. Mais un débat autour de comment pourrait évoluer notre société peut être intéressant c’est sur 😊
@@DefendIntelligence Ahah merci de ton retour mais j'ai l'impression que les réponses à tout cela se cachent dans tes vidéos donc je vais aller voir ça !
Yann Le Cun n'est plus directeur de recherche pour Facebook depuis janvier 2018. Il a quitté ce poste pour occuper un poste de chercheur. Depuis plus de 10 ans, Russell et Norvig (auteurs du livre dont se servent tous ceux qui ont leur premier cours dans le domaine) poussent à reprendre la poursuite d'une intelligence artificielle. Pour ceux que ça intéresse, quelques pixels suffisent à fausser un diagnostique du cancer.
Dommage que dans l'explication d'un réseau de neurones, il n'est pas parlé d'une différence fondamentale avec les algorithmes classiques. Un algo classique (normalement) fonctionne dans un environnement fini et donne un résultat prédictible ( et peu prendre plus ou moins de temps, plus il est complexe plus ça prendra du temps voir un temps infini). Un réseau de neurones, fonctionne sur des approximations (comme les humains). D'ou également des erreurs. L'avantage c'est qu'il est capable de resoudre, avec une certaine approxomation, des problèmes très complexes, voir non réalisables classiquement.
Intéressant comme sujet avec des jeunes passionnés et compétents, mais attention, ne soyez pas trop naïfs, le monde est capable de méchancetés que vous n'imaginez pas et parfois on finit par regretter d'avoir coopéré.
Pensez à vous abonner si vous appréciez l'émission ! 😇
Fait plus souvent des vidéos stp
j'adore vos émissions ,
mais je me sens un peu seul quant tu dis "tout le monde à vue ça en terminal ,
pardon même en troisième il ne voulait plus de moi "
trêve de plaisanterie ,
C'est juste génial que vous partagiez tout ça avec nous .
et mettez la cloche sur "TOUTE" les notifications ;) Bisous
le jour ou openIA fera une IA qui saura lire et interpréter des textes ça sera un gros bon en avant ?
C'est drôle que tu as mentionné transcendance!
Un des meilleurs épiodes que j'ai vu. Très intéressant et éclaircissant sur tous les enjeux et dangers liés à l'IA. Underscore a vraiment un gros potentiel. Continuez comme ça !
23:04 La tête de Hardisk après avoir entendu "j'ai pété trois d'open AI" me fume de rire mdrrr
je suis mort
Ahahahaha j'ai checké aussi pour voir si il allait réagir ou pas 😂 Il me tue !!!
😂😂😂😂
ptn j'allais le commenter mdr
Faut quand même se rendre compte que si le mec avait bien fait son boulot de nettoyage des données, l'IA qui a appris à détecter des cancers plutôt que des pâtisseries aurait fini par faire des choses moins intéressantes... comme quoi la sérendipité existe même en IA
Salut Micode,
je te découvre et j'aime pas mal tes sujets. C'est marrant de voir 2 ans plus tard un sujet sur l'IA et OPENAI. l'évolution est belle quand même! Continue tout tes sujets. Beau boulot!
Pareil, je tombe dessus aujourd'hui en remontant gentiment le fil depuis 3 mois que j'ai découvert la chaine.
@@pumbaa667 ahah moi aussi je me faisais la meme remarque :D
Hello Micode . Je ne sais pas si tu connais le vulgarisateur scientifique Scienc4all. Il parle d'IA et d'éthique dans l'IA. Ca serait cool de le voir dans Underscore, je trouve qu'il a un avis éclairé et intéressant sur l'IA et son évolution ^^
Super vidéo, sujet très intéressant, cependant, le micro de Micode est un peu trop fort par rapport aux invités
Un demie millimètre de gain en moins ! 🤏
J’ai l’impression que c’est parce qu’il se tient plus proche du micro que les invités .
Mais tout à fait d’accord
C'est vrai, je m'en suis rendu compte avec l'avocat
Il y a aussi une saute de gain vers les 10min10s
@@Alexandre-nu1qb
Moi, tout ce que je retiens de cette émission, c'est que micode voit des gâteaux dans la nature ! 😂
🥨🥨🥨🌮🧀🍄🧅🧄🥦🍒🫐🫐🫐🫐🫐🍓🍓🍓🍓🍓🍓🫐🫐
Super intéressant ! Je connaissais déjà pas mal de trucs sur le sujet et pourtant j'ai pu apprendre beaucoup de choses et il y a eu des réflexions très sympa puis j'aime beaucoup le fait que vous n'avez pas forcément la même position sur le sujet (entre Hardisk qui se méfie un peu de l'ia et au contraire le spécialiste du sujet qui dit qu'on en est encore loin mais que personnellement il rêverai de voir cela)
Merci pour votre boulot c'est un plaisir à regarder 👌
C’est effectivement du débat que naisse les meilleures réflexions! 😊
Toujours très intéressant, le podcast a tellement de potentiel, CONTINUEZ ET GO LES SOMMETS
oui tellement intéressant une vidéo sortie il y a 2 secondes
Mdr coucou Calyx x)
@@monsieurmacron_ oh mdr cc toinoux
C'était l'épisode que j'ai préféré suivre depuis le début, j'ai appris vraiment beaucoup de choses et j'ai entendu parler de plein de nouvelles notions. :)
Je préfère tres largement des episodes comme ceux-là à ceux ou vous parlez entreprenariat :)
Celui avec bitk_ était trop court aussi, on sentait que bitk_ aurait pu raconter des dingueries
Très très intéressant ! rempli d'infos pertinentes et concrètes. L'émission va devenir une ref! Bravo!
Bravo à Defend Intelligence, il maîtrise bien son sujet, c'était très intéressant !
Je cherchais son nom
Ça me fait penser à l'IA qui arrivait à détecter des loups mais seulement grace au fond blanc de la neige qu'on retrouve sur bcp de photos du data set et pas sur la forme d'un loup
Ah ben ça c'est intéressant... Ça montre bien la difficulté de créer un dataset sans biais. Mais d'un autre côté la neige fait parti du contexte. Perso si je croise un husky en liberté dans la montagne je penserai que c'est un loup. Et si je vois un loup tenu en laisse en pleine ville, je le confondrai sûrement avec avec un husky. En fait c'est la loi de Bayes.
Bref :)
@@manugira-gym c’est super intéressant
Petite précision au sujet des termes "Intelligence artificielle", "Machine Learning", "Deep Learning" :
Le terme "Intelligence artificielle" (IA) est plutôt grand publique et commercial, il désigne le fait de mimer une des intelligences humaines (capacité à reconnaitre un chat, faire des calculs ... ). On peut dissocier cet ensemble d'algorithme en 2 sous-ensembles :
- Les IA symboliques dont les règles sont définit par l'humain (e.g. les systèmes experts)
- Les IA statistiques également appelé "Machine Learning" dont les règles sont définit par l'algorithme lui même à partir des données (e.g régressions linéaires, réseaux de neurones)
Le "Machine Learning" désigne donc l'ensemble algorithmes dont les règles sont défini grâce aux données. On peut divisé cet ensemble selon différent critères : la façon de fonctionner (statistique, heuristique ...), la façon d'apprendre (apprentissage supervisé, non-supervisé ...).
Le Deep Learning quant à lui désigne une toute petite sous-partie partie du "Machine Learning" et donc de l'"Intelligence artificielle".
Il regroupe l'ensemble des algorithmes de type "réseaux de neurones" ayant plus d'une "couche cachée". Un réseau de neurone fonctionne par couches successive de neurones. La première est la couche d'entrée, la dernière est la couche de sortie, et toute les couches entre sont les "couches cachées". Ce sont ces couches qui analysent et décompose l'entrée (une image par exemple) pour en extraire les informations dont elle a besoin. La couche de sortie va alors traduire le résultat de la dernière couche cachée pour qu'il soit compréhensible et exploitable par l'humain et le reste du programme.
En espérant que ce commentaire puisse être utile et éclairer le plus grand nombre 😁.
Trois vrais pti génie qui parle underscore
Love it
Vidéo super intéressante, le sujet abordé n'est pas facile à expliquer et vous y arrivez super bien ! :)
Je me permets de compléter un peu à la réponse donnée à la question d'@Hardisk à 4:52, à savoir comment marche un réseau neuronal. C'est un sujet qui est super dur à expliquer à l'oral en freestyle, donc je me dis qu'une version écrite peut être un peu plus simple à appréhender bien et complètera celle donnée par @Defend Intelligence.
L'objectif de ces systèmes est d'apprendre à faire quelque chose à partir d'exemples. Dans le cas du chat donné par @Defend Intelligence, le système va devoir dire si, ayant vu une image, il y a un chat dessus ou pas.
Au départ, les "règles" connues par ce système sont aléatoires. De fait, il va voir une image, tenter de déterminer s'il y a un chat dessus ou non et à un moment ... se tromper. Lorsque c'est le cas, le système va essayer de changer ses règles de façon à ne plus se tromper pour cette image précise. Puis il passe à l'image d'après en gardant les "règles" qu'il a définit auparavant, puis les raffine sur l'image en cours. En faisant ça sur pleins d'images différentes, il va donc chercher à trouver des "règles" qui fonctionnent pour un maximum d'images, soit à généraliser ses règles pour être correct dans un maximum de cas.
Avant de parler de comment le système met à jour ses "règles", il faut avoir une mesure de "à quel point je me suis trompé ?". Concrètement, le système de détection de chat va devoir dire "Je pense à XX% que c'est un chat" ; s'il pense à 12% que c'est un chat et qu'il se trompe, c'est moins grave que s'il pense à 92% que c'est un chat et qu'il se trompe.
La façon dont le système met à jour ses règles est la partie qui semble magique. Pour l'analogie, c'est comme un robot aspirateur qui va se déplacer : il avance, se prend un mur, recule un peu, tourne à gauche et là il n'y a plus de mur. Il a essayé, il s'est trompé, il a changé son comportement et il a réussi à passer !
Dans le cas d'un réseau neuronal de classification d'images de chat, une image va être donnée en entrée. Les "règles" dont on parle depuis tout à l'heure sont en fait assimilable à une grande équation dont les paramètres sont les valeurs des pixels de l'image. Au départ, le système ne va pas trop savoir à quoi faire attention et va se rater. A ce moment-là, il va se dire "Et si j'avais fait plus attention à ces pixels là, est-ce que je me serais moins trompé ?" et modifier les caractéristiques de l'image auquel il fait attention. Il modifie son comportement jusqu'à ne plus se tromper, puis passe à une autre image. Une fois dessus, il va répéter la boucle : "avec ce à quoi je fais attention maintenant, est-ce que je me trompe ou pas ? Oui ? Ok bon bah je vais encore changer ce à quoi je fais attention afin de moins me tromper".
Comprendre comment le système change ce à quoi il fait attention demande un peu de connaissances de math, mais globalement ce n'est rien de sorcier. Avec quelques graphiques explicatifs, ça passe assez simplement. :)
Si vous voulez en savoir plus je vous conseille l'incroyable vidéo de Sciences Etonnantes à ce sujet. Elle s'appelle "Le Deep Learning".
Voilà voilà, en espérant que c'était clair et que cela en aide certains, désolé pour le pavé ! ✌
Très bonne explication, très facile d'accès. Je me permet d'ajouter Science4All avec sa série sur l'IA qui est étonnamment abordable et vraiment complète pour de la vulgarisation, puis 3Blue1Brown si vous voulez tout comprendre aux maths derrière la descente de gradient.
Franchement, super émission, super invités et très bonne qualité de la diffusion!
C'est intéressant, tout en étant accessible!
Continue comme ça :)
Mais ce mec est un puits d'infos! Keep going🔥
Merci beaucoup pour cette vidéo, très explicite et bien illustrée.
Sur age of empires 2 un modèle comme celui de deep mind écraserait un joueur humain comme alphastar
oui même délire que starcraft
oui, c'est pareil - je pense qu'il a pas compris qu'on parlait pas de l'AI native du jeu (of course les joueurs humains experimentes defoncent l'AI du jeu)
Yep je suis d'accord.
D'ailleurs en cherchant rapidement j'ai rien trouvé qui confirme ce que dit micode
Je viens de voir la vidéo je suis un peu en retard j'ai fait partie du projet alphastar sur SC2 comme de nombreux joueurs. Et en effet, sur ago of empire ça serait pareil, ce n'est pas le côté aléatoire de la carte qui va désordonné l'Ordi. Et pour revenir sur le fait que alphastar soit bridé, c'est sur les APM (clique par minute) en tant que bon joueur on a plus de 200 APM mais aplhastar lui c'est un ordi il peut "cliquer" a une vitesse inhumaine c'est pour ça qu'il a été bridé. Seul un jeu avec un grosse part de rng (aléatoire) pourrait laisser une chance à un humain de gagner contre un ordi comme alphastar
Encore une très bonne émission ...
13:49 : le point Terminator existe déjà. Les américains l'ont appelé ... sans doute appellent ils ça de l'humour : "Skynet" ... comme dans Terminator justement.
C'est un programme d'espionnage des télécommunications de la NSA, en œuvre au Moyen-Orient qui cible les téléphones et décide SEUL, selon les conversations, qui doit vivre ... ou mourir.
Skynet est relié a son bras armé qui dirige les drones. Les frappes ont commencé sous Obama et ont fait déjà beaucoup de morts en Afghanistan, au Yémen, en Irak ...
Le problème, que l'audition du Sénat Américain a relevé, lors de l'enquête et l'audition du directeur de la NSA de l'époque sur ce programme , suite au "Drone Gate" que Snowden à révélé, est qu'il a totalement supprimé l'homme de la décision. Un programme décide SEUL que le téléphone X est dangereux du fait de ses discutions et ce même programme décide, SEUL, de lancer un drone pour tuer le porteur de ce téléphone.
En plus, en cas de doute, le programme à pour consigne de tuer plutôt que de risquer de laisser s'échapper un potentiel terroriste. Skynet ne s'ennuie pas non plus avec les "détails", puisque lors de la frappe, il ne vérifie pas que le porteur du téléphone soit seul, déciment ainsi parfois des familles entières. Du coup, sur les milliers de morts, le Sénat Américain à affirmé, que 90% des morts étaient innocents. Visiblement le monstre a échappé à son créateur et n'est pourtant pas au point.
Donc Skynet existe ... ce sont des sources officielles américaines qui l'ont affirmé, ce n'est donc pas une rumeur. Vous avez un wagon de retard ... très étonnant de votre part ;o) La réalité a déjà rattrapé la fiction ;o)
Tu regardes cet épisode maintenant, tu penses à ce qu'est devenu Open AI, avec GPT 3.5 et maintenant GPT 4. Ça fait drôle de voir l'ancien design de leur site web.
Super inintéressant, très bon invité :) Je kiffe sa chaîne car il est vraiment doué et passionné pour transmettre le savoir.
En tout cas vers 6:00 je me suis pris une nouvelle claque, je me suis rendu compte un peu plus de la puissance de nos processeur actuels. Pfff le nombre d'actions qu'ils font à la seconde, à la minute.. C'est fou!!!
Episode extremement interessant. Defend Intelligence illustre tellement bien les concepts c'est bluffant.
Merci pour l'effort de francisation !
AI Dungeon, c'est un jeu basé sur du GPT-3 justement. On a demandé aux devs pendant longtemps une traduction du jeu dans certaines langues et en fait... Bah l'IA a appris elle-même à parler des langues au fur et à mesure que les joueurs lui parlaient dans d'autres langues. C'est assez marrant ^^
20:00 je ne sais pas si cela existe déjà, mais comme je suis absolument génial, j’y ai pensé.
Pour résoudre le problème, on peut faire une médiane 3x3 des pixels (en gros on prend les pixels alentours et on dit qu’ils ont la même valeur) ce qui va « pixeliser » l’image. En calibrant l’IA de telle sorte à ce qu’une image ait la même valeur que son homologue 3x3 on résout le problème du bruit. Mieux encore, on peut faire une 4x4 ; 6x6 ; 10x10 et chercher à obtenir une certitude décroissant de façon linéaire quant à la nature de l’information.
En somme ce que je dis c’est qu’une IA qui n’aurait pas ce problème évoluerait de cette façon décrite plus haut (un décroissement linéaire de type a*x+b), quant à sa certitude sur la nature d’une image quand on applique du flou gaussien d’un rayon de N ; une médiane NxN.
De ce fait, dans la base de données on devrait inclure pour une image donnée son homologue NxN et son homologue avec un flou gaussien de rayon N. Du moins, pousser l’IA à considérer à partir d’une image ce qu’il y a au delà des pixels, ce qu’il reste lorsqu’on généralise. Et quelle meilleur moyen de généraliser que d’inclure la généralisation au sein même de l’apprentissage.
Il m'a fait kiffer le sujet , invité de qualité ! 🙏
C'est incroyable et intéressant de regarder cette vidéo aujourd'hui avec la release de GPT3.5 et même 4
C'est vraiment sympa de revoir 2 ans après, a cette époque Open AI était réservé à des initiés...
Super impressionnant moi qui m'interresse à l'AI depuis quelques temps pour un ancien pro' de l'image mais aimant aussi la com'. On revisite nos propres principes biologiques qui nous paraissent plus que naturelles. Déontologie : où se trouve la vérité du faux dans l'infos et définir un Troll d'une vraie pro' de l'infos ? Merci pour ce début de connaissance qu'il me reste à creuser ! Bravo, encore une fois ... ;)
très bon intervenant sur l'IA, il sait de quoi il parle, c'est assez rare pour être souligné
Merci beaucoup! C’est pour ça que j’ai commencé ma chaîne. En travaillant dedans je voulais partager ma passion sans tombé dans les travers de la science fiction.
Merci pour ces émissions, juste une suggestion : mettez les vidéos dans une (ou plusieurs) playlist, pour le binge watching
29:10 ... En effet il y a une sacrée personnification de l'IA XD
Petite precision pour AlphaStar quand meme :) La fois ou l'IA a fait sa demonstration et battu TLO et Mana, elle n'avait pas a gerer la camera en jeu (Comme si un joueur avait pu dezoomer et voir toute la carte a la fois). En lui rajoutant cette limitation, elle n'a pas reussi a venir a bout des meilleurs (comme Serral). Ca reste cepandant un exploit impressionant !
Hello, C’est quoi la source stp ! J’ai lu les papiers de recherches de AlphaStat et je n’ai vu cette information nul part. Merci
@@DefendIntelligence Les gars de AlphaStar avaient confirmer ce "probleme" de l'IA pendant le stream de demonstration, Je peux retrouver des sources ecrites avec un peu de recherche, je te mets ca ici quand j'aurais retrouver :)
Concernant Open IA, rappelons que cette IA gagne mais selon certaines conditions.
Par exemple lors de The International 2017 sur Dota 2 (la ou Open IA a battu des joueurs pro en 1v1 mid) elle a gagné par ce que certaines conditions devait être respecté comme par exemple que le joueur pro devait avoir le même personnage que l'IA par ce que l'IA ne savait en joué qu'un seul perso, les "Rain Drop" (item qui absorbe des dégâts magiques) étaient interdit, les runes était aussi interdites. Et même avec ses conditions un jeune joueur pro a réussi quelques mois après à le rebattre: ruclips.net/video/DQ3fPS9345A/видео.html
Et même en 2019 quand ils ont fait un Open IA en 5v5 sur les 117 héros on nous soumettais qu'un pool de 30 héros par ce que l'IA ne savait pas jouer contre et avec la plupart des autres héros.
Tout ça pour dire qu'il y a tellement de paramètres à prendre en compte qu'une IA aujourd'hui ne peut pas gagner contre des pro sans qu'ils y aient des conditions qui soit soumise au préalable pour réduire les possibilités.
En vrai c'est une chouette émission. J'écouter que d'une oreille à un moment et votre invité dis"ceux qui disent que c'est une blackbox, en fait, ne savent pas vraiment comment ça fonctionne", ça m'a ramener sur terre, je suis du genre à faire ces remarques faciles.
Tellement passionnant, tellement effrayant.
Petite rectification : il y a déjà de l'intelligence artificielle explicable, notamment en machine learning. Par exemple un arbre de décision c'est très clair et on voit comment la machine est arrivée à la conclusion. C'est en deep learning qu'on cherche de l'explication, donc il existe déjà des modèles très explicables (en ML) :)
Bravo! Super émission.
La différence entre Age of Empires, Starcraft ou n'importe quel autre jeu (ou problème en fait) c'est l'espace de recherche. Quand une IA cherche une bonne solution, elle ne peut modifier qu'un nombre de fini de paramètres (dans le cas des réseaux de neurones artificiels, ce sont les coefficients des connexions). L'ensemble des valeurs que tous les paramètres peuvent prendre est appelé l'espace de recherche du problème. Ce sont souvent des espaces qui ont une très haute dimensionnalité et donc qui sont compliqués a évaluer/rechercher/naviguer.
Entre deux jeux très similaires, l'ajout ou le retrait d'une règle de jeu par exemple, peut faire exploser la taille de l'espace de recherche.
Je m'attendais à rien vu le titre clickbait.
Et c'était magnifique !
23:58 : "[l'IA, en parlant des phrases entrées] leur donne un contexte ?"
Super intéressant, merci pour la vulgarisation !
Très instructif merci !! J'aurais aimé voir chappi comme illustration cinématographique !!
les 30 minutes les mieux investies de la semaine
Superbe vidéo ! Ca m’aide à comprendre mieux. Surtout que je suis entrain d’apprendre sur l’xia
Une question me tarode. Un être humain n'est pas lisse, n'est pas une machine, mais on peut via je cite, ( lavage de cerveau, technique d'hypnose...)le remodeler.
Quid d'une ia ? Peut on camoufler une ia dans une ia ? Car l'ia à la base reste un ensemble de donnés quantiques intelligente de base. Donc peut on lui donner des directives compliqués, à savoir par exemple dissocier une flame au gaz d'une flame au charbon de bois. Ou tout simplement de camoufler des informations en les transformant en d'autres informations sans passer par la fameuse technique du face clipping.
Il y a trop d'incertitudes et de possibilités face à une ia trop complex. Trop intelligente. Je pense à ça mais c'est un exemple comme tant d'autres, même si ça paraît extrême. Bon un avion se crash près d'un site milutarisé, l'ia conçois ça comme un acte de guerre, et décide en son propre chef d'enclencher les boutons de mise à feu nucléaires sur des cybles potentiel en rapport à sa banque de donnés à sa disposition.
Ne dit on pas que l'erreur est humaine ? Que dira t on si c'est une ia qui a fauté ?
Merci à tous pour vos retours. :)
Un superbe épisode, petite note sur le micro une chouille trop fort de micode ^^'
4:15 "On voit des gâteaux dans la nature" 🤣
Pour être un joueur de longue date de Starcraft, j'ai quelques précisions à apporter sur AlphaStar car j'ai suivi le truc et j'ai été impressionné. De un sur le blog de deepmind qui parle de AlphaStar, ils disent qu'il y a jusqu'à 10^26 actions possible à chaque moment dans le temps. De plus, il faut faire des milliers d'actions différentes avant d'arriver au résultat d'une victoire ou d'une défaite. Faire le lien entre quelles actions aident à gagner est particulièrement complexe.
Micode compare à Age of Empire, en soit, ca reste le même type de jeu avec beaucoup de similitude, mais je crois que dans Starcraft 2 l'engine était plus performant, le unit pathing, etc. Il dit aussi que dans AoE les cartes sont générées, peut-être mais ca reste toujours plus ou moins pareil de partie en partie, tu vas aller trouver tes ressources et les miner.
Dans Sc2, il existe plusieurs cartes différentes et l'IA va simplement apprendre ce qu'est une "base" par la manière dont les minerais sont placés, grace au positionnement des rampes, des falaises, etc. L'IA ne va pas apprendre à jouer que sur une carte au point de pouvoir abuser des positions stratégiques. Il va devoir apprendre à reconnaitre une position stratégique puis à l'abuser qu'importe la carte.
AlphaStar, quand on lit le blog, ca dit qu'il apprenait a jouer contre lui-même. Mais un IA qui joue contre lui-même certes il va se développer, mais il va avoir un "skill cap" où d'autres IA pourraient développer des stratégies qui abusent des points faibles de l'IA principal. Donc google à continuer de l'entrainer face à des stratégies spécifiques qui abusaient de ses points faible. C'est avec les différentes sortes d'apprentissages qu'il en est venu à battre des joueurs de haut niveau.
C'est vraiment intéressant de voir une IA prendre des centaines de décisions complexes en temps réel qui auront un impact que plusieurs minutes plus tard. Sur youtube il y a des vidéos d'alphaStar qui montre un interface où tu peux voir l'estimation des chances de gagner d'alphaStar. Ainsi en fonction du temps qui passe, des engagements, etc, l'IA estime ses chances de victoire, ca m'a toujours surpris.
Je fais référence à ce vidéo: ruclips.net/video/HcZ48JDamyk/видео.html
Cette émission est géniale, il fallait l’inventer :)
Enfaite ce sinon faut comprendre, c’est qu’une IA qui fonctionne en machine learning, c’est un programme qui fait des statistiques avec des modèles complexe à plusieurs variables.
Mais comme pour n’importe qu’elles statistiques, plus on a de donnees en entrée, plus on est précis dans nos résultats. Le gros danger avec l’IA comme ça, ce sont les données qu’on donne en entrée.
Si les données ne représente pas la réalité, ne sont pas objectives (et c’est très dur d’avoir des données réellement objective), la prise de décision en sortie sera biaisé et c’est dangereux car beaucoup (grand publique) pensent l’IA comme un être suprême (IA forte des films) qui pense par lui même et dit forcément la réalité parce qu’il n’est pas biaisé comme les humains. Il ne faut pas oublier que l’IA est une création humaine, donc prend les biais humains par la même occasion. Donc ne soyez pas naïf, sans non plus ne croire aucun résultat d’IA, gardez un regard critique dessus.
On ne dirait pas que ce format est nouveau pour vous tellement c'est quali, enfin une émission francophone sur ces sujets. La seule chose qui me dérange c'est sur le plan de l'invité et Hardisk, quand l'invité parle vers Micode, ça me donne envie de sortir du cadre et le changement de plan met du temps à me casser cette sensation. Peut-être un ressenti personnel !
Je valide la proposition de création du Point Matrix : dans une discussion sur l'Intelligence Artificielle, on arrive à parler de Terminator.
Super intéressant et super invité pédagogue!!
Merci beaucoup 🙏
3:36 c'est tellement bien résumé 👍
Merci 🙏
Super vidéo comme d'hab. J'adore cette émission ! PS : lançons le point Matrix svp
Le jeux avec IA learning est Virtua Fighter 2 sur Saturn. L'iA apprend comment on joue et fini par trop bien jouer Il devient injouable si le joueur ne se force pas à changer son style de jeu, le varier et ainsi progresser. Dans les options il y a la possibilité de reset l'apprentissage.
J'adore commenter une vidéo 3 ans après. 😄
J’ai regarder hier la vidéo avec hélios hier, je ne connaissais pas ton émission. Je vais toute me les faire ! J adore !
Meilleur format de RUclips, merci ;)
je suis Micode depuis longtemps. mais je viens de découvrir cette autre chaine. j'adore ce système d interview et de discussion.
1:50 mdr l'expert, il ne dit que des banalités sauf là où il se trompe complètement puisque le deep n'est utilisé que depuis 2012, les modèles existaient avant mais la puissance de calcul n'existait pas
Le jeu video creatures, utilisant des réseaux neuronaux date de 1996.Un an plus tôt En 1995 le premier véhicule autonome réalisa le trajet Munich- Copenhague. Fin des années 80, du machine learning capable de faire de la reconnaissance d'images utilisé dans les prototypes de systèmes d'aide à la conduite (détection des bandes blanches et autre signalisation).
Petite donnée sur alphastar aussi il y a la problématique du fait qu'elle a une vision non limitée par l'écran (celons les versions). Donc foncièrement elle est partout simultanément contrairement a un joueur qui aussi rapide soit il ne voit que ce qui est sur son ecran
Je regarde cette vidéo en 2023, et ChatGPT est dispo, du coup c'est rigolo :)
Bon alphastar, il a avait une vue dezommer de toute la Map, ça l'a bien aidé
Les premiers travaux d'IA reconnus comme tels ont été menés par McCulloch et Pitts en 1943 avec le premier modèle de neurones artificiels
Très intéressant.
Merci.
Énorme !! Une mine d’info ce mec, même si j’aurais aimé que vous vous attardiez un peu plus sur l’aspect dystopique 🤓
Merci 🙏. L’aspect dystopique de l’IA c’est un immense sujet oui. Et on est souvent biaisé avec nos vision issue de film de science-fiction. Mais un débat autour de comment pourrait évoluer notre société peut être intéressant c’est sur 😊
@@DefendIntelligence Ahah merci de ton retour mais j'ai l'impression que les réponses à tout cela se cachent dans tes vidéos donc je vais aller voir ça !
Super bien comme épisode !
Tellement intéressant, c'est fou :O
Et en 2023, on a ChatGPT.
dev par open ai
0:52 La carte change dans StarCraft, et Alphastar gagne en ayant les mêmes contraintes que les joueurs, c'est pour ça que c'est impressionnant !
C'est fou de penser qu'une ultra-minorité de personnes sur cette planète avaient ce genre de discussions il y a des années 😆😆😆
Super casquette on dirait le logo de Swissborg 💪🙏😂
Cette "IA" a été développée en Python 15:40
Bonne vidéo ;)
"Ce qui est impressionant d'ailleurs c'est qu'à ce jour aucun humain ne sait reconnaitre un gibon" 😆😆😆
Super vidéo comme toujours Avez vous un lien pour télécharger la picture anti reconnaissance facial ?
Franchement OpenAI je crois pas que ca va marcher hein
Comprendre l'IA en 30min, ce mec est bcp trop calé, belle découverte !
Concernant le GIBON PANDA, il suffit de détecter le bruit (image processing) et de normaliser son image.
J'adore cette émission
Le point matrix est officiellement créé. Nice !
Il etait dans le futur ce Jeune homme
Je kiff ! Merci pour les redifs
Yann Le Cun n'est plus directeur de recherche pour Facebook depuis janvier 2018. Il a quitté ce poste pour occuper un poste de chercheur. Depuis plus de 10 ans, Russell et Norvig (auteurs du livre dont se servent tous ceux qui ont leur premier cours dans le domaine) poussent à reprendre la poursuite d'une intelligence artificielle.
Pour ceux que ça intéresse, quelques pixels suffisent à fausser un diagnostique du cancer.
Super émission. Super initiative. Merci les gars !
Le point matrix excellent !!
2 ans plus tard, le monde du film "Her" ne semble plus aussi improbable. On y est quasiment.
Les gars faites un truc pour la prise de son, on est obligé de jouer avec le volume pour baisser la voix et la réaugmenter
Dommage que dans l'explication d'un réseau de neurones, il n'est pas parlé d'une différence fondamentale avec les algorithmes classiques. Un algo classique (normalement) fonctionne dans un environnement fini et donne un résultat prédictible ( et peu prendre plus ou moins de temps, plus il est complexe plus ça prendra du temps voir un temps infini).
Un réseau de neurones, fonctionne sur des approximations (comme les humains). D'ou également des erreurs. L'avantage c'est qu'il est capable de resoudre, avec une certaine approxomation, des problèmes très complexes, voir non réalisables classiquement.
J'adore l’émission, c'est trop bien.
Discours explicite extrêmement complet et intéressent. GÉNIAL< !!!!!!/>
Super intéressant !
On dirait le moment ou Liloo apprends l'histoire du monde dans le 5eme élément
merci pour vos vidéos toujours top, apres la regie automatique, cela serait top d'avoir un reglage volume micro automatique... :D
23:10 Dans la tête d'Hardisk :"he... GPT3... J'ai pété... Bref..."
"À ce jour, aucun humain ne sait reconnaître un gibbon." Mort de rire.
c'est niche mais ultra interressant !!!!! merci
Intéressant comme sujet avec des jeunes passionnés et compétents, mais attention, ne soyez pas trop naïfs, le monde est capable de méchancetés que vous n'imaginez pas et parfois on finit par regretter d'avoir coopéré.