J'ai adoré tes 3 dernières vidéo. Je suis un peu dubitatif sur le raccourci que tu fais en fin de vidéo : Tu laisses entendre que la fonction calculée par les réseaux de neurones pour définir un chat n'est pas "hautement compressible". Tu dis exactement "à moins qu'elle soit hautement compressible", mais pourquoi elle ne le serait pas? Intuitivement, j'aurais tendance à dire qu'il y a *TOUTES* les chances qu'elle le soit! Déjà parce qu'entre 2 individus, cette fonction à toutes les chances d'être différente, et parce qu'il y a et il y aura (normalement) une infinité d'être vivant pour créer une fonction "Est-ce un chat?", on peut largement estimer que cette fonction prise au hasard sur un individu soit très loin d'être la fonction "Est ce un chat?" la plus optimisée! D’ailleurs si le concept "chat" que nous attendons est celui qu'attends un humain, la fonction "Est ce un chat?" la plus optimisée a de grandes chances de ne pas venir d'un humain, mais peut être, par exemple, d'un animal dont la survie nécessite une rapide perception du concept "chat". Pour moi, le réseau de neurone donne une définition "parfaite", mais pas forcément optimisée.
Le fait qu'il soit possible de faire classer une image de chat en bateau en ajoutant un bruit sur l'image imperceptible pour les humains (adversarial attack) montre bien que ces réseaux n'utilisent justement pas de concepts sémantiques de haut niveau ("petit", "poils", "pattes", "oreilles de telle forme", "museau" etc = chat) mais plutôt une série d'indices de très bas niveau de type telle texture de pixels à coté de telle texture de pixels augmente la probabilité que ce soit un chat. Le fait qu'il soit totalement perdu si on change soigneusement l'intensité de quelques pixels montre bien qu'il n'a pas compris du tout de définition de ce qu'est un chat
Automates Cellulaires Ok le mien est noir est blanc et à une petite moustache donc j’ai voulu l’appeler Adolf Hitler mais ça a finalement été Charlie Chaplin parce qu’il fallait rester Charlie.
Cette série porte un éclairage très intéressant sur le problème des universaux et semble offrir une alternative nuancée a l'essentialisme et au nominalisme.
C'est toi, Lê, qui est un concept mal défini :3 Cette vidéo me fait penser à une autre où la définition d'espèce était bien secouée (chaîne Esprit Critique) Une espèce, ce serait un ensemble d'individus capables de se reproduire. Problème : il y a des "espèces" dont les membres sont étalés sur un vaste territoire. De proche à proche, la reproduction est possible. Mais si on prend les membres aux deux extrémités du territoire, ça ne marche plus. Oups ? Les humains aiment bien avoir des petites définitions carrées de tout. Mais ça finit souvent en pleurs sur le bord de la route. ruclips.net/video/BBTTcu-1PmU/видео.html
la définition des genres aussi fonctionne pareillement, notamment avec les pathologies des chromosomes sexuels. mais je crois que le chat comme le genre est un concept qui existe "dans l'absolu" indépendamment de l'observateur. un concept c'est une case, on ne met pas tout dedans mais on ne peut pas nier la "réalité" de son existence. Si un virus déciment tous les chats disont mâles, c'est une réalité que d'ici qq années tous les chats auront disparus. flou définitionnel ou pas.
Est ce que les exceptions infirment une règle ? Et puis il faut prendre les définitions pour ce qu'elles ont d'utile, tout en étant conscient des limites qu'elles peuvent avoir. À tout vouloir déconstruire on ne peut plus ni penser, ni dire, ni nommer grand chose. C'est un mal moderne qui dissimule une certaine dose d'idéologie.
you prolly dont care but if you are bored like me during the covid times you can stream all the new movies on InstaFlixxer. Been binge watching with my girlfriend for the last weeks :)
Cette video est géniale, prendre un tel recul sur la biologie, la philosophie, la logique pour mieux comprendre l IA est vraiment fascinant. Du coup, est-ce que les IA vont faire cela ? Par exemple une IA pourrait elle connecter le "neurone du chat" avec le vecteur sémantique défini par word2vec?
C'est extrêmement intéressant. Wittgenstein flottait au dessus de la vidéo tout le long (vers dix minutes notamment) et n'a jamais eu l'occasion de s'approcher un petit peu plus, dommage :/ Moi cette vidéo me fait profondément penser à la nature du langage, je m'explique : On n'a pas demandé à l'IA de classifier les chats, n'est-ce pas ? On l'a laissé regarder des vignettes et faire des classifications utiles toutes seules, c'est bien ça ? Ce qu'on remarque c'est qu'elle développe naturellement un concept de "chat", i.e. un neurone qui réagit à la présence de certains éléments. Supposons qu'on ait deux IA, qui cherchent à enrichir leur connaissance mutuellement. Par exemple, la première IA cherche à ce que la deuxième IA développe elle aussi les connexions nécessaires pour qu'elle reconnaisse le concept de chat. Alors, un moyen "simple" de faire ça, c'est de créer un signal spécifique, à savoir un mot, qu'elle va émettre à chaque fois qu'elle reconnaîtra le concept de chat. De cette manière, l'autre IA, pour développer ce concept, aura largement moins besoin de farfouiller au hasard dans le bordel complexe de la réalité pour développer des concepts, puisqu'il lui suffira de faire attention aux fois où la première IA prononce "chat" et de chercher les points communs entre les images qui provoquent cette réaction. En gros, le langage ça pourrait être un moyen pour les hommes non seulement de communiquer, mais de faire en sorte qu'on développe une compréhension du monde similaire entre nous (ce qui est par exemple le prérequis de toute société), qu'on ait des réseaux de neurones aussi isomorphes que possible. Et une fois les architectures des réseaux de neurones suffisamment proches, c'est là que le langage permet de communiquer : je veux t'évoquer un concept, alors je prononce le mot sans que le concept soit présent et ça active les neurones correspondants chez toi. Du coup le langage et la faculté d'abstraction semblent être des conséquences "naturelles" (...à essayer en pratique avec des IA) d'un désir de coopération dans l'apprentissage.
Cette idée que le sens des mots existe exclusivement dans le cerveau, et ne dépend que de la perception phénoménale est remise en question par l'Expérience de la Terre jumelle d'Hilary Putnam : fr.wikipedia.org/wiki/Exp%C3%A9rience_de_la_Terre_jumelle
Béranger Seguin, ne dit pas que l'objet du langage dépend essentiellement de la sémantique individuelle , "Ce qu'on remarque c'est qu'elle développe naturellement un concept de chat " cette phrase va même plutôt dans le sens de Putnam. Le mot permet de partager un état psychologique ayant une similarité forte avec celui de l'auditeur, ce qui ne signifie pas que l'abstraction nommée "chat" soit dans les cerveaux. Le problème des universaux me semble être un des problème de philosophie les plus difficile à démêler, et difficile de considérer l'argument de Putnam comme infaillible.
Merci pour la vidéo. Pour ceux qui se demandent si il y a un problème avec leurs enceintes, non c'est bien la vidéo qui a un problème d'encodage du son, qui crépite tout le long de la vidéo.
J'ai été jouer avec des équivalents/applications de word2vect, c'est assez intéressant :) Pour taper dans l'exemple neutre (lol) : sur un moteur de synonyme, basé sur un corpus d'ouvrage en français, le mot "fascisme" est relié en premier à : - "communisme" (0.831657) - "nazisme" (0.804869) Alors que le mot "fascism" dans le corpus anglais renvoie en premier à : - "nazism" (0.860536) - "communism" (0.837422) J'aurais doublement parié sur l'inverse, entre la propagande anti-communiste américaine et les textes français qu'on aurait pu imaginer plus "complaisant". Bon, c'est pas encore aujourd'hui qu'une IA va nous cracher la vérité révélée et universelle XD
Pour le fun : en utilisant la base allemande avec des termes anglais, les premiers synonymes de "fascism" serait : - "liberalism" - "nationalism" - "humanism" Et dans le même contexte, "fascism" sur la base russe : - "interpretation" - "metaphysics " - "modernism" Même si cela traduit surtout les biais des données d'entrainement, et les difficultés de l'IA sur le multi-langue, je suis quand même pas très rassuré ^^"
L'intervention de DirtyBiologie fait un vrai bien . En effet, le blabla humain sur lequel s'est développé toutes ces sciences, ne sont au bout du compte que concepts dont le première piège c'est de s'y attacher affectivement au point de leur donner une vie, une dignité voire une place de sujet de droit... , comme certains voudraient faire des IA.
Je suis un peu dubitatif, si l'IA parvient à reconnaitre un chat et donc de proposer intrinsèquement une définition du chat, c'est parce qu'elle a été conditionnée par une entité extérieure qui lui a apporté le concept de chat, concept qu'on (l'homme) lui a au final imposé, en lui dictant ce qu'était un chat, basé sur une définition erronée selon ce que tu énonces en début d'épisode. Du coup, comment est-il possible de s'assurer de la validation de cette définition qui est basée sur l'activation de ce fameux neurone ? Cela ma rappelle un petit exercice philosophie, à savoir, définir ce qu'est le temps, sans l'évoquer dans la réponse. "Le temps, c'est ce qui passe quand rien ne se passe" est dans ce cas une réponse erronée bien qu'elle soit plutôt poétique. Je serai alors curieux de voir ce qu'aurait à dire une IA qui devrait "reconnaitre" le concept de temps ! Surtout que la définition de "concept" que tu donnes repose sur des fonctions sensorielles et donc difficilement perceptible dans le cas du temps qui passe. Je sais qu'on s'éloigne du sujet d'origine mais le fond du propos reste le même
Je vois ce que tu veux dire, on se base sur notre définition du chat, pour indiquer que ce que voit l'IA est un chat. Mais il faut faire attention, on ne lui dit pas ce qu'est un chat, on lui dit qu'il y a un chat dans ce qu' "elle" "regarde". Mais il est vrai qu'il n'existe pas de chat en soit, ce n'est qu'un concept inventé par l'homme, mais sûrement partagé avec les chats eux-mêmes. Mais la définition du concept, sera en effet basée sur la définition présente dans notre cerveau. Je pense même qu'elle tend vers la moyenne de la définition des personnes qui définit s'il y a un chat ou non sur la photo, et je pense que c'est ce qu'on veut. On veut que quand scientifiquement il y a un chat sur la photo (dans notre pure subjectivité, tout comme on parle du temps, qui nous est définissable que par lui-même), l'IA nous dise qu'il y a un chat. Pour aller plus loin, cela pourrait revenir à enregistrer le code de notre réseau de neurone (dans notre cerveau) menant à "chat", chose qu'on ne peut faire qu'indirectement à l'aide des IA. Concernant le temps, je pense qu'on ne pourra que lui apprendre à reconnaître quand il est question du temps dans des données. Par exemple toute musique/vidéo devra activer le neurone temps, toute image d'horloge, de personne en mouvement, de sabliers etc aussi. Et, en soit, on pourra écrire sur papier, sur un très long papier, le code, qui exprimera mathématiquement ce qui fait qu'on dit quand il y a du temps sans utiliser le terme "temps" à l'intérieur, ce qui n'est plus une tautologie, sauf qu'il faudra du TEMPS de calcul pour l'exprimer, donc on se sert du temps pour définir le temps encore une fois!!!! Concernant la validation de la définition de ce neurone, il suffit de voir le taux d'erreur à un important jeu de nouvelles données. Et, comme une théorie scientifique, si ça marche très souvent c'est "assez" valide.
Sauf que dans nos vies biologiquement "programmés" nous avons à la naissance aussi des parents qui nous aident à définir des mots ou des choses que l'on a pas encore expérimenté par nos sens. Les IA que l'ont créé et créera seront simplement des enfants comme ceux que l'ont créé par vois naturel. La seule différence c'est que nos enfants quand on les concevait, on ne savait pas comment ils se construisaient, maintenant on comprend de mieux en mieux comment en concevoir un, du coup ce n'est qu'une question de temps où on y arrivera donc bientôt à le faire d'une autre manière que la nature. Donc concernant les détails aux niveaux des neurones artificiels, ça fonctionne exactement de la même façon pour nous.
Et d'ailleurs, de manière générale, je trouve que Lê fait un usage flou des notions de sémantique, sens, concept etc. Il faudrait au minimum expliquer les notions dont hérite l'informatique à partir du cadre de la linguistique et de la logique, avec notamment l'importance des travaux de Frege. Cf par exemple cet article sur la différence entre dénotation et sens, définition extensive et intensive etc. : www.semantique-gdr.net/dico/index.php/Sens_et_d%C3%A9notation Le sens dont on parle là, est notamment l'aptitude à retrouver les conventions de langage reliant par un nom l'individuel à des classes, expression en mots d'un principe de catégorisation. Comme processus, la catégorisation est un élément basique, une nécessité de filtrage et d'organisation, et un ver avec 300 neurones le fait déjà suffisamment pour survivre malgré la complexité de son environnement. Un truc amusant dans le genre : des chercheurs ont tenté de simuler les 302 neurones du ver C. Elegans et ont installé le système dans un robot Lego, avec pour résultat qu'il arrivait à gérer tout seul son mouvement selon les stimulus externes : www.lexpress.fr/actualite/sciences/des-scientifiques-ont-telecharge-le-cerveau-d-un-ver-dans-un-robot-lego_1967945.html
Mais non ta pas compris la vidéo, cest de l'apprentissage NON SUPERVISE, et donc l'AI a crée le concept de chat par elle meme, on me lui a rien imposé, juste montré des vignetes youtube.
Pas plus de raisons de penser que tous le monde soit d'accord avec cette définition rigoureuse qu'avec celle définie par mon cerveau : "un chat est ce que je reconnais être un chat". Bizarrement, ça sonne pas du tout rigoureux, et pourtant c'est la même chose ... Conclusion : la définition du réseau de neurone de Google et Stanford n'est pas une définition plus rigoureuse du concept de chat que celle donnée par n'importe quel cerveau (humain ou pas d'ailleurs)
domsau2 prédateur de mésanges, pas si mignon que ça, vivement l'ia exterminachat 2.0, son code source est libre tu peux nous aider à développer aussi :)
Le chat est un petit animal ronronnant qui : - est toujours attiré par tout type de récipient, et possède la faculté de passer de l'état solide à liquide afin d'optimiser l'occupation de l'espace disponible dans le récipient. - à l'état solide, teste régulièrement la gravité en transformant l'énergie potentielle de pesanteur en énergie cinétique des objets situés à proximité de lui.
11:33 "Peu importe la façon dont tu me présentes Jennifer Aniston, tant que je reconnais que c'est Jennifer Aniston, je m'excite". Une phrase à ne pas sortir de son contexte.^^
Vertigineuse cette série sur la sémantique des IA, et super intéressant. :-) Le coup de l'IA qui rêve qu'elle joue au jeu pour s'améliorer ça m'a mindblow ! ^_^
Quand on dit que l'IA reproduit le préjugé de genre sur l'égalité "médecin - homme + femme = infirmière", est-ce qu'on ne fait pas de la sur-interprétation ? Je m'explique... Il n'y a pas de forme féminine du mot médecin. Donc lorsqu'on y applique "- homme + femme", on tombe dans une zone de l'espace sémantique qui est essentiellement vide. Vu que l'algo est alors chargé de choisir le terme le plus proche, ce terme le plus proche peut très bien être assez éloigné du concept recherché. Ce qui est le cas ici, où l'on finit par tomber sur "infirmière". Maintenant, que se passe-t-il si on entre l'équation "infirmière - femme + homme" ? Si la réponse est "médecin", ok, on a un gros problème. Mais si la réponse est "infirmier", pas de soucis, l'IA aura très bien compris qu'une infirmière et un médecin, ce n'est pas la même chose. Auquel cas, d'elle-même, la machine ne reproduit PAS le préjugé de genre, vu qu'elle ne met pas médecin et infirmière à égalité. Par contre, le mot que la machine cherche n'existe pas dans son espace sémantique, auquel cas elle a ordre d'aller chercher le terme le plus proche. Du reste, la machine pourrait facilement vérifier sa réponse. On part de "médecin - homme + femme = x", la machine trouve "x= infirmière", il ne reste plus qu'à tester "x - femme + homme = y", soit "infirmière - femme + homme = y". Avec, comme résultat attendu : "y = médecin", si l'on souhaite valider l'équation. Sauf qu'on va évidemment trouver "y = infirmier". Donc la machine peut très facilement déterminer que non, x n'est pas égal à "infirmière", même si c'est le terme le plus proche du point de solution désigné par son calcul vectoriel. D'ailleurs, à partir du moment où l'on demande à la machine de prendre "le résultat le plus proche" du résultat du calcul vectoriel, on casse déjà la notion d'égalité de la relation pour passer sur du "à peu près égal". Et, en soit, "médecin - homme + femme ~ infirmière", ce n'est pas si choquant. Ouais, c'est à peu près ça, en effet. On est bien dans le domaine médical, toujours sur un métier au contact des patients, , en cherchant à soigner des gens, et le résultat correspond bien à un terme féminin. On n'a évidemment pas une égalité stricte, mais on ne tombe finalement pas si loin que ça. Si la réponse avait été "choucroute" ou "camion de livraison", ok, le résultat aurait été à côté de la plaque. Ici, bon... il est faux, mais ça reste une relativement bonne approximation, qui est correcte sur de nombreux aspects. Il faut juste ne pas perdre de vue que ce n'est qu'une approximation, et rien d'autre. Et qu'il y a donc une marge d'erreur. On peut même mesurer l'erreur pour tenter d'affiner le résultat. Ici, c'est tout simplement "e = médecin - infirmier", donc l'écart entre le résultat attendu et le résultat obtenu lors de la vérification. Il faudrait voir ensuite ce que donne le calcul "médecin - infirmier"... Et là je ne suis pas sûr qu'on trouve un terme réellement proche. Mais admettons pour un instant qu'il y en ait un, et donc que "e" a une valeur. On en déduit le résultat correct de l'équation : "médecin - homme + femme = infirmière + e". Le fait que la réponse soit une opération vectorielle indiquant en soit, le fait que le terme exact n'existe pas (ou qu'il n'est pas connu de la machine). Le problème évident étant que dans plusieurs cas, comme ici, "e" n'aura en réalité pas de valeur directement (médecin - infirmier = euh...). Auquel cas il faudrait refaire le jeu de vérification de l'équation + calcul de l'erreur, et ce de manière récursive. Ce qui risque d'être très coûteux en temps de calcul. Ou tout simplement conserver l'expression de l'erreur (ici : médecin - infirmier) et la ré-injecter dans le résultat. Ce qui, ici, nous donnerait "médecin - homme + femme = infirmière + médecin - infirmier", ou encore "médecin + femme - homme = médecin + infirmière - infirmier". Bref, autant trouver une réponse précise dans 100% des cas risque d'être compliqué, autant ce qui se fait permet déjà d'obtenir des approximations valables (en tant qu'approximations, encore une fois !). Et ça ne semble pas trop compliqué de pouvoir a minima vérifier la pertinence de la réponse donnée, et parfois améliorer un peu la précision. C'est encore insuffisant pour de la génération de texte, ceci dit. Mais cette méthode est finalement assez jeune, donc laissons la recherche suivre son cours !
Définition : un chat est un animal qui est descendu par"minou".... (parmi nous) Et comme on ne va pas se "minet"... on peut maintenant dire que les humains et les I.A. sont "félins" pour l'autre... :D
La contradiction vient du fait que seul un concept discursif (par exemple les concepts synthétiques mathématiques mais pas que) peut recevoir une définition. Aucun concept analytique (astronomie, sociologie, chimie, logique, épistémologie, psychologie, linguistique, politique, histoire, etc) ne peut recevoir de définition, sauf à être au mieux remplacé par un concept synthétique, c'est ce qu'on appelle alors une modélisation. En guise d'exemple quasi systématique, modélisation d'un ensemble de concepts de la physique par son remplacement par un ensemble de concepts mathématiques (ensemble qu'on appellera alors une théorie du premier ensemble). C'est tout simple, mais sans ce retour aux fondements épistémologiques des sciences (ensembles systématiques de connaissances) on peut ratiociner un bon bout de temps
Un chat tout comme une vache est une sphère, mais avec un fibré à la surface. Une analyse plus fine montre que c'est un tore (lisse sur la partie de courbure negative) mais en général ce raffinement est superflu.
J'ai une question, tu as parlé d'un neurone "chat", donc un neurone qui serait "réservé" uniquement au concept de chat, qui s'activerai ou non si l'on perçoit un chat. Pareil pour le neurone Jennifer Aniston. Mais si j’extrapole cela voudrait dire que l'on a un neurone réservé pour chaque concept ?
Ça ne parait pas si fou que cela, si on considère le nombre colossal de neurones que l'on possède ( 86 milliards au total, dont un vingtaine dans le cerveau ). Si on imagine un million de neurones pour les "concepts" (ce qui me parait déjà beaucoup, à comparer au quelques dizaines de milliers de mots de la langue française), ça en laisse pas mal pour le reste des fonctions...
Non bien sûr, je me référais plutôt au "neurone Jennifer Anniston", en faisant une estimation grossière du nombre de neurones que cela pouvait monopoliser... Mais dans cette expérience il a juste été montré qu'il s'activait chaque fois que l'on parlait ou entendait ou voyait etc. le concept de Jennifer Anniston, pas que c'était le seul à s'activer, ni qu'il ne s'activait que pour le concept de Jennifer Anniston... Ce qui accentue encore plus la grossièreté de l'estimation. Je souhaitais surtout montrer un ordre de grandeur entre le nombre de neurones et le nombre de concepts (qui ne se limitent évidemment pas aux mots du dictionnaire, et d'un autre côté chaque personne ne conceptualise sûrement pas tous les mots du dictionnaire...)
Définir un chat comme un descendant de chats, ancêtre de chats, frère de chat et cousin de chat pose un autre problème, encore plus simple : un mot ne peut se trouver dans sa propre définition
"En plus l'humain est très difficile à corriger, mais peut-être que les IA, elles, on peut les corriger (...) et les amener à penser des trucs qui sont plus désirables." Lê (2018) 21:49 Énorme ! Mais si c'est l'humain qui corrige l'IA alors qu'il faudrait déjà le corriger lui, on fait comment ?
Juste deux petites remarques : - c'est supervisé, il me semble donc que ce n'est pas une nouvelle définition du concept d'image de chat qui a été retrouvé, mais une approximation du concept d'image de chat validé par des utilisateurs - je pense qu'il s'agit bien d'une définition mais elle n'est pas forcément minimale et assez peu stable. Elle n'est donc pas vraiment unique, chaque nouvelle donnée modifie la définition
Si medecin - homme + femme = infirmière, est-ce que infirmière - femme + homme = médecin ? Ou infirmier? Le problème de médecin c'est que l'on a pas de concept de medecin féminin. Il serait intéressant de voir si dans un langage non genré comme l'anglais on a le même resultat
Salut, j'aimerais vraiment comme beaucoup d'étudiant qui te regardent essayer d'avoir plus d'informations sur les formations les plus adéquates pour travailler dans L'IA Peut être en fin de série ??😆😆
Salut Lê ! Bravo pour ton travail qui est remarquable ! J'ai cependant une petite remarque : ça fait plusieurs fois que tu nous expliques que l'IA va radicalement changer nos sociétés dans un futur proche, et, étant moi-même chercheur en traitement du signal / machine learning, je ne peux qu'être absolument d'accord avec toi... à condition que toute chose soit égale par ailleurs !! Or, tu ne prends pas en compte les deux petits problèmes qui nous attendent dans les décennies à venir (et que nulle IA ne pourra empêcher) : le pic d'extraction de pétrole et autres matières premières, ainsi que le réchauffement climatique fulgurant. Je suis prêt à parier toutes mes économies que si tu passais une trentaine d'heure à t'intéresser à ces deux sujets et à leurs implications, tu aurais un discours tout à fait différent (quelques vulgarisateurs/scientifiques à lire ou à écouter : Meadows, Jancovici, Gaël Giraud, Bihouix, Jouzel, Servigne). Si je me permets de te faire cette remarque, c'est que je pense qu'il est vraiment dommageable de d'attirer notre attention sur une problématique qui assurément (et je pèse ce mot) ne sera pas le réel problème de notre siècle. Et je trouve que trop (quasiment tous ?) de chercheurs en IA ne prenne pas le temps de se renseigner sur ces sujets là. Ceci étant dit, je ne remets pas du tout en question le fait de faire de la vulgarisation sur l'IA, sujet passionnant et qui pose en effet de nombreuses questions philosophiques et éthiques !
Bonjour Lê, Tes vidéos sont superbes ! Cepedant, j'ai une question : Quel est le logiciel que t'utilises pour le montage ? Pour le texte ? Pour les schémas ? Merci d'avance et merci encore !
Merci ! Ce qui tends à dire que malgré des discussions et des désaccords, tout le monde au final aurait exactement le même réseau de neurones pour définir un chat donc la même définition "précise" du concept. La discussion ne serait qu'un jeu ?
Ma définition de chat: animal dont de code génétique et ADN correspond a (code génétique et ADN d'un chat donné). On pare donc d'une idée, comme "chat", on la nome "chat" puis on analyse scientifiquement ses propriétées (physiques, biologiques... etc) puis on prend toute les "choses" qui on les même propriétés et on les nomment "chat". C'est ce qu'on a bien fais avec un carré en géométrie.
Nos cerveaux sont très différents de ceux de l'ia actuelle : La vision n’est pas le résultat de couches de neurones successives , ni une simple stimulation de la rétine : c’est le cerveau qui traite le message nerveux en provenance de l’œil dans les différentes aires visuelles. Le cerveau fait également interagir ces informations visuelles avec celles d’autres aires spécialisées du cortex : mémoire, langage… Des connexions s’effectuent entre neurones. L’information visuelle est traitée à différents niveaux par plusieurs milliers de neurones. Ce traitement séquentiel de l’information permet aux neurones d’acquérir progressivement depuis les aires visuelles primaires jusqu’aux aires spécialisées, la potentialité de répondre à des stimulations complexes et spécifiques intervenant dans la reconnaissance d’un congénère, de proies, d’ennemis… La plupart des messages nerveux visuels arrivent dans une aire située à l'arrière du cortex occipital de chacun des deux hémisphères cérébraux. Ces deux aires cérébrales forment le cortex visuel primaire : V1. Parallèlement, certaines informations visuelles arrivent directement dans différentes aires visuelles spécialisées dans le traitement de la couleur, des formes ou encore des mouvements. • V3 : traitement des formes • V4 : traitement des couleurs • V5 : traitement des mouvements acces.ens-lyon.fr/acces/thematiques/neurosciences/actualisation-des-connaissances/vision/comprendre/vision_scientifique/organisation_cerebrale
J'émets de forte réserves quant à ce que tu dis. En effet le Reseau de Neurones (RN) développé par Stanford et Google a appris à distinguer entre des miniatures de chat ou non, mais il a été entrainé sur un jeu de données très restraints (a savoir les miniatures youtube). Si tu lui donnes du bruit aléatoire je suis prêt a parier qu'il y a une chance sur deux pour que le reseau de neurones active le neurone chat. Et je t'invite à réfléchir à ceci : " comment construire un algorithme qui prenne en entrée une image et renvoie oui si c'est un chat, non sinon" c'est beaucoup plus compliqué qu'il n'y paraît et je suis prêt à parier qu'aucun algorithme aujourd'hui ne fasse aussi bien qu'un humain (sur TOUTES les images possibles pas un ensemble archi restreint)
ramdam dam Rappelez vous que cette expérience date de plusieurs années: un monde quand on voit la vitesse à laquelle progresse la recherche De plus, vous parlez d'ensemble «restreint» d'images mais c'est faux: même a l'époque, des millions d'images étaient et sont toujours utilisées pour entraîner un RN. Sinon cela ne peut pas fonctionner
Une IA qui reconnaît un chat selon la luminosité des pixels d'une image. On lui présente une image de chat, il déclare que c'est un chat. On lui présente une souris, il déclare que ce n'est pas un chat. Ok. Plus complexe : On lui présente un tigre, il déclare que ce n'est pas un chat, et c'est normal : un tigre n'est pas un chat. Maintenant, on recrée 1000 images d'ancêtres de chats en partant du chat moderne à l'ancêtre le plus éloigné, tellement éloigné, qu'il ressemblera sans doutes plus à un marsupiaux qu'à un chat. Il y aura bien une itération où l'IA déclarera que les caractéristiques de ce qu'on lui présente ne sont plus suffisantes pour être reconnu comme chat. Donc, nous venons de créer une limite au concept de chat. Bien, et demain, nous développons une nouvelle IA, plus performante encore que la dernière. On lui refait faire l'exact même test. Sur ce test, l'IA cesse de reconnaître un chat parmi ces ancêtre à une autre itération (plus proche ou plus ancienne). La définition et la limite du concept de chat vient donc d'être changée grâce à un projet technologique. Au fond, la définition de chat n'est pas si absolue. On peut imaginer un cas similaire si une IA dédiée à reconnaître un chat contemporain devait être utilisée pour reconnaître, 3000 ans plus tard, un chat du futur. Elle ne le reconnaîtrait peut-être pas comme chat. Donc, les descendants de nos chats ne seraient pas des chats ? On se retrouve avec le même problème qu'au début de la vidéo.
Hello ! :D Toujours autant surprenantes ces petites machines de Turing ! :) Je me demandais, penses-tu qu'un réseau de neurones puisse détecter un chat dessiné par un humain, ou bien se tromper sur un tigre, voir sur une sorte d'illusion d'optique hypothétique ?
Connais tu la chaîne RUclips: carykh ( ruclips.net/channel/UC9z7EZAbkphEMg0SP7rw44A ) le gars fait notamment de l’expérimentation/bricolage avec l'outil informatique sur des outils s'apparentant à l'IA, je trouve ce qu'il fait assez intéressant (ou plutôt "faisait" car il fait moins de chose sur RUclips aujourd'hui), il faisait aussi des simulations d'évolution, génération de musique. Ça serait bien je pense que tu présente + d'illustration expérimentale dans tes vidéos: du genre "voila un réseau de neurone simulés, je lui donne ces données là en entrainement et à la fin voilà de quoi elle est capable en pratique" ça permettrait d'illustrer en pratique les concepts que tu abordes surtout de manière théorique ( sur-interprétation, etc )
Salut Le, super vidéo comme d'habitude. Juste une remarque : tu as changé de matos on dirait (l'image est bien meilleure), mais le son de ton micro saute/grésille un peu à certains moments. Ca peut être un peu gênant quand on a un casque ;(
Dans la cas de la représentation vectorielle de la sémantique , est-ce qu'on retrouve des angles faibles entre vecteur partageant un même champ sémantique? Est-ce que Roi Reine , prince , princesse ,royauté , royaume on un angle faible entre eux?
Je me dis que l'apprentissage de la sémantique via l'intelligence artificielle pourrait sûrement être très utile pour analyser poétiquement l'oeuvre d'un artiste (fini la sur-interprétation en cours de français ? :X) ... En tout cas ça permettrait peut-être de construire de nouvelles méthodes d'analyse littéraire plus résistantes aux biais de confirmation.
Les machines connaissent aussi la définition rigoureuse de la vie + l'univers + le reste. Mais comme la définition rigoureuse du chat, elle ne va pas vous plaire. La réponse à la vie, l'univers et le reste, est... 42.
je crois que le code trouvé par google et stanford est une recette de labellisation. ce n'est pas du tout sa définition. la définition c'est ce que c'est "en soi". la labellisation c'est une suite de critères d'attributions (comme une fonction mathématique comme évoqué dans la vidéo). la définition, le "c'est quoi" rigoureux est différent. Sinon on va se perdre dans des considérations sur, garfield, les peintures de chat, les photos retouchées de chat, un trompe l'oeil de chat, d'hallucination de chat etc. le chat existe par lui même indépendamment de l'existence de l'humain qui l'observe.
Est-ce que ce serait possible de prendre une définition du dictionnaire puis de prendre tous les mots de cette définition, de les rechercher dans le dico, et ainsi de suite ? Je pense pas perso et je vais pas essayer (x
defnition d'un chat, c"est un être vivant poilu visible ou non qui dort sur un clavier lorsque on utilise ce dernier. sinon si je comprend bien c'est une suite de stimuli caractéristique qui définit toute chose, en se basant sur une base de donnée de référence. Sans une base établie commune on ne donc pas définir quelque chose. il faut éprouvé le concept d'une chose avant de l'abordé ?
Je pense qu'une définition de chat ne peut être donné qu'en référence à un capteur. Il faudrait donc rigoureusement décrire le chat vis à vis de nos 5 sens + nos sens mesurables (tension, rayonnement, etc.). Dommage que toute définition repose finalement sur des axiomes indéfinissables ... Mais au fait, combien d'axiomes contiennent nos esprits pour concevoir nos concepts ? ça serait intéressant de pourvoir le calculer ...
Imaginons la définition suivante : Nous repérons un humain et un bonobo. Pour les descendants, nous sommes OK : tout descendant d'un humain est un humain et tout descendant d'un bonobo est un bonobo. (postulat de non interfécondité absolue entre humain et bonobo, règle valable jusqu'au présent). Ensuite, tous les frères et sœurs d'un humain sont eux aussi humains Ensuite, un parent d'humain est humain ssi il n'a pas de descendant bonobo. (réciproque pour les bonobo) Cela revient à dire que toute la branche de l'arbre phylogénétique des humains est composée uniquement d'humains jusqu'aux (exclus) premiers ancêtres communs. On va avoir quelques erreurs à proximité de l'embranchement (ex : individu ancêtre d'une lignée bonobo éteinte - et donc non identifiable - et d'une lignée humaine pérenne.
Il n'y avait ni chats ni chevaux quand H Cortes a débarqué au Mexique en 1519. Les indiens n'en connaissaient donc pas les "concepts". Ils ont adoré les chevaux spontanément, par contre les chats les ont horrifiés par leur cruauté naturelle envers leurs proies, le plaisir du jeu avec la souris encore vivante.
La concsince est infini ......chacun a du savoir a partager (juste et non colporter) et elle s enrichie pour bcp bcp d temp.....a voir apres la vie si y a une suite logik
J'ai survolé le rapport et y a beaucoup de choses intéressantes dedans. Bien sûr, je ne suis pas d'accord avec tout. Mais il n'y a rien de scandaleux dedans ;) (après, c'est moins intéressant, je trouve, qu'un livre de cours en IA ^^)
Dans un monde et un univers en constante évolution, il n'est pas très avantageux que les définitions des choses qui nous entourent soient closes, immuables et statiques. Là est la cohérence...
20:20 "professeur - connaissance = sociologue" c'est pas gentil :p 20:43 : le problème, c'est que c'est pas faux, on fait aussi se lien, donc essayer de corriger ça serait l'éloigner l'IA de la "réalité".
Question un peu pratique: est-ce que les vecteurs permettent d'établir la qualité d'un antonyme? Je me pose la question parce que, au détour d'une conversation, nous nous sommes demandés, avec une amie, quel était l'émotion antonyme de l'angoisse. Elle était partie sur l'excitation (la jubilation) et moi sur la sérénité. En réalité, les deux sont des émotions effectivement antonymes, suivant la couleur que l'on veut donner à l'antonyme... Mais... Est-ce qu'avec les vecteurs nous aurions une manière rigoureuse de déterminer la qualité de l'antonyme?
si on decrit a word to vect un chat avec des mots, est ce qu'elle pourra les reconnaitre en image sans jamais en avoir "vu" ou est ve qu'en voyant des images elle peut reconnaitre des représentations 3D d'un chat ?
J'ai la definition exact du chat et qui peut meme differencier les especes... son code ADN! Eh oui lê on ne pas gagner a tous les coups. Sinon bonne video comme dab
Merci pour cette très belle vidéo Lê. Cela dit je trouve exagéré de parler d'incohérence logique dans l'approche phylogénétique du concept d'espèce. En effet, dans cette approche, selon ma compréhension (je ne suis pas biologiste), un chat est un appelé chat si ses parents sont des chats et ses enfants des chats. Ou, plus précisément, comme l'a énoncé Ernst Mayr en 1942, un animal appartient à une espèce si elle peut avoir avec des descendants avec un autre membre de la même espèce ET que ces enfants sont eux-mêmes viables et fertiles. Remonter à l'origine de la terre, ou même à plusieurs centaines de milliers d'années, pour rendre illogique cette définition est une erreur : en effet si on pouvait remonter loin dans le temps, un chat d'aujourd'hui ne pourrait pas avoir de descendant avec son aïleule, car devenu trop éloigné d'elle génétiquement avec le temps ; ils n'appartiendraient donc pas à la même espèce selon cette définition. Donc il faut à mon sens entendre cette approche de l'espèce comme étant valide "localement", c'est à dire sur "quelques générations". Le quelque étant bien sûr flou, mais n'empêche pas de comprendre étant donné qu'il est "infini" sur un temps de vie humaine. Question de phylo, voire de philo :-) Au plaisir de vous lire sur ce débat !
Quand tu dis jouer a un jeu, je me demandais sur quel support. Jai entendu parler de l'IA pour Dota2. Mais est ce que l'input c'est limage ou est ce qu'il s'agit des données (positions en particulier) ?
Je parierais que c'est l'image (mais je ne sais pas). Dans le cas de Deep Mind qui résout les jeux d'Atari, il s'agit de l'image (et aujourd'hui les "deep convolutional networks" sont très bons pour gérer l'image)
mais c'est trop bien ! on comprend pourquoi on reconnaît quelqu un ! mais ça veut dire que si on connaît très peu une personne, notre réseau de neurones qui permet d activer le neurone lié à cette personne est très incomplet, voire défaillant ! et ça veut dire aussi que quand on rencontre une personne, un neurone est attribué à cette personne si on s intéresse à elle, mais également si on a juste jeté un coup d oeil rapide. Plus on s intéresse à quelque chose, plus il peut se commencer facilement un travail de connexion entre des neurones menant à un neurone attribué à cette chose. Si le neurone attribué à une chose est mené à être activé par un réseau de neurones, il faudrait un retour arrière de l influx nerveux pour que notre cerveau nous donne accès à toutes les informations à propos de cette chose. ou alors, il faudrait qu'un réseau neuronal inverse se crée aussi, à l'issue du neurone, qui s'active lorsque le neurone clé est activé. Il y aurait alors une différence entre les informations permettant de reconnaître une personne et les informations la concernant quand on pense à cette personne.
En gros, si ça sent comme un chat, si ça ronronne comme un chat, si c'est doux comme un chat et que ça a des oreilles comme un chat, alors c'est un chat.
Moi je suis prêt à parier que la définition est plus qu'incomplète. On a seulement une définition de ce qu'est "l'image d'un chat", on est donc encore loin de la définition d'un "chat".
a-ton déjà exploré un espace sémantique construit par une IA pour déceler des "vides" : des zones où il n'y a pas de concepts et qui seraient donc l'équivalent dans le domaine conceptuel du "points aveugles" de la vision humaine ?
J'ai une question : Et si nous étions une sorte de méga simulation dont des personnes "extérieures" à notre univers ont besoin afin de s'améliorer ? Un peu comme nous : nous utilisons l'intelligence artificielle pour nous améliorer chaque jour. Et si nous faisions comme eux ? Créer un univers dans un ordinateur ou des milliards de personne seront "vivantes" , ainsi avec notre vitesse d'humain nous ne pouvons pas résoudre nos problèmes , mais eu pourraient nous aider grâce au fait que ce monde serait infiniment plus rapide que le notre. Nous apprendrions d'eux. Comme si que les Humains évoluent pour quelqu'un d'autre qui en a besoin : Des êtres qui nous ont créer afin qu'ils accélèrent leur développement grâce à nous , car par rapport à eux , nous sommes une simulation qui va infiniment plus vite. Vous en pensez quoi ? Cela pourrait justifier le fait qu'il n'y ai aucune autre forme de vie , car notre monde a été programmé pour cela : pour qu'il n'y ai que nous ? Imaginez des gens qui ont fait tourner cette simulation dans laquelle : Nous les Humains sommes. Cela est très probable d'arriver car ils ont la main sur tout ! Sauf sur la "conscience" , ce qui nous permet de savoir qu'ils sont là. Et si les IA faisaient pareil ? Une fois dans leur monde ces "simulations d'humain" se croiraient vivant et tellement vivant car ils sont codé pour ne pas s’apercevoir qu'ils sont en fait une simulation. Des commentaires sur ma théorie ? Quoi que , si elle ne se propage pas alors cela augmente les chances que ces êtres vous ont codé afin de ne pas croire en cette théorie , la réfutant ainsi et les mettant à l'abri de toute suspicion ! Ce qui renforcerai cette théorie encore et encore ! Et si ces êtres nous avaient codé afin qui nous aussi nous utilisions des IA afin d'évoluer encore plus vite. Or si l'on évolue infiniment plus vite ici grâce à nos IA , eu aussi. Et qui dit que les IA que l'on a programmé ne créerais pas leur propre " robot " , une sorte de code super optimisé à disposition de leurs ressources. Code que NOUS pourrions utiliser afin d'aller plus vite. Et si les êtres supérieurs faisaient encore exactement pareil ? Ils veulent évoluer ? Ok ils vont créer quelque chose qui sait évoluer et faire évoluer des mondes : NOUS Qui allons créer un monde informatique rapide , ce monde s'adapterait au fil du temps et ils pourraient y émerger des systèmes informatiques complexes , que nous pourrions utiliser , et donc que les êtres supérieurs peuvent aussi utiliser afin qu'ils évoluent !
J'ai une question dessus par contre , que ce passe t'il si on enlève le neurone qui s'activait pour reconnaitre un chat : l'IA ne reconnait peut plsu reconnaitre de chat , ou alors le réseaux s'adapte et un autre neurone essaye de prendre le relais de cette reconnaissance là ? et j'ai la même interrogation pour le cerveau : on ne reconnaitrait plus ou alors le système s'adapterait et un autre neurone deviendrait ce neurone de reconnaissance ?
On perd un temps fou à penser de manière absolue en se rendant compte que tout est faux parce que rien n'est absolu, on considère dès le départ que rien n'est absolu et on peut aller un peu plus vite dans ce qui peut se rapprocher le plus de la vérité (car oui le concept de vérité est absolu donc on ne la trouvera jamais car rien n'est absolu en vérité) Mais il est vrai que les données et les mathématiques sont des concepts absolues, le monde n'est pas fait que de données et de math faudra l'accepter un jour ou l'autre... Après bien sûr tu peux voir le génome d'un chat, puisque chaque génome est différent de chaque créature tu pourras dire que cette créature est un chat parce qu'il se rapproche le plus d'une autre créature qui a la même identité du génome et puis comme le génome règle l'apparence, pas besoin d'être scientifique pour savoir ce qu'est un chat, mais en même temps si tu ne considères que l'apparence tu peux dériver dans le racisme et tout ça. Faire des jugements de valeur sur l'identité d'un individu (de sa nature, parce qu'il n'y a pas que la nature non plus il y a aussi tout ce qu'un créature acquière: inné/acquis) Donc bien sûr définir le vivant est une chose complexe, moi je dirai déjà qu'un chat est une créature vivante, que les créatures vivantes évolue de manières complexes, que les catégories que l'on donne à un animal n'est pas que de sa famille, ou de son espèce mais aussi de sa culture (de son apprentissage, aucun animal normalement n'évolue pas au cour de son existence) Et voilà on arrive à l'idée qu'il est utile de définir tel animal selon certaines caractéristiques, notamment l'espèce, qui peut être définit par la science du vivant mais pas seulement... En tous cas c'est clair que la première définition ontologique clair c'est sur le fait que c'est un être vivant (encore faut-il savoir définir le vivant mais ça je pense pas que la question soit réglée déjà vis à vis de la machine, il n'a été fait que des rapprochements, jamais des définitions clairs pour dire qu'une machine est une machine et un être vivant un être vivant pourtant dans la vraie vie si tu dis que c'est la même chose on te prend pour un abruti, donc méditons cela.... Plutôt que de dire tout le temps qu'on fonctionne comme des machines... c'est pratique pour un déterministe mais c'est beaucoup plus complexe que ça. En tous cas moi je pense comme un philosophe, je pense donc certainement comme un abruti... mais je sais faire la différence entre un chat et un chien, un animal et une machine, à la pensée d'un animal (d'un "moi") et à des calculs mathématiques qui vont imiter la vie... Peut-être que les déterministes ne sont pas assez intelligent pour en faire la différence ou alors parce qu'il pense que tout est tout et que rien n'est rien, sauf des chiffres. Sauf des choses que l'on peut prouver comme tel, et pas comme autre. C'est de la facilité, un jour il faudra comprendre ça. C'est de la folie aussi.
Jérôme Laville Je dirais qu'il y a une vérité absolue, mais pas avec la sémantique. Je dirais que la vérité est plutôt nuancée, donc un chat serait un ensemble de différent critère nuançable et une limite qui dira quand le chat ne correspond plus à ces critères. Si le chat s'éloigne trop de ce critère, alors ce n'est plus un chat. Ces critères peuvent être une image et donc, un visage qui s'éloigne d'un visage d'un chat par exemple ne serait plus un chat.
Heureusement que Cézanne a peint des pommes! Mais sérieux, le jour où l'IA appréhendera le concept profond de pomme comme Cézanne l'a fait, je ferme ma gueule pour toujours.
Que pensez-vous de la définition d'un chat suivante, qui est variable en fonction des individus, variable dans le temps et dans l'espace, mais suffisamment "lentement" pour qu'elle soit utile (utilisable) ? "un chat est l'ensemble des stimuli que je reconnais comme étant un chat". Pour ne pas être utile qu'à moi (on pourrait imaginer des définitions propre à moi, que je n'ai pas envie de partager avec vous :-p, ou à un groupe de personnes) et permettre de communiquer, les stimuli de cette définition sont régulièrement "accordés" à ceux des autres personnes via tout un tas d'approches (lecture, vidéos, discussion, audio, cours de bio etc). En ce sens, l'IA présentée à sa propre définition de ce qu'est un chat. Nous l'avons accordée avec la nôtre, ou plutôt à celles des chercheurs qui l'ont programmée et entraînée. Je pense qu'on ne peut pas avoir de définition au sens mathématique du terme, qui permettrait par exemple de ne pas se tromper sur ce qu'est un chat dès lors que l'on valide un certain nombre de critères. (et encore, je pense qu'on peut mettre les définitions mathématiques dans une forme de consensus également, les stimuli en question sont simplement plus précis et mieux explicités pour avoir le moins de variations possible entre les gens à condition de s'être bien entraîner à les reconnaître ...). On imagine bien que pour des concepts plus compliqués, le consensus n'est pas aisé (par définition d'un concept compliqué ?), par exemple : qu'est ce que l'amour ? (cf les débats : est-ce qu'il/elle est vraiment amoureux/se ?)
Maxime Genevois Non car le concept "le neurone réagissant au nom de Jennifer Aniston" n'existe pas, car il n'est pas incrusté dans ta mémoire, sauf si tu as regardé cette vidéo beaucoup de fois où que ce concept est devenu une référence pour toi, voilà !
Donc en fait la définition du concept de chat c'est: ce que je reconnais comme un chat est un chat? M'ouais. Bon je le savais déjà en fait. Mais peut-être ne suis-je qu'une IA dans une simulation informatique, ce qui expliquerait tout.
9:20 «[...] il suffit de jeter un oeil au code source de ce réseau de neurone. Ce code source contient toutes les instructions nécessaires pour déterminer si une image est une image de chat ou pas. Ėn suivant ces instructions, on obtient un mécanisme qui nous permet de conclure si une image est une image de chat ou pas.» 9:44 «[...] n'est autre qu'un fonction calculable» Quelle approche extensionaliste (au sens mathématique)! Une chose ne serait-elle définie que par la correspondance entre les entrées et les sorties? Et le "code source" juste un moyen d'y accéder? Aller, essayons de sauver un peu de spiritualisme dans l'IA et dans les mathématiques; mettons un peu d'intention dans tout cela (au sens d'intensionalisme ..): l'expression/l'intension serait ainsi perception, et les qualias que pourraient avoir une IA ne serait ultimement accessible que dans le programme qui tournerait; pas dans son code source ou dans la correspondance entre entrée et sortie .. Arreter un programme d'IA serait ainsi tuer un etre sensible, a défault d'etre sentient. Ctrl-C == meurtre. Plus sérieusement, quand bien meme un réseau de neurone (humain ou artificielle) définirait un concept, ne peut-on quand meme pas toujours construire quelque chose similaire aux qualias ou a l'intension, reportant ainsi l'opposition toujours plus loin? S'ensuit le test de Turing: qu'importe l'intension quand les extensions sont identiques.. Petite question: Dans ton réseau le concept de chat est réduit a l'activation d'un neurone, et de la meme maniere, dans la vidéo sur "roi - homme + femme = ???", les vecteurs étaient moyennés. Est-ce cependant la seule maniere de considérer la définition d'un concept a partir d'autres concepts, la moyenne de ces autres concepts? Le choix de la fonction influe-t-elle sur la définition du concept, sur la définition du mot 'concept' lui-meme? Merci. pour la vidéo.
Je voulais juste mentionner un jeu web que je trouve intéressant : skribbl.io/ C'est peut-être un bon moyen d'expérimenter comment ces fameux neurones "concepts", peuvent réagir avec très très peu d'éléments. C'est un genre de pyctonarie amélioré en ligne : on doit deviner ce que quelqu'un dessine avant tout le monde. Le dessin, le nombre de lettres affiché et/ou révélées, ainsi que les mots que tapent les autres joueurs peuvent nous faire deviner en quelques secondes des concepts parfois très complexes avec très peu de stimulis ! Et puis c'est vraiment amusant comme jeu, aller jetez un coup d’œil ;)
Est ce que ces chercheurs essayent de faire différencier un faux chat d'un vrai ? par exemple une statue de chat en bois , ou alors un photomontage d'un visage de chat sur un mouton par exemple ? La machine pourra faire la différence ? Et dernière question pense tu que l'on a un neurone Le ? :)
Je ne le dirais jamais assez, mais JE T'AIME, merci d'exister, d'exister sur youtube tu es nécessaire et précieux 👍
Ouais, respect ultime a david, lê et el jj
J'ai adoré tes 3 dernières vidéo.
Je suis un peu dubitatif sur le raccourci que tu fais en fin de vidéo :
Tu laisses entendre que la fonction calculée par les réseaux de neurones pour définir un chat n'est pas "hautement compressible".
Tu dis exactement "à moins qu'elle soit hautement compressible", mais pourquoi elle ne le serait pas?
Intuitivement, j'aurais tendance à dire qu'il y a *TOUTES* les chances qu'elle le soit!
Déjà parce qu'entre 2 individus, cette fonction à toutes les chances d'être différente, et parce qu'il y a et il y aura (normalement) une infinité d'être vivant pour créer une fonction "Est-ce un chat?", on peut largement estimer que cette fonction prise au hasard sur un individu soit très loin d'être la fonction "Est ce un chat?" la plus optimisée!
D’ailleurs si le concept "chat" que nous attendons est celui qu'attends un humain, la fonction "Est ce un chat?" la plus optimisée a de grandes chances de ne pas venir d'un humain, mais peut être, par exemple, d'un animal dont la survie nécessite une rapide perception du concept "chat".
Pour moi, le réseau de neurone donne une définition "parfaite", mais pas forcément optimisée.
Le fait qu'il soit possible de faire classer une image de chat en bateau en ajoutant un bruit sur l'image imperceptible pour les humains (adversarial attack) montre bien que ces réseaux n'utilisent justement pas de concepts sémantiques de haut niveau ("petit", "poils", "pattes", "oreilles de telle forme", "museau" etc = chat) mais plutôt une série d'indices de très bas niveau de type telle texture de pixels à coté de telle texture de pixels augmente la probabilité que ce soit un chat.
Le fait qu'il soit totalement perdu si on change soigneusement l'intensité de quelques pixels montre bien qu'il n'a pas compris du tout de définition de ce qu'est un chat
je mettrais plutôt en cause la forme de l'input. Un chat est finalement bien plus qu'une série de pixels.
Alex source ? Je crois pas que ce qui tu dis sois vrai
blog.openai.com/adversarial-example-research/
arxiv.org/pdf/1710.08864.pdf
Je pense qu’il faut appeler un chat un chat...
ZXZ pas mal du tout
Saa aal Elle était facile.
Le mien s'appelle Jennifer
Automates Cellulaires Ok le mien est noir est blanc et à une petite moustache donc j’ai voulu l’appeler Adolf Hitler mais ça a finalement été Charlie Chaplin parce qu’il fallait rester Charlie.
Un chat boit l'eau, nécessairement !
Cette série porte un éclairage très intéressant sur le problème des universaux et semble offrir une alternative nuancée a l'essentialisme et au nominalisme.
C'est toi, Lê, qui est un concept mal défini :3
Cette vidéo me fait penser à une autre où la définition d'espèce était bien secouée (chaîne Esprit Critique)
Une espèce, ce serait un ensemble d'individus capables de se reproduire. Problème : il y a des "espèces" dont les membres sont étalés sur un vaste territoire. De proche à proche, la reproduction est possible. Mais si on prend les membres aux deux extrémités du territoire, ça ne marche plus. Oups ?
Les humains aiment bien avoir des petites définitions carrées de tout. Mais ça finit souvent en pleurs sur le bord de la route.
ruclips.net/video/BBTTcu-1PmU/видео.html
Hihi! T'as première phrase m'a fait bien rire ^^
la définition des genres aussi fonctionne pareillement, notamment avec les pathologies des chromosomes sexuels. mais je crois que le chat comme le genre est un concept qui existe "dans l'absolu" indépendamment de l'observateur. un concept c'est une case, on ne met pas tout dedans mais on ne peut pas nier la "réalité" de son existence. Si un virus déciment tous les chats disont mâles, c'est une réalité que d'ici qq années tous les chats auront disparus. flou définitionnel ou pas.
Cette définition d’espece Ne marche pas suffisamment. On aurait sinon pas d’hybridation sapiens et Neanderthal, ou sapiens et denisova...
Est ce que les exceptions infirment une règle ? Et puis il faut prendre les définitions pour ce qu'elles ont d'utile, tout en étant conscient des limites qu'elles peuvent avoir. À tout vouloir déconstruire on ne peut plus ni penser, ni dire, ni nommer grand chose. C'est un mal moderne qui dissimule une certaine dose d'idéologie.
you prolly dont care but if you are bored like me during the covid times you can stream all the new movies on InstaFlixxer. Been binge watching with my girlfriend for the last weeks :)
Cette video est géniale, prendre un tel recul sur la biologie, la philosophie, la logique pour mieux comprendre l IA est vraiment fascinant. Du coup, est-ce que les IA vont faire cela ? Par exemple une IA pourrait elle connecter le "neurone du chat" avec le vecteur sémantique défini par word2vec?
L'IA y arrive déjà ! Elle est capable, étant donné une image, de générer une description textuelle de l'image !
Merci beaucoup à tous, Léo, Thibaut, David et tous les autres : vous nous faîtes si joliment voyager !
C'est extrêmement intéressant. Wittgenstein flottait au dessus de la vidéo tout le long (vers dix minutes notamment) et n'a jamais eu l'occasion de s'approcher un petit peu plus, dommage :/
Moi cette vidéo me fait profondément penser à la nature du langage, je m'explique :
On n'a pas demandé à l'IA de classifier les chats, n'est-ce pas ? On l'a laissé regarder des vignettes et faire des classifications utiles toutes seules, c'est bien ça ? Ce qu'on remarque c'est qu'elle développe naturellement un concept de "chat", i.e. un neurone qui réagit à la présence de certains éléments. Supposons qu'on ait deux IA, qui cherchent à enrichir leur connaissance mutuellement. Par exemple, la première IA cherche à ce que la deuxième IA développe elle aussi les connexions nécessaires pour qu'elle reconnaisse le concept de chat. Alors, un moyen "simple" de faire ça, c'est de créer un signal spécifique, à savoir un mot, qu'elle va émettre à chaque fois qu'elle reconnaîtra le concept de chat. De cette manière, l'autre IA, pour développer ce concept, aura largement moins besoin de farfouiller au hasard dans le bordel complexe de la réalité pour développer des concepts, puisqu'il lui suffira de faire attention aux fois où la première IA prononce "chat" et de chercher les points communs entre les images qui provoquent cette réaction. En gros, le langage ça pourrait être un moyen pour les hommes non seulement de communiquer, mais de faire en sorte qu'on développe une compréhension du monde similaire entre nous (ce qui est par exemple le prérequis de toute société), qu'on ait des réseaux de neurones aussi isomorphes que possible. Et une fois les architectures des réseaux de neurones suffisamment proches, c'est là que le langage permet de communiquer : je veux t'évoquer un concept, alors je prononce le mot sans que le concept soit présent et ça active les neurones correspondants chez toi. Du coup le langage et la faculté d'abstraction semblent être des conséquences "naturelles" (...à essayer en pratique avec des IA) d'un désir de coopération dans l'apprentissage.
Cette idée que le sens des mots existe exclusivement dans le cerveau, et ne dépend que de la perception phénoménale est remise en question par l'Expérience de la Terre jumelle d'Hilary Putnam : fr.wikipedia.org/wiki/Exp%C3%A9rience_de_la_Terre_jumelle
Béranger Seguin, ne dit pas que l'objet du langage dépend essentiellement de la sémantique individuelle , "Ce qu'on remarque c'est qu'elle développe naturellement un concept de chat " cette phrase va même plutôt dans le sens de Putnam. Le mot permet de partager un état psychologique ayant une similarité forte avec celui de l'auditeur, ce qui ne signifie pas que l'abstraction nommée "chat" soit dans les cerveaux.
Le problème des universaux me semble être un des problème de philosophie les plus difficile à démêler, et difficile de considérer l'argument de Putnam comme infaillible.
Merci pour la vidéo.
Pour ceux qui se demandent si il y a un problème avec leurs enceintes, non c'est bien la vidéo qui a un problème d'encodage du son, qui crépite tout le long de la vidéo.
Fascinant tout ce qu'on apprend sur nous à travers les IA...excellente vidéo !
J'ai été jouer avec des équivalents/applications de word2vect, c'est assez intéressant :)
Pour taper dans l'exemple neutre (lol) : sur un moteur de synonyme, basé sur un corpus d'ouvrage en français, le mot "fascisme" est relié en premier à :
- "communisme" (0.831657)
- "nazisme" (0.804869)
Alors que le mot "fascism" dans le corpus anglais renvoie en premier à :
- "nazism" (0.860536)
- "communism" (0.837422)
J'aurais doublement parié sur l'inverse, entre la propagande anti-communiste américaine et les textes français qu'on aurait pu imaginer plus "complaisant".
Bon, c'est pas encore aujourd'hui qu'une IA va nous cracher la vérité révélée et universelle XD
Pour le fun : en utilisant la base allemande avec des termes anglais, les premiers synonymes de "fascism" serait :
- "liberalism"
- "nationalism"
- "humanism"
Et dans le même contexte, "fascism" sur la base russe :
- "interpretation"
- "metaphysics "
- "modernism"
Même si cela traduit surtout les biais des données d'entrainement, et les difficultés de l'IA sur le multi-langue, je suis quand même pas très rassuré ^^"
Haha! C'est très intéressant !
La source, pour les petits curieux :)
wordsimilarity.com/
L'intervention de DirtyBiologie fait un vrai bien . En effet, le blabla humain sur lequel s'est développé toutes ces sciences, ne sont au bout du compte que concepts dont le première piège c'est de s'y attacher affectivement au point de leur donner une vie, une dignité voire une place de sujet de droit... , comme certains voudraient faire des IA.
C'était franchement super. Ma vidéo préférée de toutes celles que tu as faites. Un grand merci pour cette petite leçon ;))
Moi aussi j'ai un neurone qui s'excite quand je reconnais Jennifer Aniston ^_^
XD
Mais alors, est-ce qu'on aurait un neurone unique par personne qu'on connait ? Une neurone par concept ?
Surtout en contre plongée ;)
Moi je ne sais pas qui est Jennifer Aniston, mais j'ai vécu dans un tonneau dans les bois ces 2000 dernières années donc ça compte pas trop.
C'est une blague ?? XD
Je suis un peu dubitatif, si l'IA parvient à reconnaitre un chat et donc de proposer intrinsèquement une définition du chat, c'est parce qu'elle a été conditionnée par une entité extérieure qui lui a apporté le concept de chat, concept qu'on (l'homme) lui a au final imposé, en lui dictant ce qu'était un chat, basé sur une définition erronée selon ce que tu énonces en début d'épisode.
Du coup, comment est-il possible de s'assurer de la validation de cette définition qui est basée sur l'activation de ce fameux neurone ?
Cela ma rappelle un petit exercice philosophie, à savoir, définir ce qu'est le temps, sans l'évoquer dans la réponse. "Le temps, c'est ce qui passe quand rien ne se passe" est dans ce cas une réponse erronée bien qu'elle soit plutôt poétique. Je serai alors curieux de voir ce qu'aurait à dire une IA qui devrait "reconnaitre" le concept de temps ! Surtout que la définition de "concept" que tu donnes repose sur des fonctions sensorielles et donc difficilement perceptible dans le cas du temps qui passe. Je sais qu'on s'éloigne du sujet d'origine mais le fond du propos reste le même
Je vois ce que tu veux dire, on se base sur notre définition du chat, pour indiquer que ce que voit l'IA est un chat. Mais il faut faire attention, on ne lui dit pas ce qu'est un chat, on lui dit qu'il y a un chat dans ce qu' "elle" "regarde". Mais il est vrai qu'il n'existe pas de chat en soit, ce n'est qu'un concept inventé par l'homme, mais sûrement partagé avec les chats eux-mêmes. Mais la définition du concept, sera en effet basée sur la définition présente dans notre cerveau. Je pense même qu'elle tend vers la moyenne de la définition des personnes qui définit s'il y a un chat ou non sur la photo, et je pense que c'est ce qu'on veut. On veut que quand scientifiquement il y a un chat sur la photo (dans notre pure subjectivité, tout comme on parle du temps, qui nous est définissable que par lui-même), l'IA nous dise qu'il y a un chat. Pour aller plus loin, cela pourrait revenir à enregistrer le code de notre réseau de neurone (dans notre cerveau) menant à "chat", chose qu'on ne peut faire qu'indirectement à l'aide des IA.
Concernant le temps, je pense qu'on ne pourra que lui apprendre à reconnaître quand il est question du temps dans des données. Par exemple toute musique/vidéo devra activer le neurone temps, toute image d'horloge, de personne en mouvement, de sabliers etc aussi. Et, en soit, on pourra écrire sur papier, sur un très long papier, le code, qui exprimera mathématiquement ce qui fait qu'on dit quand il y a du temps sans utiliser le terme "temps" à l'intérieur, ce qui n'est plus une tautologie, sauf qu'il faudra du TEMPS de calcul pour l'exprimer, donc on se sert du temps pour définir le temps encore une fois!!!!
Concernant la validation de la définition de ce neurone, il suffit de voir le taux d'erreur à un important jeu de nouvelles données. Et, comme une théorie scientifique, si ça marche très souvent c'est "assez" valide.
Sauf que dans nos vies biologiquement "programmés" nous avons à la naissance aussi des parents qui nous aident à définir des mots ou des choses que l'on a pas encore expérimenté par nos sens. Les IA que l'ont créé et créera seront simplement des enfants comme ceux que l'ont créé par vois naturel.
La seule différence c'est que nos enfants quand on les concevait, on ne savait pas comment ils se construisaient, maintenant on comprend de mieux en mieux comment en concevoir un, du coup ce n'est qu'une question de temps où on y arrivera donc bientôt à le faire d'une autre manière que la nature.
Donc concernant les détails aux niveaux des neurones artificiels, ça fonctionne exactement de la même façon pour nous.
Et d'ailleurs, de manière générale, je trouve que Lê fait un usage flou des notions de sémantique, sens, concept etc.
Il faudrait au minimum expliquer les notions dont hérite l'informatique à partir du cadre de la linguistique et de la logique, avec notamment l'importance des travaux de Frege. Cf par exemple cet article sur la différence entre dénotation et sens, définition extensive et intensive etc. : www.semantique-gdr.net/dico/index.php/Sens_et_d%C3%A9notation
Le sens dont on parle là, est notamment l'aptitude à retrouver les conventions de langage reliant par un nom l'individuel à des classes, expression en mots d'un principe de catégorisation. Comme processus, la catégorisation est un élément basique, une nécessité de filtrage et d'organisation, et un ver avec 300 neurones le fait déjà suffisamment pour survivre malgré la complexité de son environnement.
Un truc amusant dans le genre : des chercheurs ont tenté de simuler les 302 neurones du ver C. Elegans et ont installé le système dans un robot Lego, avec pour résultat qu'il arrivait à gérer tout seul son mouvement selon les stimulus externes : www.lexpress.fr/actualite/sciences/des-scientifiques-ont-telecharge-le-cerveau-d-un-ver-dans-un-robot-lego_1967945.html
Mais non ta pas compris la vidéo, cest de l'apprentissage NON SUPERVISE, et donc l'AI a crée le concept de chat par elle meme, on me lui a rien imposé, juste montré des vignetes youtube.
CrazyBoy Oui mais c'est bien des humains qui définissaient si une vignette contenait un chat ou non
Pas plus de raisons de penser que tous le monde soit d'accord avec cette définition rigoureuse qu'avec celle définie par mon cerveau : "un chat est ce que je reconnais être un chat". Bizarrement, ça sonne pas du tout rigoureux, et pourtant c'est la même chose ... Conclusion : la définition du réseau de neurone de Google et Stanford n'est pas une définition plus rigoureuse du concept de chat que celle donnée par n'importe quel cerveau (humain ou pas d'ailleurs)
Franchement cette partie sur la sémantique est la meilleure de la série ! Je me prends une baffe cérébrale à chaque fois !
Le chat un un petit mammifère tout mignon, qui ronronne.
Le chat est un ingrédient de base pour faire de bons petits plats :P
domsau2 prédateur de mésanges, pas si mignon que ça, vivement l'ia exterminachat 2.0, son code source est libre tu peux nous aider à développer aussi :)
Le chat est un petit animal ronronnant qui :
- est toujours attiré par tout type de récipient, et possède la faculté de passer de l'état solide à liquide afin d'optimiser l'occupation de l'espace disponible dans le récipient.
- à l'état solide, teste régulièrement la gravité en transformant l'énergie potentielle de pesanteur en énergie cinétique des objets situés à proximité de lui.
j'approuve cette définition
James Lehmann et pour toutes chutes de plus d'un mètre ramène toujours ses pattes en bas
11:33 "Peu importe la façon dont tu me présentes Jennifer Aniston, tant que je reconnais que c'est Jennifer Aniston, je m'excite". Une phrase à ne pas sortir de son contexte.^^
Vertigineuse cette série sur la sémantique des IA, et super intéressant. :-)
Le coup de l'IA qui rêve qu'elle joue au jeu pour s'améliorer ça m'a mindblow ! ^_^
Une vidéo de qualité comme d'habitude, hâte de voir la suite ^^.
Quand on dit que l'IA reproduit le préjugé de genre sur l'égalité "médecin - homme + femme = infirmière", est-ce qu'on ne fait pas de la sur-interprétation ? Je m'explique...
Il n'y a pas de forme féminine du mot médecin. Donc lorsqu'on y applique "- homme + femme", on tombe dans une zone de l'espace sémantique qui est essentiellement vide. Vu que l'algo est alors chargé de choisir le terme le plus proche, ce terme le plus proche peut très bien être assez éloigné du concept recherché. Ce qui est le cas ici, où l'on finit par tomber sur "infirmière".
Maintenant, que se passe-t-il si on entre l'équation "infirmière - femme + homme" ? Si la réponse est "médecin", ok, on a un gros problème. Mais si la réponse est "infirmier", pas de soucis, l'IA aura très bien compris qu'une infirmière et un médecin, ce n'est pas la même chose. Auquel cas, d'elle-même, la machine ne reproduit PAS le préjugé de genre, vu qu'elle ne met pas médecin et infirmière à égalité. Par contre, le mot que la machine cherche n'existe pas dans son espace sémantique, auquel cas elle a ordre d'aller chercher le terme le plus proche.
Du reste, la machine pourrait facilement vérifier sa réponse. On part de "médecin - homme + femme = x", la machine trouve "x= infirmière", il ne reste plus qu'à tester "x - femme + homme = y", soit "infirmière - femme + homme = y". Avec, comme résultat attendu : "y = médecin", si l'on souhaite valider l'équation. Sauf qu'on va évidemment trouver "y = infirmier". Donc la machine peut très facilement déterminer que non, x n'est pas égal à "infirmière", même si c'est le terme le plus proche du point de solution désigné par son calcul vectoriel.
D'ailleurs, à partir du moment où l'on demande à la machine de prendre "le résultat le plus proche" du résultat du calcul vectoriel, on casse déjà la notion d'égalité de la relation pour passer sur du "à peu près égal". Et, en soit, "médecin - homme + femme ~ infirmière", ce n'est pas si choquant. Ouais, c'est à peu près ça, en effet. On est bien dans le domaine médical, toujours sur un métier au contact des patients, , en cherchant à soigner des gens, et le résultat correspond bien à un terme féminin. On n'a évidemment pas une égalité stricte, mais on ne tombe finalement pas si loin que ça. Si la réponse avait été "choucroute" ou "camion de livraison", ok, le résultat aurait été à côté de la plaque. Ici, bon... il est faux, mais ça reste une relativement bonne approximation, qui est correcte sur de nombreux aspects. Il faut juste ne pas perdre de vue que ce n'est qu'une approximation, et rien d'autre. Et qu'il y a donc une marge d'erreur.
On peut même mesurer l'erreur pour tenter d'affiner le résultat. Ici, c'est tout simplement "e = médecin - infirmier", donc l'écart entre le résultat attendu et le résultat obtenu lors de la vérification. Il faudrait voir ensuite ce que donne le calcul "médecin - infirmier"... Et là je ne suis pas sûr qu'on trouve un terme réellement proche. Mais admettons pour un instant qu'il y en ait un, et donc que "e" a une valeur. On en déduit le résultat correct de l'équation : "médecin - homme + femme = infirmière + e". Le fait que la réponse soit une opération vectorielle indiquant en soit, le fait que le terme exact n'existe pas (ou qu'il n'est pas connu de la machine).
Le problème évident étant que dans plusieurs cas, comme ici, "e" n'aura en réalité pas de valeur directement (médecin - infirmier = euh...). Auquel cas il faudrait refaire le jeu de vérification de l'équation + calcul de l'erreur, et ce de manière récursive. Ce qui risque d'être très coûteux en temps de calcul. Ou tout simplement conserver l'expression de l'erreur (ici : médecin - infirmier) et la ré-injecter dans le résultat. Ce qui, ici, nous donnerait "médecin - homme + femme = infirmière + médecin - infirmier", ou encore "médecin + femme - homme = médecin + infirmière - infirmier".
Bref, autant trouver une réponse précise dans 100% des cas risque d'être compliqué, autant ce qui se fait permet déjà d'obtenir des approximations valables (en tant qu'approximations, encore une fois !). Et ça ne semble pas trop compliqué de pouvoir a minima vérifier la pertinence de la réponse donnée, et parfois améliorer un peu la précision. C'est encore insuffisant pour de la génération de texte, ceci dit. Mais cette méthode est finalement assez jeune, donc laissons la recherche suivre son cours !
Définition : un chat est un animal qui est descendu par"minou".... (parmi nous)
Et comme on ne va pas se "minet"... on peut maintenant dire que les humains et les I.A. sont "félins" pour l'autre... :D
“Everything is vague to a degree you do not realize till you have tried to make it precise.” B Russel.
L’exemple pour les homonymies aurait été plus parlant avec la femelle du chat
Zawa. Est ce que l'IA reconnaîtrait la femelle du chat???
Merci pour le fourire xD
La contradiction vient du fait que seul un concept discursif (par exemple les concepts synthétiques mathématiques mais pas que) peut recevoir une définition. Aucun concept analytique (astronomie, sociologie, chimie, logique, épistémologie, psychologie, linguistique, politique, histoire, etc) ne peut recevoir de définition, sauf à être au mieux remplacé par un concept synthétique, c'est ce qu'on appelle alors une modélisation. En guise d'exemple quasi systématique, modélisation d'un ensemble de concepts de la physique par son remplacement par un ensemble de concepts mathématiques (ensemble qu'on appellera alors une théorie du premier ensemble). C'est tout simple, mais sans ce retour aux fondements épistémologiques des sciences (ensembles systématiques de connaissances) on peut ratiociner un bon bout de temps
Un chat tout comme une vache est une sphère, mais avec un fibré à la surface.
Une analyse plus fine montre que c'est un tore (lisse sur la partie de courbure negative) mais en général ce raffinement est superflu.
C'est pas un chat : c'est une image de chat.
Eps ilon hey comment ça va Magritte je croyais que tu étais claqué
J'ai une question, tu as parlé d'un neurone "chat", donc un neurone qui serait "réservé" uniquement au concept de chat, qui s'activerai ou non si l'on perçoit un chat. Pareil pour le neurone Jennifer Aniston. Mais si j’extrapole cela voudrait dire que l'on a un neurone réservé pour chaque concept ?
Ça ne parait pas si fou que cela, si on considère le nombre colossal de neurones que l'on possède ( 86 milliards au total, dont un vingtaine dans le cerveau ).
Si on imagine un million de neurones pour les "concepts" (ce qui me parait déjà beaucoup, à comparer au quelques dizaines de milliers de mots de la langue française), ça en laisse pas mal pour le reste des fonctions...
@@totalpaco Attention de ne pas prendre le modèle pour la réalité... .
Non bien sûr, je me référais plutôt au "neurone Jennifer Anniston", en faisant une estimation grossière du nombre de neurones que cela pouvait monopoliser...
Mais dans cette expérience il a juste été montré qu'il s'activait chaque fois que l'on parlait ou entendait ou voyait etc. le concept de Jennifer Anniston, pas que c'était le seul à s'activer, ni qu'il ne s'activait que pour le concept de Jennifer Anniston... Ce qui accentue encore plus la grossièreté de l'estimation.
Je souhaitais surtout montrer un ordre de grandeur entre le nombre de neurones et le nombre de concepts (qui ne se limitent évidemment pas aux mots du dictionnaire, et d'un autre côté chaque personne ne conceptualise sûrement pas tous les mots du dictionnaire...)
Définir un chat comme un descendant de chats, ancêtre de chats, frère de chat et cousin de chat pose un autre problème, encore plus simple : un mot ne peut se trouver dans sa propre définition
Ces définitions de l'extrême, tu m'a fait rêver merci :)
"En plus l'humain est très difficile à corriger, mais peut-être que les IA, elles, on peut les corriger (...) et les amener à penser des trucs qui sont plus désirables." Lê (2018) 21:49
Énorme ! Mais si c'est l'humain qui corrige l'IA alors qu'il faudrait déjà le corriger lui, on fait comment ?
Juste deux petites remarques :
- c'est supervisé, il me semble donc que ce n'est pas une nouvelle définition du concept d'image de chat qui a été retrouvé, mais une approximation du concept d'image de chat validé par des utilisateurs
- je pense qu'il s'agit bien d'une définition mais elle n'est pas forcément minimale et assez peu stable. Elle n'est donc pas vraiment unique, chaque nouvelle donnée modifie la définition
Si medecin - homme + femme = infirmière, est-ce que infirmière - femme + homme = médecin ? Ou infirmier? Le problème de médecin c'est que l'on a pas de concept de medecin féminin. Il serait intéressant de voir si dans un langage non genré comme l'anglais on a le même resultat
Salut, j'aimerais vraiment comme beaucoup d'étudiant qui te regardent essayer d'avoir plus d'informations sur les formations les plus adéquates pour travailler dans L'IA
Peut être en fin de série ??😆😆
Super vidéo! Un chat est un chat!
Par contre petit problème de son :(
Merci de l'avoir posté en commentaire, je me demandais si ça venait de la vidéo ou de ma machine ces crépitements à répétition.
Chat: Félin domestique
C'est pas compliqué non?
C'est quoi un félin ? Ca veut dire quoi domestique ?
Toutes tes réponses se trouvent ici: www.larousse.fr/
Salut Lê ! Bravo pour ton travail qui est remarquable ! J'ai cependant une petite remarque : ça fait plusieurs fois que tu nous expliques que l'IA va radicalement changer nos sociétés dans un futur proche, et, étant moi-même chercheur en traitement du signal / machine learning, je ne peux qu'être absolument d'accord avec toi... à condition que toute chose soit égale par ailleurs !! Or, tu ne prends pas en compte les deux petits problèmes qui nous attendent dans les décennies à venir (et que nulle IA ne pourra empêcher) : le pic d'extraction de pétrole et autres matières premières, ainsi que le réchauffement climatique fulgurant. Je suis prêt à parier toutes mes économies que si tu passais une trentaine d'heure à t'intéresser à ces deux sujets et à leurs implications, tu aurais un discours tout à fait différent (quelques vulgarisateurs/scientifiques à lire ou à écouter : Meadows, Jancovici, Gaël Giraud, Bihouix, Jouzel, Servigne). Si je me permets de te faire cette remarque, c'est que je pense qu'il est vraiment dommageable de d'attirer notre attention sur une problématique qui assurément (et je pèse ce mot) ne sera pas le réel problème de notre siècle. Et je trouve que trop (quasiment tous ?) de chercheurs en IA ne prenne pas le temps de se renseigner sur ces sujets là. Ceci étant dit, je ne remets pas du tout en question le fait de faire de la vulgarisation sur l'IA, sujet passionnant et qui pose en effet de nombreuses questions philosophiques et éthiques !
Bonjour Lê,
Tes vidéos sont superbes !
Cepedant, j'ai une question : Quel est le logiciel que t'utilises pour le montage ? Pour le texte ? Pour les schémas ?
Merci d'avance et merci encore !
Merci ! Ce qui tends à dire que malgré des discussions et des désaccords, tout le monde au final aurait exactement le même réseau de neurones pour définir un chat donc la même définition "précise" du concept. La discussion ne serait qu'un jeu ?
Vidéo très intéressante ! Merci S4all :) par contre je crois qu'il y a qqs bug micro :s
Ma définition de chat: animal dont de code génétique et ADN correspond a (code génétique et ADN d'un chat donné). On pare donc d'une idée, comme "chat", on la nome "chat" puis on analyse scientifiquement ses propriétées (physiques, biologiques... etc) puis on prend toute les "choses" qui on les même propriétés et on les nomment "chat". C'est ce qu'on a bien fais avec un carré en géométrie.
Bravo pour ta vidéo, j'ai beaucoup appris. Et merci !
Nos cerveaux sont très différents de ceux de l'ia actuelle :
La vision n’est pas le résultat de couches de neurones successives , ni une simple stimulation de la rétine : c’est le cerveau qui traite le message nerveux en provenance de l’œil dans les différentes aires visuelles.
Le cerveau fait également interagir ces informations visuelles avec celles d’autres aires spécialisées du cortex : mémoire, langage…
Des connexions s’effectuent entre neurones. L’information visuelle est traitée à différents niveaux par plusieurs milliers de neurones.
Ce traitement séquentiel de l’information permet aux neurones d’acquérir progressivement depuis les aires visuelles primaires jusqu’aux aires spécialisées, la potentialité de répondre à des stimulations complexes et spécifiques intervenant dans la reconnaissance d’un congénère, de proies, d’ennemis…
La plupart des messages nerveux visuels arrivent dans une aire située à l'arrière du cortex occipital de chacun des deux hémisphères cérébraux.
Ces deux aires cérébrales forment le cortex visuel primaire : V1.
Parallèlement, certaines informations visuelles arrivent directement dans différentes aires visuelles spécialisées dans le traitement de la couleur, des formes ou encore des mouvements.
• V3 : traitement des formes
• V4 : traitement des couleurs
• V5 : traitement des mouvements
acces.ens-lyon.fr/acces/thematiques/neurosciences/actualisation-des-connaissances/vision/comprendre/vision_scientifique/organisation_cerebrale
J'émets de forte réserves quant à ce que tu dis. En effet le Reseau de Neurones (RN) développé par Stanford et Google a appris à distinguer entre des miniatures de chat ou non, mais il a été entrainé sur un jeu de données très restraints (a savoir les miniatures youtube). Si tu lui donnes du bruit aléatoire je suis prêt a parier qu'il y a une chance sur deux pour que le reseau de neurones active le neurone chat. Et je t'invite à réfléchir à ceci : " comment construire un algorithme qui prenne en entrée une image et renvoie oui si c'est un chat, non sinon" c'est beaucoup plus compliqué qu'il n'y paraît et je suis prêt à parier qu'aucun algorithme aujourd'hui ne fasse aussi bien qu'un humain (sur TOUTES les images possibles pas un ensemble archi restreint)
ramdam dam
Rappelez vous que cette expérience date de plusieurs années: un monde quand on voit la vitesse à laquelle progresse la recherche
De plus, vous parlez d'ensemble «restreint» d'images mais c'est faux: même a l'époque, des millions d'images étaient et sont toujours utilisées pour entraîner un RN. Sinon cela ne peut pas fonctionner
Deathekirl "des millions"
Une IA qui reconnaît un chat selon la luminosité des pixels d'une image. On lui présente une image de chat, il déclare que c'est un chat. On lui présente une souris, il déclare que ce n'est pas un chat. Ok.
Plus complexe : On lui présente un tigre, il déclare que ce n'est pas un chat, et c'est normal : un tigre n'est pas un chat.
Maintenant, on recrée 1000 images d'ancêtres de chats en partant du chat moderne à l'ancêtre le plus éloigné, tellement éloigné, qu'il ressemblera sans doutes plus à un marsupiaux qu'à un chat. Il y aura bien une itération où l'IA déclarera que les caractéristiques de ce qu'on lui présente ne sont plus suffisantes pour être reconnu comme chat.
Donc, nous venons de créer une limite au concept de chat.
Bien, et demain, nous développons une nouvelle IA, plus performante encore que la dernière. On lui refait faire l'exact même test. Sur ce test, l'IA cesse de reconnaître un chat parmi ces ancêtre à une autre itération (plus proche ou plus ancienne). La définition et la limite du concept de chat vient donc d'être changée grâce à un projet technologique.
Au fond, la définition de chat n'est pas si absolue.
On peut imaginer un cas similaire si une IA dédiée à reconnaître un chat contemporain devait être utilisée pour reconnaître, 3000 ans plus tard, un chat du futur. Elle ne le reconnaîtrait peut-être pas comme chat. Donc, les descendants de nos chats ne seraient pas des chats ? On se retrouve avec le même problème qu'au début de la vidéo.
Hello ! :D Toujours autant surprenantes ces petites machines de Turing ! :)
Je me demandais, penses-tu qu'un réseau de neurones puisse détecter un chat dessiné par un humain, ou bien se tromper sur un tigre, voir sur une sorte d'illusion d'optique hypothétique ?
Citation de Korzybski dans 3, 2, 1... la carte n'est pass le territoiiiiiiiiiiiiiiiire ! (mais certaines cartes sont plus précises que d'autres)
Connais tu la chaîne RUclips: carykh ( ruclips.net/channel/UC9z7EZAbkphEMg0SP7rw44A ) le gars fait notamment de l’expérimentation/bricolage avec l'outil informatique sur des outils s'apparentant à l'IA, je trouve ce qu'il fait assez intéressant (ou plutôt "faisait" car il fait moins de chose sur RUclips aujourd'hui), il faisait aussi des simulations d'évolution, génération de musique.
Ça serait bien je pense que tu présente + d'illustration expérimentale dans tes vidéos: du genre "voila un réseau de neurone simulés, je lui donne ces données là en entrainement et à la fin voilà de quoi elle est capable en pratique" ça permettrait d'illustrer en pratique les concepts que tu abordes surtout de manière théorique ( sur-interprétation, etc )
Salut Le, super vidéo comme d'habitude. Juste une remarque : tu as changé de matos on dirait (l'image est bien meilleure), mais le son de ton micro saute/grésille un peu à certains moments. Ca peut être un peu gênant quand on a un casque ;(
C'est moi où tu adores prononcer les mots "Pire que faux"?
castoraman wab Inconsistant !!!
haha mais oui
Pire qu'ignorant !
Tous les modèles ne sont pas faux. Certains sont pires que faux ;)
inéluctablement, il l'aime bien aussi celui la
Dans la cas de la représentation vectorielle de la sémantique , est-ce qu'on retrouve des angles faibles entre vecteur partageant un même champ sémantique? Est-ce que Roi Reine , prince , princesse ,royauté , royaume on un angle faible entre eux?
Je me dis que l'apprentissage de la sémantique via l'intelligence artificielle pourrait sûrement être très utile pour analyser poétiquement l'oeuvre d'un artiste (fini la sur-interprétation en cours de français ? :X) ... En tout cas ça permettrait peut-être de construire de nouvelles méthodes d'analyse littéraire plus résistantes aux biais de confirmation.
Les machines connaissent aussi la définition rigoureuse de la vie + l'univers + le reste. Mais comme la définition rigoureuse du chat, elle ne va pas vous plaire. La réponse à la vie, l'univers et le reste, est... 42.
je crois que le code trouvé par google et stanford est une recette de labellisation. ce n'est pas du tout sa définition. la définition c'est ce que c'est "en soi". la labellisation c'est une suite de critères d'attributions (comme une fonction mathématique comme évoqué dans la vidéo). la définition, le "c'est quoi" rigoureux est différent. Sinon on va se perdre dans des considérations sur, garfield, les peintures de chat, les photos retouchées de chat, un trompe l'oeil de chat, d'hallucination de chat etc. le chat existe par lui même indépendamment de l'existence de l'humain qui l'observe.
Est-ce que ce serait possible de prendre une définition du dictionnaire puis de prendre tous les mots de cette définition, de les rechercher dans le dico, et ainsi de suite ? Je pense pas perso et je vais pas essayer (x
defnition d'un chat, c"est un être vivant poilu visible ou non qui dort sur un clavier lorsque on utilise ce dernier.
sinon si je comprend bien c'est une suite de stimuli caractéristique qui définit toute chose, en se basant sur une base de donnée de référence. Sans une base établie commune on ne donc pas définir quelque chose. il faut éprouvé le concept d'une chose avant de l'abordé ?
Je pense qu'une définition de chat ne peut être donné qu'en référence à un capteur. Il faudrait donc rigoureusement décrire le chat vis à vis de nos 5 sens + nos sens mesurables (tension, rayonnement, etc.).
Dommage que toute définition repose finalement sur des axiomes indéfinissables ...
Mais au fait, combien d'axiomes contiennent nos esprits pour concevoir nos concepts ? ça serait intéressant de pourvoir le calculer ...
Imaginons la définition suivante :
Nous repérons un humain et un bonobo.
Pour les descendants, nous sommes OK : tout descendant d'un humain est un humain et tout descendant d'un bonobo est un bonobo. (postulat de non interfécondité absolue entre humain et bonobo, règle valable jusqu'au présent).
Ensuite, tous les frères et sœurs d'un humain sont eux aussi humains
Ensuite, un parent d'humain est humain ssi il n'a pas de descendant bonobo. (réciproque pour les bonobo)
Cela revient à dire que toute la branche de l'arbre phylogénétique des humains est composée uniquement d'humains jusqu'aux (exclus) premiers ancêtres communs.
On va avoir quelques erreurs à proximité de l'embranchement (ex : individu ancêtre d'une lignée bonobo éteinte - et donc non identifiable - et d'une lignée humaine pérenne.
Bonjour, quelle sont tes études après le bac ?
T'as fait grillé mon neurone chat à force de le répéter
Il n'y avait ni chats ni chevaux quand H Cortes a débarqué au Mexique en 1519.
Les indiens n'en connaissaient donc pas les "concepts".
Ils ont adoré les chevaux spontanément, par contre les chats les ont horrifiés par leur cruauté naturelle envers leurs proies, le plaisir du jeu avec la souris encore vivante.
La concsince est infini ......chacun a du savoir a partager (juste et non colporter) et elle s enrichie pour bcp bcp d temp.....a voir apres la vie si y a une suite logik
Invocation de Mr Phi: "Ai-je une conscience ?"
C'est quoi ces gens qui commentent avant de finir la vidéo?
Bonne vidéo, hype pour la singularité!
10:20 Si on sens ça existe. Ça dépend quelle pilule on a prit.
Question peut-être déjà posée mais que penses-tu, si tu l'as lu, du rapport de Cédric Villani sur les IA ?
J'ai survolé le rapport et y a beaucoup de choses intéressantes dedans. Bien sûr, je ne suis pas d'accord avec tout. Mais il n'y a rien de scandaleux dedans ;)
(après, c'est moins intéressant, je trouve, qu'un livre de cours en IA ^^)
Dans un monde et un univers en constante évolution, il n'est pas très avantageux que les définitions des choses qui nous entourent soient closes, immuables et statiques. Là est la cohérence...
Les chats boivent du Lê...
20:20 "professeur - connaissance = sociologue" c'est pas gentil :p
20:43 : le problème, c'est que c'est pas faux, on fait aussi se lien, donc essayer de corriger ça serait l'éloigner l'IA de la "réalité".
"homme - force = motocycliste", c'est un coup à se faire des amis aussi :D
les vrais hommes font du vélo !
Question un peu pratique: est-ce que les vecteurs permettent d'établir la qualité d'un antonyme?
Je me pose la question parce que, au détour d'une conversation, nous nous sommes demandés, avec une amie, quel était l'émotion antonyme de l'angoisse. Elle était partie sur l'excitation (la jubilation) et moi sur la sérénité. En réalité, les deux sont des émotions effectivement antonymes, suivant la couleur que l'on veut donner à l'antonyme... Mais... Est-ce qu'avec les vecteurs nous aurions une manière rigoureuse de déterminer la qualité de l'antonyme?
A priori, oui ! Il suffit de calculer bien-mal, et ça nous fait le vecteur d'antonymie :p
si on decrit a word to vect un chat avec des mots, est ce qu'elle pourra les reconnaitre en image sans jamais en avoir "vu" ou est ve qu'en voyant des images elle peut reconnaitre des représentations 3D d'un chat ?
J'ai la definition exact du chat et qui peut meme differencier les especes... son code ADN! Eh oui lê on ne pas gagner a tous les coups. Sinon bonne video comme dab
Merci pour cette très belle vidéo Lê. Cela dit je trouve exagéré de parler d'incohérence logique dans l'approche phylogénétique du concept d'espèce.
En effet, dans cette approche, selon ma compréhension (je ne suis pas biologiste), un chat est un appelé chat si ses parents sont des chats et ses enfants des chats. Ou, plus précisément, comme l'a énoncé Ernst Mayr en 1942, un animal appartient à une espèce si elle peut avoir avec des descendants avec un autre membre de la même espèce ET que ces enfants sont eux-mêmes viables et fertiles.
Remonter à l'origine de la terre, ou même à plusieurs centaines de milliers d'années, pour rendre illogique cette définition est une erreur : en effet si on pouvait remonter loin dans le temps, un chat d'aujourd'hui ne pourrait pas avoir de descendant avec son aïleule, car devenu trop éloigné d'elle génétiquement avec le temps ; ils n'appartiendraient donc pas à la même espèce selon cette définition.
Donc il faut à mon sens entendre cette approche de l'espèce comme étant valide "localement", c'est à dire sur "quelques générations". Le quelque étant bien sûr flou, mais n'empêche pas de comprendre étant donné qu'il est "infini" sur un temps de vie humaine.
Question de phylo, voire de philo :-) Au plaisir de vous lire sur ce débat !
Vous aussi vous avez des sauts de son sur la video ? C'est très perturbant :s. Merci
Quand tu dis jouer a un jeu, je me demandais sur quel support. Jai entendu parler de l'IA pour Dota2. Mais est ce que l'input c'est limage ou est ce qu'il s'agit des données (positions en particulier) ?
Je parierais que c'est l'image (mais je ne sais pas). Dans le cas de Deep Mind qui résout les jeux d'Atari, il s'agit de l'image (et aujourd'hui les "deep convolutional networks" sont très bons pour gérer l'image)
mais c'est trop bien ! on comprend pourquoi on reconnaît quelqu un ! mais ça veut dire que si on connaît très peu une personne, notre réseau de neurones qui permet d activer le neurone lié à cette personne est très incomplet, voire défaillant !
et ça veut dire aussi que quand on rencontre une personne, un neurone est attribué à cette personne si on s intéresse à elle, mais également si on a juste jeté un coup d oeil rapide.
Plus on s intéresse à quelque chose, plus il peut se commencer facilement un travail de connexion entre des neurones menant à un neurone attribué à cette chose.
Si le neurone attribué à une chose est mené à être activé par un réseau de neurones, il faudrait un retour arrière de l influx nerveux pour que notre cerveau nous donne accès à toutes les informations à propos de cette chose. ou alors, il faudrait qu'un réseau neuronal inverse se crée aussi, à l'issue du neurone, qui s'active lorsque le neurone clé est activé. Il y aurait alors une différence entre les informations permettant de reconnaître une personne et les informations la concernant quand on pense à cette personne.
Y'a de sévères "clips" sonores à 12:30, au cas où t'avais pas entendu. ;) (et après aussi d'ailleurs)
En gros, si ça sent comme un chat, si ça ronronne comme un chat, si c'est doux comme un chat et que ça a des oreilles comme un chat, alors c'est un chat.
Moi je suis prêt à parier que la définition est plus qu'incomplète.
On a seulement une définition de ce qu'est "l'image d'un chat", on est donc encore loin de la définition d'un "chat".
a-ton déjà exploré un espace sémantique construit par une IA pour déceler des "vides" : des zones où il n'y a pas de concepts et qui seraient donc l'équivalent dans le domaine conceptuel du "points aveugles" de la vision humaine ?
J'ai une question :
Et si nous étions une sorte de méga simulation dont des personnes "extérieures" à notre univers ont besoin afin de s'améliorer ?
Un peu comme nous : nous utilisons l'intelligence artificielle pour nous améliorer chaque jour.
Et si nous faisions comme eux ? Créer un univers dans un ordinateur ou des milliards de personne seront "vivantes" , ainsi avec notre vitesse d'humain nous ne pouvons pas résoudre nos problèmes , mais eu pourraient nous aider grâce au fait que ce monde serait infiniment plus rapide que le notre.
Nous apprendrions d'eux. Comme si que les Humains évoluent pour quelqu'un d'autre qui en a besoin : Des êtres qui nous ont créer afin qu'ils accélèrent leur développement grâce à nous , car par rapport à eux , nous sommes une simulation qui va infiniment plus vite.
Vous en pensez quoi ? Cela pourrait justifier le fait qu'il n'y ai aucune autre forme de vie , car notre monde a été programmé pour cela : pour qu'il n'y ai que nous ?
Imaginez des gens qui ont fait tourner cette simulation dans laquelle : Nous les Humains sommes.
Cela est très probable d'arriver car ils ont la main sur tout ! Sauf sur la "conscience" , ce qui nous permet de savoir qu'ils sont là.
Et si les IA faisaient pareil ? Une fois dans leur monde ces "simulations d'humain" se croiraient vivant et tellement vivant car ils sont codé pour ne pas s’apercevoir qu'ils sont en fait une simulation.
Des commentaires sur ma théorie ? Quoi que , si elle ne se propage pas alors cela augmente les chances que ces êtres vous ont codé afin de ne pas croire en cette théorie , la réfutant ainsi et les mettant à l'abri de toute suspicion ! Ce qui renforcerai cette théorie encore et encore !
Et si ces êtres nous avaient codé afin qui nous aussi nous utilisions des IA afin d'évoluer encore plus vite.
Or si l'on évolue infiniment plus vite ici grâce à nos IA , eu aussi.
Et qui dit que les IA que l'on a programmé ne créerais pas leur propre " robot " , une sorte de code super optimisé à disposition de leurs ressources.
Code que NOUS pourrions utiliser afin d'aller plus vite. Et si les êtres supérieurs faisaient encore exactement pareil ? Ils veulent évoluer ? Ok ils vont créer quelque chose qui sait évoluer et faire évoluer des mondes : NOUS
Qui allons créer un monde informatique rapide , ce monde s'adapterait au fil du temps et ils pourraient y émerger des systèmes informatiques complexes , que nous pourrions utiliser , et donc que les êtres supérieurs peuvent aussi utiliser afin qu'ils évoluent !
"ceci n' est pas une pipe" Magritte ;-)
J'ai une question dessus par contre , que ce passe t'il si on enlève le neurone qui s'activait pour reconnaitre un chat : l'IA ne reconnait peut plsu reconnaitre de chat , ou alors le réseaux s'adapte et un autre neurone essaye de prendre le relais de cette reconnaissance là ?
et j'ai la même interrogation pour le cerveau : on ne reconnaitrait plus ou alors le système s'adapterait et un autre neurone deviendrait ce neurone de reconnaissance ?
Du coup à ton avis, d’où viennent nos lapsus? Les IA pourront-elle en faire?
On perd un temps fou à penser de manière absolue en se rendant compte que tout est faux parce que rien n'est absolu, on considère dès le départ que rien n'est absolu et on peut aller un peu plus vite dans ce qui peut se rapprocher le plus de la vérité (car oui le concept de vérité est absolu donc on ne la trouvera jamais car rien n'est absolu en vérité) Mais il est vrai que les données et les mathématiques sont des concepts absolues, le monde n'est pas fait que de données et de math faudra l'accepter un jour ou l'autre... Après bien sûr tu peux voir le génome d'un chat, puisque chaque génome est différent de chaque créature tu pourras dire que cette créature est un chat parce qu'il se rapproche le plus d'une autre créature qui a la même identité du génome et puis comme le génome règle l'apparence, pas besoin d'être scientifique pour savoir ce qu'est un chat, mais en même temps si tu ne considères que l'apparence tu peux dériver dans le racisme et tout ça. Faire des jugements de valeur sur l'identité d'un individu (de sa nature, parce qu'il n'y a pas que la nature non plus il y a aussi tout ce qu'un créature acquière: inné/acquis) Donc bien sûr définir le vivant est une chose complexe, moi je dirai déjà qu'un chat est une créature vivante, que les créatures vivantes évolue de manières complexes, que les catégories que l'on donne à un animal n'est pas que de sa famille, ou de son espèce mais aussi de sa culture (de son apprentissage, aucun animal normalement n'évolue pas au cour de son existence) Et voilà on arrive à l'idée qu'il est utile de définir tel animal selon certaines caractéristiques, notamment l'espèce, qui peut être définit par la science du vivant mais pas seulement... En tous cas c'est clair que la première définition ontologique clair c'est sur le fait que c'est un être vivant (encore faut-il savoir définir le vivant mais ça je pense pas que la question soit réglée déjà vis à vis de la machine, il n'a été fait que des rapprochements, jamais des définitions clairs pour dire qu'une machine est une machine et un être vivant un être vivant pourtant dans la vraie vie si tu dis que c'est la même chose on te prend pour un abruti, donc méditons cela.... Plutôt que de dire tout le temps qu'on fonctionne comme des machines... c'est pratique pour un déterministe mais c'est beaucoup plus complexe que ça. En tous cas moi je pense comme un philosophe, je pense donc certainement comme un abruti... mais je sais faire la différence entre un chat et un chien, un animal et une machine, à la pensée d'un animal (d'un "moi") et à des calculs mathématiques qui vont imiter la vie... Peut-être que les déterministes ne sont pas assez intelligent pour en faire la différence ou alors parce qu'il pense que tout est tout et que rien n'est rien, sauf des chiffres. Sauf des choses que l'on peut prouver comme tel, et pas comme autre. C'est de la facilité, un jour il faudra comprendre ça. C'est de la folie aussi.
Jérôme Laville
Je dirais qu'il y a une vérité absolue, mais pas avec la sémantique. Je dirais que la vérité est plutôt nuancée, donc un chat serait un ensemble de différent critère nuançable et une limite qui dira quand le chat ne correspond plus à ces critères. Si le chat s'éloigne trop de ce critère, alors ce n'est plus un chat. Ces critères peuvent être une image et donc, un visage qui s'éloigne d'un visage d'un chat par exemple ne serait plus un chat.
Peut-être bien, mais j'ai plutôt l'impression que lê cherche à détruire les nuances pour mettre en place des théories bizarres...
Heureusement que Cézanne a peint des pommes! Mais sérieux, le jour où l'IA appréhendera le concept profond de pomme comme Cézanne l'a fait, je ferme ma gueule pour toujours.
Que pensez-vous de la définition d'un chat suivante, qui est variable en fonction des individus, variable dans le temps et dans l'espace, mais suffisamment "lentement" pour qu'elle soit utile (utilisable) ?
"un chat est l'ensemble des stimuli que je reconnais comme étant un chat".
Pour ne pas être utile qu'à moi (on pourrait imaginer des définitions propre à moi, que je n'ai pas envie de partager avec vous :-p, ou à un groupe de personnes) et permettre de communiquer, les stimuli de cette définition sont régulièrement "accordés" à ceux des autres personnes via tout un tas d'approches (lecture, vidéos, discussion, audio, cours de bio etc).
En ce sens, l'IA présentée à sa propre définition de ce qu'est un chat. Nous l'avons accordée avec la nôtre, ou plutôt à celles des chercheurs qui l'ont programmée et entraînée.
Je pense qu'on ne peut pas avoir de définition au sens mathématique du terme, qui permettrait par exemple de ne pas se tromper sur ce qu'est un chat dès lors que l'on valide un certain nombre de critères. (et encore, je pense qu'on peut mettre les définitions mathématiques dans une forme de consensus également, les stimuli en question sont simplement plus précis et mieux explicités pour avoir le moins de variations possible entre les gens à condition de s'être bien entraîner à les reconnaître ...).
On imagine bien que pour des concepts plus compliqués, le consensus n'est pas aisé (par définition d'un concept compliqué ?), par exemple : qu'est ce que l'amour ? (cf les débats : est-ce qu'il/elle est vraiment amoureux/se ?)
12:00 est-ce que ce neurone réagit quand on parle du neurone qui réagit au nom de Jennifer Aniston ?
Vous avez 4 heures.
Superbe vidéo au passage ^^
Maxime Genevois Non car le concept "le neurone réagissant au nom de Jennifer Aniston" n'existe pas, car il n'est pas incrusté dans ta mémoire, sauf si tu as regardé cette vidéo beaucoup de fois où que ce concept est devenu une référence pour toi, voilà !
Le neurone dédié à Jennifer Aniston lui réagira car le nom "Jennifer Aniston" y est mentionné
très bonne vidéo
Chat le fait 😂😂 choc thermique en cache bcp...avec le phenomene electromagnet
définition de chat :
c'est bien.
voila qui conclu cette méditation de la nature des chat.
Donc en fait la définition du concept de chat c'est: ce que je reconnais comme un chat est un chat? M'ouais. Bon je le savais déjà en fait. Mais peut-être ne suis-je qu'une IA dans une simulation informatique, ce qui expliquerait tout.
9:20 «[...] il suffit de jeter un oeil au code source de ce réseau de neurone.
Ce code source contient toutes les instructions nécessaires pour déterminer si une image est une image de chat ou pas.
Ėn suivant ces instructions, on obtient un mécanisme qui nous permet de conclure si une image est une image de chat ou pas.»
9:44 «[...] n'est autre qu'un fonction calculable»
Quelle approche extensionaliste (au sens mathématique)! Une chose ne serait-elle définie que par la correspondance entre les entrées et les sorties? Et le "code source" juste un moyen d'y accéder?
Aller, essayons de sauver un peu de spiritualisme dans l'IA et dans les mathématiques; mettons un peu d'intention dans tout cela (au sens d'intensionalisme ..): l'expression/l'intension serait ainsi perception, et les qualias que pourraient avoir une IA ne serait ultimement accessible que dans le programme qui tournerait; pas dans son code source ou dans la correspondance entre entrée et sortie .. Arreter un programme d'IA serait ainsi tuer un etre sensible, a défault d'etre sentient. Ctrl-C == meurtre.
Plus sérieusement, quand bien meme un réseau de neurone (humain ou artificielle) définirait un concept, ne peut-on quand meme pas toujours construire quelque chose similaire aux qualias ou a l'intension, reportant ainsi l'opposition toujours plus loin?
S'ensuit le test de Turing: qu'importe l'intension quand les extensions sont identiques..
Petite question: Dans ton réseau le concept de chat est réduit a l'activation d'un neurone, et de la meme maniere, dans la vidéo sur "roi - homme + femme = ???", les vecteurs étaient moyennés. Est-ce cependant la seule maniere de considérer la définition d'un concept a partir d'autres concepts, la moyenne de ces autres concepts? Le choix de la fonction influe-t-elle sur la définition du concept, sur la définition du mot 'concept' lui-meme?
Merci. pour la vidéo.
Je voulais juste mentionner un jeu web que je trouve intéressant : skribbl.io/ C'est peut-être un bon moyen d'expérimenter comment ces fameux neurones "concepts", peuvent réagir avec très très peu d'éléments. C'est un genre de pyctonarie amélioré en ligne : on doit deviner ce que quelqu'un dessine avant tout le monde. Le dessin, le nombre de lettres affiché et/ou révélées, ainsi que les mots que tapent les autres joueurs peuvent nous faire deviner en quelques secondes des concepts parfois très complexes avec très peu de stimulis ! Et puis c'est vraiment amusant comme jeu, aller jetez un coup d’œil ;)
whaa! ya du beau monde dans ta vidéo :)
Belle perf !
"homme + amour = horrible dérangé"
je me le garde de côté celui-là :>
Est ce que ces chercheurs essayent de faire différencier un faux chat d'un vrai ? par exemple une statue de chat en bois , ou alors un photomontage d'un visage de chat sur un mouton par exemple ? La machine pourra faire la différence ? Et dernière question pense tu que l'on a un neurone Le ? :)