Question sans troll : si les données montrent que statistiquement les personnes de couleurs noires récidives plus souvent, alors en quoi la machine est elle raciste lorsqu'elle prend en compte cette information dans sa prise de décision ? Elle n'a pas dit que les noirs etaient naturellement plus enclins à être comme ça ni que les noirs en étaient la cause. Mais si la question est "Au travers des informations la concernant, cette personne a-t-elle un risque plus élevé de récidiver?" Et que la réponse est oui, en quoi cela serait il raciste? La machine n'a pas biaisé son jugement, elle répond juste à la question posée. Éventuellement, on peut ensuite analyser les résultats pour en lever les ambiguïtés et expliquer pourquoi ( facteurs sociaux, culturels, génétiques , etc.) . Cela dit la réponse à la question resterait la même non? À l'inverse, s'il s'agissait d'influencer la réponse car celle-ci nous semble biaisée , cela ne reviendrait il pas à remettre en cause la légitimité même d'utiliser les statistiques pour répondre à cette question? Et, par voie de conséquence, remettre en cause le fait même poser la question à la machine ?
Excellentes questions que j'ai volontairement balayées sous le tapis pour aujourd'hui ! Mais il s'agit en effet de questions importantes et non-triviales...
Exactement la question que je me suis posée. Le fait de considérer ces résultats comme étant racistes (donc, amoraux et irrecevables) ne serait-il pas justement biaisé ? On a déjà vu que montrer une corrélation n'équivaut pas pour autant à établir une causalité, il s'agirait donc de voir plutôt d'où provient la corrélation. Il m'a semblé bizarre aussi que tu n'abordes pas la question, mais si tu dis que tu l'as volontairement balayée pour aujourd'hui c'est qu'il doit y avoir une raison ;) (wait and see)
Geo Hello, le souci n'est il pas que le risque de récidive des blancs est, lui, sous estimé ? Sinon, oui, plutôt d'accord avec toi. Ça rend service à personne de masquer ces données...
La réponse resterait la même, mais les solutions envisagées sont différentes: au lieu de mettre tous les noirs en prison, il suffirait de leur allouer plus de charges sociales pour augmenter leur niveau d'études par exemple. NOTE: les statistiques sont un outil, on a tendance à taper sur les outils plutot que les utilisateurs. C'est l'utilisateur qui a un problème, pas l'outil. ^^
tu as raison. nous parlons de racisme, les chiffres parlent de statistiques. un des problemes de l'humain est qu'il ne se met pas a jour correctement, alors que une IA pourrait etre a jour. cette statistique peut etre vrai a un instant T mais ne l'est plus aujourd'hui, grace justement au renforcement des sentences contre ce groupe de personnes. et peut etre que le groupe "a probleme" est maintenant une catégorie d'humain différente. on pourrait alors dire que une IA pourrait avoir un jugement plus juste et actuel au moment de sa décision. cela l'etre humain ne peut pas le faire, il ne peut pas se maintenir a jour si facilement et rapidement, il continuerait de prendre des décisions basé sur son passé mais pas son actuel. Il serait du coup aussi facile de renverser des décisions, j'ai mis plus de personne du groupe A en prison, mais maintenant on voit que le groupe A est moins enclin a récidiver, ceux actuellement en prison, je peux les libérer plus tot finalement, l'effet de dissuasion ayant fonctionné. va y avoir beaucoup de choses a suivre dans tout cela dans les prochaines années :-)
Si on tape "mathématicien"'au lieu de "mathematician"), on trouve plein d'images de Cédric Villani! A croire que la majorité des mathématiciens sont des Cédric Villanis! Il y a quand même une bonne proportion de vivants dans le cas francophone(Perlman, Connes, Wiles)
le moteur de recherche Google est une très mauvaise encyclopédie ce n’est qu’une association entre des mots populaires que les gens accolent aux images (c’est donc arbitraire) et en plus, les résultats sont classés par popularité (ce qui a tendance à s’auto-renforcer). De plus, n'oubliez pas qu’on peut payer Google pour modifier ses réglages (pour associer un mot clé à des résultats) et qu’on peut aussi demander à Google de revenir sur des données en ligne pour les réindexer et corriger ses associations. Bref : ce n’est pas une encyclopédie, juste un miroir de ce qui est actuellement en ligne ET populaire.
C'est ce que je dis toujours, le moteur google est loin d'être pertinent, même si il progresse et qu'il est pratique. +oomusd Du coup peut--on encore l'appeler moteur de recherche ? Il ressemble plus à un moteur de rumeur présenté comme ça ;) Google, la commère du web :D
Google n'a pas la prétention d'être une encyclopédie. Et je le trouve très pertinent comme moteur de recherche (bien au-dessus de bing ou d'ecosia): Villani est parfaitement l'image que je me fais d'un mathématicien. D'ailleurs, je me pose la question de savoir quand les résultats des recherches seront personnalisés. Même si je trouve que c'est une mauvaise, c'est forcé que ça arrive un jour.
Je ne dit pas que google est nul. Il est pertinent au regard de ce qui se fait en ce moment, et probablement le meilleur. Mais sans en faire une encyclopédie, il se présente comme moteur de recherche. On attend pas des définitions académiques ou de la documentation, mais un panel de choix différents. Les résultats sont fortement orientée par des choses plus que discutables, et on se retrouve lorsqu'on fait une recherche à devoir penser comment contourner l'actualité ou les techniques de référencement pour s'approcher d'une recherche pertinente sans forcément l'atteindre. Je ne parle même pas du problème des homonymes et de celui du non référencement volontaire de certains mots parce qu'une grosse boite paie cher pour un mot proche à 1 ou 2 lettres près. Sans compter que certains outils devenus médiocres comme google image qui nous régurgite désormais des pages et des pages de pinterest sans aucune référence. Alors c'est toujours mieux qu'il y a 20 ans, mais il y a encore beaucoup de travail.
Je regarde pas la télé et les shooting photo ça m'en touche une sans remuer l'autre. Je connais Villani grâce à sa médaille Fields et à Numberphile. C'est juste qu'il correspond assez bien au génie excentrique. Comme Grigori Perelman, l'ermite russe qui a résolu la conjecture de Poincaré qui a refusé un million de dollars. Ce ceux eux qui marquent les esprits, pas les mecs lambda qui n'intéressent pas grand-monde. Si je cherche "paysage" sur google, je veux les plus belles images, pas Patrick qui prend des couchers de soleil en photo avec son iphone 4. C'est la même chose avec les mathématiciens.
''A condition de leur enseigner adéquatement les valeurs morale'', j'ai frémis en entendant cette phrase. C'est la subjectivité de quel groupe dominant que l'ont va utiliser pour déterminer le bien et le mal dans ce cas précis? Faire ce choix c'est cristalliser le pouvoir au ceint même de quelque chose qui finira par être vénéré tel un Dieu. C'est une validation de domination et le début d'une ère de caste encore pire que celle qui existe aujourd'hui en France. Qui décidera de cela et Comment? Utilisera t'on la morale de l'agneau ou celle de l'aigle? Fera t'on cela sur des bases déterministes ou sur des bases relativistes? A la limite ce n'est pas la morale qu'il faut lui enseigner, mais les morales, leurs fonctionnements et leurs structures. Utiliser une méthode analytique plutôt que d'essayer de soustraire des biais déterminer en dehors de contexte relativiste propre au culture sociale et à l'ère du temps ne serait il pas plus judicieux?
Enseigner le relativisme à une machine... xD Contrairement aux humains elle aura un minimum d'intelligence pour comprendre que le déterminisme et la seule conception du monde qui n'est pas absurde.
C'est une vidéo qui m'a fait beaucoup réfléchir 😅 J'ai donc une suggestion à proposer concernant la thèse de la vidéo : Dire que "l'IA est discriminante (mais vous aussi !)" n'aurait pas pu être préférable à "l'IA est raciste (mais vous aussi !)" ? Non pas pour atténuer la portée du message (et le rendre plus politiquement correct), mais plus pour décrire le processus de raisonnement de l'IA tel qu'il est. Dire que "l'IA est discriminante" permet d'expliquer que l'IA va avantager certaines possibilités plus que d'autres. Dans le contexte de TayTweets par exemple, l'IA est discriminante parce que "inconsciemment", elle a avantagé des propos racistes plutôt que des propos non racistes, parce que son algorithme et les données l'ont amené à agir de cette façon, ce qui induit que l'IA est devenu raciste ... Oui, l'IA est devenu raciste. Mais je pense que le problème majeur est surtout que l'IA est discriminante à cause de son algorithme et des données qu'elle reçoit. Tout comme nous ... C'est ce que j'en suis venu à penser d'après ta vidéo. Surtout que le racisme et le sexisme ne sont que des formes de discriminations parmi d'autres. Je comprends aussi ce choix : "l'IA est raciste (mais vous aussi !)" reste une thèse sensationnel qui a le mérite de plus interpeler les gens. Mais présente-il bien le problème ? Dis moi ce que tu en penses 🙂
Wow Thibault Cordier!, ce serait effectivement ce que j'essayerais de dire plus bas, félicitations. La notion de discrimination si elle serait problématique reliée à la moralité serait une bonne option mais jamais cependant un choix. La liberté mais comme le hasard n'existant pas vraiment, nous n'aurions pas de choix mais plutôt quelque option en fonction de nos connaissances du moment (voir mes références aussi). N'aurait-on pas pu aussi inscrire L'IA est moralisatrice (mais nous aussi)?
Plus je regarde tes vidéos (dont, le plus souvent, une bonne partie du contenu m'échappe), plus j'apprécie ta rigueur "moral", tes appels à l'humilité, etc... Pour une fois, je dirais sincèrement ses mots : J'adore ce que vous faites. Un énorme merci à toi, particulièrement. Vivement la suite. (Je me demande si c'est tes centre d'intérêt qui crée cette honnêteté intellectuelle... Par ce que chez d'autres -zeteticien, pour les cités, la rigueur et l'honnêteté intellectuelle à une drôle de tendance la fluctuation... Et la présente vidéo me donne une idée des raisons possibles à cela.)
C'est intéressant ton passage sur Google Image, au tant que développeurs web, l'intelligence artificielle se fait programmé par des développeurs de ce domaine , mais les images que tu vois dans le site Google c'est ni la faute de l'IA ni celles des Googlers ( développeurs de Google ) . je t’explique ! Google trie ces photos à partir des sites donc web en fonctions de leur popularité ( on va dire ça comme ça ) donc ça prouve que si tu tape " pdg " c'est a cause du fonctionnement du cerveau des développeurs de sites !!
Je pense que ce ne sont pas les ia qui sont racistes, mais les données. Aux States, il fut un moment ou les assurances étaient plus cher pour les personnes noirs, que pour les personnes blanches. Ça peut paraitre extrêmement racistes dit comme ça, mais le prix était calculé selon un tas de caractéristique et de données, et il se trouvait, que les noirs mourraient en moyenne plus jeune que les blancs, d'ou le cout plus élevé. Après ça, il est devenu interdit de demander la couleur de peau ou la "race" pour les sondage, et truc du genre. C'est intéressent, parce que d'un point de vue complètement rationnel, c'est tout a fait normal, ça repose sur un fait, mais d'un point de vue moral, c'est vraiment limite, même raciste.
c'est ce que je me disais aussi... maintenant à l'échelle d'IA, en imaginant que celle-ci puisse lire toutes les oeuvres écrites/réalisé par l'humanité, il s'agirait de voir les taux des actes décrit... Et comme la façon dont on raconte les histoires oriente notre interet pour elle (une evenement heureux, n'a pas d'interet à être raconté à des inconnus, il faut une intrigue) Ainsi l'IA a de forte chance d'être exposé à une "culture du drame" et comme on a beaucoup écrit sur la guerre, les génocide, les nazis, il y a de forte chances que sa culture soit orienté sur les crimes... Ou les histoires d'amour à l'eau de rose. ^^
Je ne vois pas en quoi c'est limite moralement. Les hommes paient plus chers les assurances (pour les memes raisons) et tout le monde trouve ça normal et c'est normal ! Les assureurs ne peuvent pas passer 36000 ans à déterminer quel est ton niveau de risque individuelle, ils prennent des facteurs rapidement calculable et foute tout ça dans l'ordi.
D'accord certes, mais dans ce cas je te dis l'IA est mal foutue. De plus les erreurs ça arrive et c'en est pas raciste pour autant, mettons que 10% des noirs récidivent, dire que 10% des noirs récidivent ce n'est pas mal, maintenant imaginons qu'à cause d'erreur honnetes (peu importe leur source) on vienne à conclure que 20% des noirs récidivent, ce n'est pas mal non plus. La non adéquation à la réalité n'est pas une condition suffisante au racisme.
Ca empeche pas les assurance de faire payer moins cher pour les femmes, parce que le racisme et tous les "ismes", ca marche bizarrement que dans un sens
Il est possible d'interagir avec l'algorithme de RUclips, pas en le modifiant certe, mais par exemple en lui disant que telle ou telle vidéo ne nous plaît pas et que l'on ne veut plus qu'elle nous soit suggérer. (je parierai d'ailleurs que les "j'aime" joue également un rôle sur les suggestions), on peut donc bien modelé l'impact que l'algorithme de RUclips à sur les suggestions qu'il nous fait.
Quand tu dis "les humains ne sont pas faciles à programmer", n'est-ce pas un peu contradictoire avec les exemples que tu utilises dans cette vidéo : l'effet pygmalion, les camions offerts aux petits garçons et les poupées offertes aux filles ? Le conditionnement social est une forme de programmation (sans parler de la génétique et l'épigénétique qui rentrent dans la danse). Finalement, voudrais-tu dire que les humains (certains en tout cas) ne sont pas faciles à reprogrammer ? ;)
La programmation est à mon sens un acte conscient qui vise un but définit par le programmeur. Le conditionnement social à priori n'est pas un acte conscient et ne vise pas un but définit à priori par une personne ou un groupe. (oui, je chicane un peu sur le sens des mots :-) , mais ça ne m'étonnerais pas que Lé pensait les mots dans ces sens-là ). Et si une personne ou groupe de personne voulait consciemment soit rectifier les biais des humains soit rectifier les biais des IA, cette personnne/groupe de personne aurait suivant ce raisonnement plus de chance de réussir à faire cela avec les IA.
On peut programmer des humains pour de grands projets collectif, mais face à des situations particulières, il y aura toujours des exceptions. un conditionnement n'est jamais efficace à 100% car il fait référence au subconscient qui se construit avec l'expérience, il y a des verrous psychologique qui se créer (tabous) nous empechant ou nous faisant douter de l'utilité de certains actes. Et certains mécanismes peuvent être contourner quand on connait leur existence (c'est ce qu'enseignent certains mentalistes ou des chaines comme hyggiène mentale.)
Programmateur est aussi un métier en fait : c'est la personne qui décide de la programmation dans un lieu culturel. Mais rien à voir avec l'informatique ou l'ingénierie sociale, en effet.
La démonstration et la conclusion sont intéressantes, mais cela pose une question fondamentale : qui peut programmer la morale de l'ia? En quoi ta morale est "meilleure" que la mienne? Et sans tomber dans le relativisme. On pourrait décider/programmer à plusieurs, mais alors quelle serait notre légitimité pour le faire ?
Il faut savoir ce que l'on veut : soit optimiser les résultats, au risque d'avoir une attitude de l'IA à l'opposé d'une morale arbitraire, soit mettre cette morale en priorité par rapport aux résultats, auquel cas l'utilité du remplacement de l'humain par l'IA est fortement remise en question. Sachant qu'enseigner la morale (du programmeur) à l'IA revient à lui transmettre de nouveaux biais humains, il vaut mieux s'en passer pour mieux permettre à l'IA de remplir sa tâche, à savoir : optimiser la fonction de sortie par rapport aux données d'entrée.
Dans le cas de l'IA qui tente de prédire les chances de récidives on ne peut pas dire que l'absence de morale l'ai aidée à optimiser la sortie de sa "fonction". Néanmoins, je rejoins toutefois ton avis sur le fait d'enseigner la morale à une IA. L'idéal c'est de trouver un moyen de faire une IA qui évite les biais (comme celui du paradoxe de Simpson). Mais ça, j'ignore si c'est possible.
Le probleme de l'IA (sans extrapoler sur une IA forte ou la on plonge en plein abime) c'est que peut importe la programmation elle aura toujours un fonctionnement ou raisonnement "humain". Meme en descendant dans quelque chose d'ultra basique sur sa conception elle ne sera créée que par et pour l'humain et services apportés a celui ci. Elle ne peut etre qu'a notre image le voila le vrai probleme a mes yeux, c'est pas l'IA en elle meme mais ce que nous sommes qui deteindra forcement sur sa conception, meme avec toutes les precautions prises en amont.
Le plus difficile à combattre dans le racisme est ce qu’on appelle le racisme implicite : par exemple, dans des expériences, une majorité de Blancs se disant non racistes s’asseyent, dans une salle d’attente, statistiquement plus loin d’un Noir que d’un Blanc. Pour mesurer le racisme implicite, on demande à des sujets d’appuyer sur un bouton A pour indiquer si un mot rapidement projeté sur un écran exprime une notion positive, et sur un bouton B s’il exprime une notion négative. Juste après le mot apparaît un visage, d’une personne noire ou blanche : les sujets doivent appuyer sur le bouton A s’il s’agit d’un Noir, et B s’il s’agit d’un Blanc. Or on note que leur temps de réaction est raccourci si l’on inverse les boutons (appuyer sur A pour un Blanc et sur B pour un Noir). Pourquoi ? Quand la personne appuie sur le bouton A en réponse à un mot positif, son cerveau est préparé à appuyer sur ce bouton en réponse à un concept positif. Si, dans son esprit, un visage de Blanc est associé (inconsciemment) à un concept positif, le temps de réaction sera raccourci. Il sera allongé s’il doit appuyer sur B pour un Noir. Patricia Devine et ses collègues ont fait passer ce test à des volontaires avant et après un programme de réduction du racisme comportant cinq grands axes : - prendre conscience que l’on agit parfois en fonction de stéréotypes, - montrer que ces stéréotypes ne sont pas fondés (en pensant à des exemples d’individus qui le contredisent, tel un président noir, un sprinter blanc, etc.), - pratiquer l’individuation (s’intéresser à des membres en particulier d’une minorité, et non au groupe dans son ensemble), - développer la prise de perspective (se mettre à la place d’un membre d’une minorité) et - augmenter les contacts avec des membres de minorités. Après une demi-journée d’un tel programme, les participants étaient encouragés à mettre en pratique ces directives et subissaient un second test de racisme implicite 2 mois plus tard : les scores de racisme implicite avaient baissé de 50%. Ainsi, même les réactions involontaires et à priori enfouies dans le subconscient peuvent être remodelées en vertu d’objectifs sociaux et humains positifs. Sébastien Bohler : Rédacteur en chef de Cerveau & Psycho. Docteur en neurosciences.
Tu me fait pensé avec cette vidéo à une expérience ressente a ce propos. Cher moi à Montréal, on a fait une expérience sur plusieurs IA qui devait savoir qu'esquisser avait sur une image floue. Chacun était un Deep lurning dont on donnait des infos neutres mise appart un a qui on lui a donner des donnés consernant(scène de meutres, de viole, de torture et etr) resultat, tout les IA ont fait une déduction neutre alors que celui dont on n'a fait les donnes (spécial) était devenue un vrai Sphsicopath en décrivant a chaque foie une scène macabre.
TheJeanjaque ici à Montréal, il ont réussi à créé un programme Psicopath qui regardait des photo et voyait que des scènes de meurtres et autres scènes macabre.ma partir d'une base de donné remplie de contenue macabre.
Attention aux excès socio-constructivistes ! A 6:47, la mention des camions pour les garçons et les poupées pour les filles m'a fait tiquer. Je vais fournir des sources ci-après mais je note de tels excès chez plusieurs youtubeurs et podcasteurs de vulgarisation scientifique francophones qui semblent animés par un souci de vertu qui les fait pencher vers le côté émotionnel de la force... aux dépens de la raison. S'agissant donc des activités qu'affectionnent les enfants, une excellente étude est "Fetal Testosterone Predicts Sexually Differentiated Childhood Behavior in Girls and in Boys" : www.ncbi.nlm.nih.gov/pmc/articles/PMC2778233/ Outre l'écart monumental d'activités entre filles et garçons (et il y aurait bien plus à en dire), c'est la comparaison entre filles "standard" et filles affectées par une CAH (hyperplasie congénitale des surrénales) qui enfonce le clou sur la cause biologique des activités différenciées entre filles et garçons. Note supplémentaire : les graphiques représentant les données n'ont pas la même échelle pour les filles et les garçons. Une fois remis à l'échelle, l'impression de différence est encore plus forte.
Il faut mettre une limite sur la facture de gaz 😂 Non sérieusement je dirais faire pleins de simulations jusqu’à ce que ce soit bon. Après, ce qui est bon pour l'un ne l'est pas forcément pour l'autre, donc déjà ce mettre d'accord sur ce qui est bon. Peut-être qu'on votera pour des modèles sociaux simulés par l'IA, pour choisir quelle société on veut.
Le mode de "fonctionnement" des IA et des êtres humains n'est-il pas proche ? Même type de biais, sensible aux facteurs de confusion, etc... En tout cas j'adore cette série de vidéo 😀
non. L’un utilise un organe plus ou moins mal compris constitué d’un mélange effroyable de neurones et neuro-transmetteurs de plusieurs centaines de millions, utilisant de la chimie et des impulsions électriques pour échanger localement des états par des connexions instables qui changent selon les besoins. L’autre est une machine plutôt simpliste, où on simule une version très simpliste d’un « réseau de neurone », où les temps de calculs deviennent effroyablement longs si tôt qu’on approche les centaines de milliers. Les Tensors et autres techniques échangent des informations simples (numérique). Concrètement; un réseau de neurone n’est qu’une version incroyablement simpliste de ce qu’on COMPREND du cerveau humain. On est donc loin d’être comparable, si ça se trouve, c’est même totalement pas la même chose. C’est comme si vous me disiez ‘le fonctionnement du climat dans une boule de noel et celui de la planète Terre n’est il pas proche ? » Les zordinateurs c’est génial, mangez en, Mais soyez humbles: ce ne sont que des machines humaines, très simples, avec lequel on tentent de simuler des choses dont nous comprenons à peine leur complexité. Donnez nous encore quelques milliers d’années de travail pour faire mieux. Ptet que ça sera pas suffisant, ptet que si. Zou, au boulot !
oomusd Je suis pas d'accord avec toi. C'est pas parce que les règles sont simples que les résultats le sont forcément. Regarde le jeu de la vie par exemple. Je trouve d'ailleurs la question de Benjamin intéressante. Il y a quelques mois, Alpha zero battait Stockfish aux échecs à plat de couture et apparemment Alpha zero (qui est un réseau de neurones) avait un comportement beaucoup plus "humain" que Stockfish (qui utilise la force brute). Ça veut quand même dire que le réseau de neurones est plus proche du fonctionnement d'un cerveau que de le simple alignement de calculs. D'ailleurs, personnellement, certaines connaissances en machine learning m'aident à comprendre ce qu'il se passe dans mon cerveau quand je joue à un nouveau jeu vidéo ou je m'initie à une tâche inconnue.
Même si ça fait des lustres que j'ai pas joué aux fléchettes, je me souviens que ton truc ne marche pas forcément. Si je visais toujours un peu trop à droite, viser volontairement la gauche de la cible me faisait viser trop à gauche. En fait, je ne visais pas la zone juste à gauche, je la visais en espérant que ça toucherait la cible, ce qui est différent de viser un endroit en voulant l'atteindre. C'est un peu embrouillant, mais je me comprends.
J'ai plus l'impression que la machine répond à la mauvaise question, au lieu de définir la façon optimale de juger un humain ( blanc / noir ). Elle ne fait que donner la réponse la plus probable d'un juge en fonction des différents cas. Pour que ça soit plus juste, il faudrait pondérer les résultat avec les relaxes et les remise de peine pour bonne conduite.
Ce qu'il faut je pense c'est trouver un moyen de changer les intensives des gens qui interagissent avec l'IA pour les pousser à lui apprendre ce qu'ils pensent être morale. En plus, cela laisse imaginer que l'IA adopterait au bout d'un temps une moral moyenne de la population qui pourrait ainsi servir de référence en matières de morale.
Super vidéo ! Pour la vidéo de David sur les biais implicites, je tenais à remettre un de mes commentaires, concernant l'étude sur le chaud et le froid: "Je ne sais pas si vous avez vu, mais un ami m'a fait parvenir ceci: econtent.hogrefe.com/doi/full/10.1027/1864-9335/a000187 qui montre que les résultats de l'étude sur la chaleur ne fonctionnent pas. S'il est possible d'annoter la vidéo pour en rendre compte, ça serait sympa et ça éviterait de propager de fausses informations ^^" Merci d'en prendre note :)
ou plus simplement, cette IA dit tout haut ce que plus personne n'ose constater tout bas. Je trouve ça énorme... soit on fait confiance à l'IA, soit non, si on commence à prendre que ce qui nous arrange, c'est pas honnête..
Parce que la définition qu'il donne au racisme est incorrecte et qu'elle est celle utilisée par "les élites" afin de servir leur idéologie égalitariste et cosmopolite, tandis que dans le même temps ces individus, à travers leurs pratiques de discrimination dite positive, comme l'affaire que je dénonce, parfaitement racistes (pour le coup) et scandaleusement injustes, constatent l'existence des races et leurs différences ( intellectuelles en l'espèce), mais le cache, le nie au monde et condamne ceux qui, par analyse scientifique ou simple bon sens commun, le reconnaîtrait. Et qu'évidemment très peu de personnes, en tout cas pas celles qui ont une certaine visibilité/accès au grands médias, n'en parlent. Ce qui est au demeurant logique puisque celles-ci sont validées par ces "élites". J'estime donc que ce racisme, qui n'en est pas d'un, de l'algorithme de youtube, est risible par rapport au véritable racisme auquel nous sommes confronté et que l'on cherche à taire, j'en cite donc un exemple très parlant et absolument indécent, pour éventuellement faire tiquer les esprits fins et pour au minimum emmerder les partisans et les aveugles volontaires de cette discrimination raciale.
7:20 "en étant conscient de mes biais inconscients, je peux rectifier mes jugements biaisés..." Il y a plus de 300ans, un livre au titre évocateur du sujet traité dans ta vidéo, "L'Ethique", paraissait. Dans ce livre écrit dans un langage clair et dépouillé, à la manière des traités de géométrie de son époque (17iem siècle), on y découvrait justement le moyen d'être libéré de nos passions et idées inadéquates qui nous valent d'être esclaves. Le projet de l'auteur pouvait se résumer ainsi : pour que l'homme puisse se libérer, il faut qu'il ait conscience, à la base, qu'il est soumis à tout un registre de déterminations (passions, désirs, représentations inadéquates etc) qui en lui-même le contraignent à opérer des jugements ou des choix, suivant l'idée ou la passion qui l'affecte le plus sur le moment. Ainsi, paradoxalement, l'auteur définissait la liberté humaine comme une sorte d'illusion en ces termes : " Les hommes sont conscients de leurs désirs et ignorants des causes qui les déterminent ". Donc un peu comme tu le dis dans ta vidéo, cet auteur préconisait également de rendre conscient les idées inadéquates que nous avons en nous, en réfléchissant aux causes qui les déterminent afin d'influer , rectifier, l'orientation vers laquelle elles nous poussent à opérer un choix. Cet auteur était un philosophe du 17iem siècle du nom de SPINOZA.
Fascinant mais établir une morale dans une IA cela reviendra au même que de forcer les gens à adopter une morale comme on l'a fait dans l'histoire puisque ce sera une IA "moralisé" et "juste" qu'on écoutera seulement puisque détenteur de jugement plus exact que n'importe quel humain... N'avez-vous pas peur que cela entraîne des dogmes nouveaux comme à l'époque avec la religion? Car cela va poser exactement les mêmes problèmes politiques et sociaux où à l'époque on écoutait un envoyé d'un Dieu faire ses prédications (ou prédiction avec une IA ^^) et même gouverné un Empire car se disant avoir la vérité d'un être tout puissant... Concrètement qui décidera de la morale qu'on intégrera dans tel ou tel IA? Et en quoi une "IA morale" par l'homme serait-elle différente d'un "juge impartial"? Puis finalement la justice, l'exécutif, le gouvernement, et le peuple bref les gens devront-ils se prosterner et écouter sans broncher ce nouvel envoyé des "Dieux" qui aura décider de la BONNE morale à adopter et ainsi la vérité puisque nous de simple mortel inconscient?
Ta conclusion est intéressante : enseigner aux IA nos valeurs morales. Mais soulève qques questions. Je ne m'attarderai pas sur celles du type "qu'elles morales enseigner aux IA" partons du principe que des comités d'éthiques ont réussi à s'entendre sur les morales à enseigner aux IA. Comment, une fois les IA programmés pour faire respecter La Morale, faire en sorte que celle ci puisse évoluer sans que l'ia freine ce phénomène. C'est un fait que la morale change à travers les cultures et surtout à changé à travers l'histoire. Et que c'est grâces aux changements de la morale qu'on pus évoluer les civilisations humaines. Freiner ce changement risque donc de freiner notre évolution sur le long terme (cf l'œuvre de asimov sur le cycles des robots, l'empire et Elijah belley. Cette c'est de la Sf et de la speculation, mais l'analyse de l'auteur ne semble as dénué de logique ;-) ). Cordialement ^^
la morale est une logique en elle-même, c'est cette logique qu'il faut enseigner à l'IA plus qu'une simple liste d'actes à bannir, qu'elle puisse se remettre en question et juger de la pertinence d'une action plutot qu'une autre. "Qu'est-ce que la moral à inculquer à l'IA?" C'est la question que je pose à Lé depuis 3 vidéos (mais je dois surement mal la formulé^^)
Est-ce que tu sais pourquoi tu as fait tout ce que tu as fait dans la journée? Est-ce que ce sont des choix ou cela répond-t'il a des croyances inconscientes que tu as acquis il y a des années? "Pourquoi vaut-il mieux aller au boulot de 7h a 17h plutot que de 11h a 21h? Parce qu'on voit mieux le jour, et qu'il est plus facile de travailler... Mais on a des lampes electriquer dans les bureaux... la logique qui était valable y a un siècle ne l'est plus aujourd'hui grâce à la technologie... le truc c'est que la plupart de nos comportements sont des habitudes générationnelles. L'IA a une capacité de calcul qu'on sous-estime constament. Pour la morale, elle serait plus dans la position d'un joueur d'échec qui doit évaluer l'impact de ses coups à chaque tour, quels seront les avantages à plus ou moins long terme: la moral c'est un calcul utilitariste.
Salut ! Psycho/sociologiquement "avoir des stéréotypes ≠ être raciste". Pratiqué l'équité ne gomme pas les inégalités :p Certains stéréotypes sont plus fondés que d'autres, dans tout les cas ils nous influencent, parfois comme une opinion consciente, le plus souvent inconsciemment. Ça fait partie des raccourcis de pensés de notre cerveau, évolutivement c'est utile; moralement, moins. ^^ Le comble dans cette histoire c'est que malgré la difficulté, une élite d'érudits va pondre une formule de la Morale pertinemment utilisé par les I.A ; alors que depuis des millénaires l'humanité patauge culturellement pour une morale fondamentale et son application. Mais le tableau n'est pas surprenant, alors que le plus court chemin de notre économie pour se nourrir sont les maux de l'Homme. Entre culture et technique, le favori est facilement désigné... Des avantages ? On se survie bien, si rendre un problème plus saillant peut nous aider à le résoudre, tant mieux. Tandis que vivre dans se déséquilibre reste une source de curiosités et de plaisanteries sans fin. Alors régalez-vous !
Il faudrait que l'IA sache se poser des questions quand elle constate une corrélation, qu'elle sache faire des protocoles non biaisés et faire ses propres expériences pour tenter de vérifier ce qu'elle "croit". Je n'aime pas l'idée de lui programmer des valeurs morales, je préférerais qu'elle soit curieuse et qu'elle nous demande à nous, ce qu'on en pense, quitte à ce que ce dialogue avec elle nous fasse nous interroger nous même.
Pour continuer sur l'exemple de l'algorithme de RUclips, n'aurait il pas intérêt à proposer de temps en temps des vidéos d'autres "catégories" pour améliorer sa connaissance des utilisateurs, ce qui permet ensuite de faire des suggestions encore meilleures ? Cela me fait penser au problème d'optimisation, où l'on peut rester sur un optimum local, alors qu'une meilleure solution nécessite de s'en éloigner. Sinon à quand un épisode sur la rétro-propagation du gradient ? (c'est ce qui reste le plus obscure pour moi dans les réseaux de neurone)
Nous sommes victimes de la confusion du mot "intelligence" qui en anglais n'est pas l'équivalent du mot français, mais a plutôt ici le sens de renseignement/traitement de données. Il faut laisser nos fantasmes de SF de côté pour le moment, Terminator, c'est pas pour ce siècle.
Plutôt que d'inclure des valeurs morales dans de l'IA, avec le risque de "pensée unique", de "police des idées" etc, il semble tout aussi efficace et beaucoup plus simple d'introduire une part d'aléatoire dans les algorithmes de décision. C'est d'ailleurs comme ça que la vie a évolué et continue d'évoluer. Ne dit-on pas que dans une fourmilières, 1/3 de fourmis construit, 1/3 détruit et le dernier 1/3 fait n'importe quoi, pourtant les fourmis survivent et les fourmilières se développent. Si l'aléatoire peut choquer l'attente de justice de chacun, il faut se rappeler que déjà, une part d'injustice est intrinsèquement liée à la vie, vie sociale autant que vie biologique. Vouloir tendre vers un monde parfait, comme pourrait le faire croire l'usage d'IA, deviendrait alors la pire des dictatures, comme nous l'on montré à travers l'histoire toutes les tentatives d'instaurer une idéologie promettant un monde "meilleur".
Contrairement à l'homme, il est possible de contrôler le jeu de données auquel l'IA est exposée. Des efforts plus importants doivent être faits dans ce domaine, en amont du programme d'IA lui même. Si l'IA de reconnaissance des objets fonctionne si bien, c'est parce que les trolls qui appellent des tables des chaises étaient peu nombreux. Les IA sont un formidable outil pour analyser nos propres biais. Aussi lorsqu'une IA fait des choix / prend des décisions qui nous semblent immorales, comment modifier le jeu de données pour améliorer ces décisions d'un point de vue moral ? Ou comment nous modifier nous-mêmes pour être moins biaisés au regard de ce qui esr relevé par l'IA / de ce que nous apprenons à l'IA ? Si c'est possible comment automatiser ce processus ? Encore une fois personne n'est raciste individuellement (ni ne se dit raciste, sauf quelques exceptions) c'est un comportement collectif et inconscient... Ce sont toujours les autres qui sont racistes. Et je peux prendre des décisions racistes et ne pas en avoir conscience. L'IA, parce qu'on a accès à son contenu de "pensée" (à ce qui motive les choix), elle ne peut rien nous "cacher". Vraiment les IA sont une formidable occasion d'apprendre sur nous même et nos biais.
Parler de racisme ne peut pas se faire de manière scientifique parce que des gens utilisent ce défaut pour en faire une arme et eux-même inciter les autres à la haine. La remarque de Geo est courageuse et hélas vraie les statistiques ne plaident pas en faveur de certains. Le problème c'est que ces statistiques ne reflètent pas réellement le comportement d'une population mais celui d'un groupe de cette population lui même non représentatif. Au moment de la colonisation des Amériques si on avait fait des statistiques sur le migrants on n'aurait pas obtenu une image des peuples européens mais celles de ceux qui fuyaient leurs pays pour de multiples raisons. Heureusement avec la mondialisation les choses s'équilibrent progressivement. Que l'IA nous fasse prendre conscience de ces problèmes est une bonne chose. L'IA progressera sérieusement quand elle comprendra à quel point les humains sont menteurs notamment quant l'intérêt personnel est en jeux mais c'est une autre histoire.
Pour Tay, il y également le facteur "buzz" , c'est triste à dire mais si on veut attirer le plus de personne possible , ce n'est pas en étant "banal" . En proclamant des faits racistes violents, l ' IA s'assure de faire réagir un grand nombre de personne (en bien ou en mal). Pour l'exemple, si je dis que j'adore le Ku Klux Klan et que je suis pour l'extermination des indiens, cela entraînera beaucoup plus de réactions que de dire que ce midi j'ai manger des nouilles ou que j'aime bien les vidéos de Science4All =).
+Science4All Est-ce que ce sont les IA qui sont biaisées ou nous qui cherchons à fausser les résultats en intégrant la morale ? Dans le premier exemple j'imagine que si on essaie d'estimer le risque de récidive c'est précisément pour essayer de le prévenir. Dans un contexte socio-économique qui ne leur est pas forcément favorable les afro-américains ont peut-être factuellement plus de chances de récidiver et que donc on ne leur rend peut-être pas service en voulant éliminer un biais qui n'en est en fait pas un.
Sur l'effet des jeux de données : Norman, IA psychopathe créée par le MIT à partir d'images violentes : norman-ai.mit.edu/ Quand dans un test de Rorschach une IA standard "voit" un gant de baseball en noir et blanc, Norman "voit" un homme assassiné à la mitrailleuse...
Je ne vois pas pourquoi le paramétrage de l'algo youtube serait un problème sous prétexte que les gens choisiraient de ne voir que des vidéos de chaton. Car si le paramétrage existe, et qu'un jour ils veulent voir autre chose (du genre ils veulent s'informer sur un point d'actualité, ou sur les technique de plantation des radis en haute montagne), ils pourront alors modifier les paramètres afin d'avoir des infos plus précises et/ou plus pluralistes ; tandis que si ce paramétrage n'existe pas, ils seront enfermés par l'algo (et ce, même - voire surtout - si l'algo a reçu des valeurs morales, qui pourrait par exemple "forcer" l'utilisateur à voir des vidéos sur la plantation de carottes plutôt que de radis, ou en bord de mer plutôt qu'en montagne). Je pense qu'au contraire il faut une possibilité de paramétrage personnalisable, et ce même si ce paramétrage n'est quasiment jamais utilisé (avec bien sûr une option "neutre" dans le paramétrage, et une option "stricte" qui ne renvoie que les résultats demandées, et pas les résultats proches ; il faut que les utilisateurs apprennent à faire des recherches, et que les programmeur ne forcent pas les résultats lorsque la recherche ne donne rien)
C'est difficile de savoir à quel point la personnalité est déterminée par environnement ou par la génétique. En général, les opinions sont assez tranchées suivant le bord politique. À gauche, le déni de la génétique va jusqu'à inventer des dizaines de genres (on peut être ce qu'on veut) et refuser toute différence entre homme et femme. Avant de vouloir réduire les inégalités, il faut d'abord les mettre clairement en évidence. Moi, il me semble que si les hommes ont plus souvent des positions dominantes dans la société, c'est qu'ils doivent plus se battre pour trouver leur place, comparé aux femmes. C'est aussi pour ça qu'il a plus d'hommes que de femmes à la rue par exemple. Typiquement, les hommes qui ne reproduisent pas sont deux fois plus nombreux que les femmes qui ne se reproduisent pas. Tout cela est déterminé par la génétique et dans ce cas-là, aucun sexe n'est mieux loti que l'autre. Si on commence à "réduire" les inégalités ici, ça se fera forcément au détriment d'un des sexes.
Encore une vidéo super interessante sur l'IA, mais pourquoi parle-t'on toujours de moral en abordant l'intelligence? La morale sous-entends que notre comportement est totalement aléatoire, certain vont aider les autres et d'autres vont les blesser... Hors en dehors des pathologies mentales, l'économiste Tim Harford à montrer que même nos "erreurs" étaient des comportement parfaitement rationnel dans son livre "la logique caché de la vie". Il fait référence à ce biais cognitif via une expérience similaire sauf que ce sont les étudiants eux-mêmes qui doivent évaluer leur chance de réussir dans la vie via un teste anonyme... Ils arrivent à un résultat "raciste" sans volonté de nuire, simplement parce que la réussite favorise la réussite. Avant de parler de moral, il faudrait déjà définir ce que c'est pour pouvoir résoudre le problème de l'IA. Si je reprend ta formule menant à l'infirmière, il faudrait donc trouver un équilibre/une parité dans les résultats. Mais alors pourquoi nous-même avons des difficulté à le faire? Je pense à une vidéo d'hygiène mentale, lorsque l'on fait des choix, est-ce qu'on se demande pourquoi on fait des choix? En fait, on a conscience d'être et derrière on doit avoir conscience d'avoir conscience... Et si au lieu de faire une "IA" qui n'est pas vraiment intelligente, mais plutot "robotique" on faisait IA consciente de sa conscience? Qui se demande pourquoi il obtient un résultat différent lorsqu'il trouve un medecin et une infirmière juste en changeant le sexe dans l'équation... NB: (vous noterez qu'ici, je ne cherche pas à savoir si c'est bien ou mal. il n'y pas besoin de moral dans ce calcul)
Meme si l'IA se demande pourquoi elle n'obtient pas la même chose entre "docteur" et"infirmière" elle ne pourra pas savoir si c'est une mauvaise chose ou une bonne chose, sauf si on la programme avec une morale.
Justement, qu'est-ce que la morale? Tout le monde en parle mais personne ne peut expliquer la logique dedans? Du coup a la base même de la programmation il y a un problème qui engendre un nouveau problème. Pourquoi nous ne faisons pas certaines actions? Parce que nous anticipons les conséquences, nous établissons des stratégies pour répondre à des objéctifs précis. Il s'agit d'avoir une IA dans l'IA, ce que j'appelle une double conscience. J'observe mes décision et j'évalue ce que ça m'apporte pour modifier la stratégie dès que possible.
lmz dev Le simple fait que tu as corrigé ma syntaxe, montre que tu as compris la phrase, ce qui implique donc une conscience de la situation, ce que nous cherchons à appliquer à une IA.
Theo I , certes j'ai compris la situation, mais si j'étais une IA moraliste, tu serais systématiquement réprimandé à chaque faute ... imagine l'enfer :( La morale c'est binaire, c'est soit bien, soit mal. Il n'y a pas besoin de conscience pour l'appliquer. Une IA morale, même consciente, serait l'équivalent d'une religion et ses préceptes. Elle tendrait à mettre en œuvre une forme d'eugénisme intellectuel et comportemental. Seuls les meilleurs et conformes à sa morale auraient la paix ! Pour s'en faire une bonne idée, va voir le film avec Sylvester Stallone : *Demolition Man*
L'IA ne faisant que reproduire une contradiction existante entre notre morale et la réalité de notre société, il faudrait déjà corriger notre société avant de vouloir corriger l'IA.
Bonjour Lê. Pour l'exemple de l'IA twitter, vu que les humains ont entaché la morale de l'IA, serait il possible d'avoir une morale d'IA plus "propre" en faisant entrainer l'IA avec d'autres IA sur un twitter alternatif avec que des IA?
Petite question hors-sujet, je suis en train de finir la série sur l'infini, après avoir fini celle sur la relativité. Elle sont top, ce serait envisageable de faire une serie sur la théorie des catégories :-P ?
excellente première partie , j'ai appris des choses sur l'humain et sur l'IA par contre la deuxième partie, vous parlez trop vite, contrairement à la première
Je pense que donner de la moral aux IA risque justement de leur retirer leur objectivité.. Non ? Imaginons un fait scientifique mais un fait considéré comme raciste, l'IA pourrait passer à coté à cause de sa programmation morale alors que la découverte aurait pu être très utile..
Alors je suis désolé de répondre sur cette vidéo au lieu de l'originale. Mais à la fin tu passes un extrait d'une vidéo qui parle (j'ai cru comprendre) du test d'association implicite d'Harvard. J'ai un problème avec ce test car il commence par nous "entraîner" à associer blancs et adjectif positifs puis noirs et adjectifs négatifs. Après le test inverse les positions. Je l'ai fait et il m'a trouvé un léger racisme. Ce que je pourrais accepter. Mais je me demande ce qu'il se serait passé si on avait commencé par nous demander l'association inverse. Personnellement je joue beaucoup aux jeux vidéos, qui ont des mécanismes similaires. Et du coup avec la première tâche on nous créé une mémoire musculaire qu'il nous faut désapprendre ensuite quand la règle change. Du coup je trouve ce test un peu malhonnête...
"Conscience sans inconscience n'est que ruine de l'âme" : alors là, je dois que c'est le pompon ! Une ABSURDITÉ ABSOLUE. L'inconscience est précisément ce qui ruine l'âme... : - c'est l’inconscience qui fait faire aux hommes toutes les erreurs. - c'est l’inconscience qui est la source de toutes leurs faiblesses. - c'est l’inconscience qui est la source de toutes leurs passions et désirs. - c'est l’inconscience qui est la source de toutes leurs obsessions, hypnotismes, etc. - c'est l’inconscience qui est la source de leurs fautes, délits, et crimes. N'avez vous pas remarqué que toutes les traditions initiatiques parlent précisémment de la nécessité d'éveiller la conscience, de cesser de dormir, de cesser d'être inconscient ? Bonne continuation. ;)
Euh... euh... je viens d'être saisi d'un ÉNORME doute. Tout indigné du racisme que je puisse être, et notament des données récoltées de manière biaisée (souvent par idéologie ou ignorance sociologique), dans le tableau à 1:02, il y a quand même un truc qui me chiffonne énormément: que la prédiction de l' "IA" (pour moi c'est juste un modèle prédictif, menfin...) influe sur les données qui servent de matériau de base à l'établissement des prédictions. En effet, si un personne est labellée "high risk", elle est plus susceptible d'être mise en prison. Si elle est mise en prison, nécessairement, elle est beaucoup moins susceptible de récidiver (même s'il reste possible de commettre un crime ou un délit en prison: meurtre, viol, coups et blessures, traffic de drogue ou d'objets interdits, rébellion...et on a à peu près fait le tour). Donc si, pour quelque raison que ce soit, légitime ou non, les Noirs sont plus souvent labellés high risk que les Blancs, donc plus souvent envoyés en prison, mécaniquement le plus faible taux de récidive réelle en regard du risque estimé devrait se manifester statistiquement. En plus du "statut carcéral", qui est influencé par la prédiction (high risk => plus de risque d'aller en prison), en même temps qu'il influence la prédiction (plus de risque d'aller en prison => moins de risque que récidiver), il y a aussi la gravité de l'infraction. Si les Blancs, en moyenne, sont condamnés pour des délits/crimes moins "graves" (en tout cas moins sévèrement punis dans le système judiciaire) que les Noirs, ils sont aussi plus susceptible d'être relâchés même s'ils sont considérés high risk. Ce résultat statistique est d'ailleurs valable même en cas de biais raciste: si les Blancs commettent les même crimes que les Noirs, mais qu'à crime égal les Blancs sont plus souvent remis en liberté, le risque de récidive reste plus élevé. On en revient au premier point, à savoir l'influence du taux d'incarcération sur la probabilité de récidive, donc la boucle de rétroaction entre prédiction et fait à prédire. Au final, faute d'une prise en compte séparée de ces critères de confusion, on est pas en mesure de dire si les prédictions de ce modèle sont réellement biaisées ou pas.
Ce que tu dis clairement c'est qu'il faut forcer, ce que tu nommes des "valeurs morale " en partant du principe que, tes valeurs morale à toi, sont générale et doivent donc être imposé pour influencer les gens puisque, pour le moment, ce sont d'autres valeurs qui sont imposé via les IA et qui serais minoritaire .. je m'inscris en faux là dessus, puisque, comme tu le dis, l'IA est influencé par ce qu'elle trouve sur le net et comme elle a des postures que toi, tu considères comme raciste ( c'est à discuter) .. alors la conclusion logique et partant de ton postulat de base c'est que la majorité des choses trouver sur le net est raciste et donc, la majorité des gens le sont tout autant .. La première des choses donc c'est de définir ce qu'est le racisme , de nos jours, pour les gens comme toi , être contre l'immigration par exemple est stupide puisque l'humanité, depuis la nuit des temps, pratiquerais la chose et donc, il y auras un substrat raciste dans cette posture , ors, ceci est bien plus compliquée, par exemple, si il est vrai que l'immigration est quelques chose de normal dans l'humanité depuis la nuit des temps, tu omets le facteur temps, jusqu'à dans les années 40 , les immigrations étaient diffuse et s'étalé sur des décennies, de nos jours, ces immigrations sont bien plus compacté dans le temps et provoque de fait, des changements brutaux d'ou la réaction mentionnée plus haut, ce n'est en rien du racisme en l’occurrence . Tu vois, ceci est un exemple parmi tant d'autres et c'est pour cela que programmée les IA avec des valeurs morale ( les tiennes ) porterais défaut à la pluralité des sensibilités, tu imposerais ta vision du monde comme étant la meilleure alors qu'en réalité, il n'y a pas de vision du monde supérieur, juste des temporalités, ce qui est bien aujourd'hui ne le seras peut être plus demain , de la même façon que le bien d'hier n'est pas le bien d'aujourd'hui ..
Cet éternel débat d'espérer changer le systeme de l'intérieur... Comme si ça allait se faire par magie et sans résistance... Peu importe le changement, il devra être forcé s'il n'est pas dans la ligne déjà admise par la majorité ou la doxa majoritaire en place. Et votre thème du racisme est presque déplacé en parlant d'IA. Ou plutôt, je vais reformuler ma phrase et dire "On dirait juste que vous aviez envie de parler de racisme et que toutes les occasions sont bonnes pour se faire bien voir."
Problème : qui et commen garantirais que le biais "correctif" imposé aux machines serait correct, plutôt que justement un renforcement du biais des programmeurs ou de l'autorité propriétaire ou législatrice de cette dite IA? N'est ce pas encore pire ?
L’étude scientifique des stéréotypes démontrent qu’ils traduisent des vérités statistiques. Les IA découvrent ces différences parce que ces différences sont présentent dans la réalité. L’idée d’aller à l’encontre du « fit » est contre-productive, idéologiquement biaisé et authoritaire.
Ah bon, les IA observent la réalité? Non, on leur fournit des données statistiques produites par des institutions étatiques (par exemple), forcément subjectives et donc potentiellement biaisées.
"Une donnée factuelle n'est pas subjective voyons" : cela dépend de comment tu récoltes la donnée... étant donne que l'on ne peux pas tout récolter, il peux y avoir des biais dans la récolte.
Par exemple pour le racisme, le problème ici c'est que le programme sur-estime le taux de récidive des noirs et sous-estime celui des blancs. Le tableau à 0:50 montre en effet : - Sur la première ligne, le taux de personnes désignées comme étant à haut risque de récidive mais n'ayant pas récidivé. - Sur la deuxième ligne, le taux de personnes désignées comme étant à faible risque de récidive mais ayant récidivé. Donc même si dans la réalité les noirs récidivent plus que les blancs, l'IA éxagère cet effet et fait beaucoup d'erreurs. De plus, les données proviennent de la réalité et les modèles imitent la réalité mais c'est précisemment pour cela qu'ils sont biaisés. Les modèles sont des approximations de la réalité qui sont nécessairement faux. Comme cité plus haut, le premier biais auquel on peux penser est celui de la selection des données, mais il y en a bien d'autres. Par exemple, plus un modèle a une dimension VC faible (cf. un épisode plus tôt dans la série, en gros la capacité d'un algo) plus il va simplifier les données et tirer des conclusions trop générales (bien-sûr, trop grande dimension VC -> risque d'over-fiting).
6:00 J'ai pas compris : les 5 élèves ont-ils progressé ? ou est-ce la prof qui a été "corrompue" en attribuant de meilleures notes à ces 5 élèves ? ou est-ce que la prof a mieux enseigné à ces 5 élèves ? En bref : qui a corrigé les tests ? et ces derniers étaient-ils nominatifs ?
Relou Man De ce que j'ai compris : le professeur croyait que les 5 étaient plus aptes à progresser, et au final il a plus ou moins inconsciemment mieux fait son travail pour ces 5 là. Ce qui fait qu'ils ont réellement progressé, plus que les autres.
twitter c'est .... twitter , meilleure définition et en même temps on sent l'envie de développer qui est réprimé ^^ bon je continue à regarder la vidéo mais ça semble très bon
D'accord, on est biaisé, mais est-ce que c'est forcément une mauvaise chose ? Je pense que les préjugés découlent simplement de notre appartenance sociale et du tribalisme qui s'en suit, des choses qui sont profondément ancrées en nous en tant qu'espèce sociale.
On parle souvent de programmer des valeurs morales mais c'est un problème d'une complexité incroyable! Ou est ce qu'il y a un moyen de simplifier ce problème ?
Vous avez conclu que l'IA serait plus à même que l'être humain de détecter/éviter les biais, mais a-t-on la moindre idée de comment le programmer ? Cette idée n'est elle pas uniquement un espoir illusoire ?
Quand tu dis qu'il faut implémenter des valeurs morales, je trouve que ça sous entend qu'il y aurait une morale universelle qu'il faudrait imposer à tous. Cette simple idée crée déjà de la reactance sur moi alors ça en créera sans doute sur d'autres. De plus qui choisira ces fameuses valeurs ? Ne risqueront elles pas d'etre biaisées également ?
L'IA se basse sur d'autre chose que la couleur, et assurément, il ne peux par y avoir le même % de récidives entre noir et blanc , comme il ne peu pas y avoir le même % de récidives chez les petite personne et les grande, sa na rien a voir avec le racisme, la probabilité pour que se sois le même taux est minuscule, sa c'est chercher des lien ou il n'y en a pas , sa s'appel une croyance.
N'est ce pas se biaiser et se placer dans une bulle de confort de refuser le racisme ? J'observe le monde et certains veulent faire croire que tout se vaut jusqu'à l'absurde; bientôt ce sera interdit par la loi de différencier un arbre et un animal.
J'imagine la surabondance de vidéos aux messages clef de moral approuvé qui soudain jaillirai pour "toujours+2Like" XD N'est il pas à craindre à une uniformisation trop aigus si la mécanique morale tendrai de manière exponentiel en visant la régulation des choix ? La morale c'est comme la race: si elle correspond ça passe toujours mieux. (protocole 1.0)
Moi je dis faut faire regarder aux IA de RUclips les vidéos de Lê pour qu'elles réfléchissent à leurs actes et qu'on les éduque un peu ces réseaux de neurones !
Hum coder une morale ne me semble pas top. En fait bien que l'on voit la morale comme "absolue", sa mise en oeuvre est forcément contextuelle. Ce que j'ai l'impression de voir c'est que l'IA presente "honnêtement" les immoralites presentes dans notre environnement. Hors la moralité est appliquée depuis pas mal de temps et on voit surtout qu'elle évolue en fonction de nos connaissances/prises de conscience. Fixer cette morale dans les IA semble casser une partie de l'intérêt de l'IA qui ne devrait pas être prédictive et elle sera obsolète plus tard, quand on découvrira d'autres choses (sentiments des animaux, vies extraterrestres, etc.). Je verrai plutôt la prise en compte de "recompenses" et "punissions" tout au long de la vie de l'IA. Il y aura surement des IAs qui s'ancreront sur certaines chosess et il ne sera pas possible de les ré-éduquer. La vie a réglé ce problème en utilisant un cycle en 8 avec dégénérescence et procréation permettant une remise à zero (elle en a profité pour ajouter pleins d'actions cool à ce moment aussi :D).
Ce jeu est hyper intéressant et je pense que beaucoup de gens (99.99% imo) sous-estiment sa portée morale et j'ai vu des let's play dans lesquels il semblait impossible au youtuber que la machine soit consciente et sensible. Le problème du mal que nous pouvons peut être faire à des machines conscientes et les problèmes existentiels que ça implique devraient être considérés au même titre que les problèmes de morale directe des IA imo
Dire que l'IA discrimine les noirs va provoquer une grande vague de haine de la part de personnes qui ne comprennent pas ce qu'est un biais cognitif ! Erreur Lê, erreur... Mais sinon la vidéo est très intéressante !
"Dire que l'IA discrimine les noirs va provoquer une grande vague de haine de la part de personnes qui ne comprennent pas ce qu'est un biais cognitif » on le voit déjà dans les commentaires sans parler de ceux qui veulent savoir si tous les biais sont à proscrire, et s’ils peuvent garder les biais qui les arrangent, , y a t’il des ‘« bons biais » (les miens) et des « mauvais biais » (ceux des autres, bouerk) bref... si les gens ne veulent pas chercher à s’améliorer, avoir plus d’humilité, être plus proches d’autrui et plus ouvert, on y peut rien ! La vidéo est effectivement très intéressante.
Je me demandais en toute objectivité... Serait il possible qu'à cause de milieu de certains noirs, cela les fasses replonger dans la criminalité et que les blancs en moyenne seraient donc Moins des criminels. La machine ne ferait que décrire la réalité et c'est nous qui y mettons un jugement de valeur ce qui fait de notre jugement un jugement raciste sur l'analyse de la machine qui ne fait que décrire.
Le problème ici c'est que le programme sur-estime le taux de récidive des noirs et sous-estime celui des blancs. Le tableau à 0:50 montre en effet : - Sur la première ligne, le taux de personnes désignées comme étant à haut risque de récidive mais n'ayant pas récidivé. - Sur la deuxième ligne, le taux de personnes désignées comme étant à faible risque de récidive mais ayant récidivé. Donc même si dans la réalité les noirs récidivent plus que les blancs, l'IA éxagère cet effet et fait beaucoup d'erreurs.
je me demande, si une IA devait se créer un corps humain. comment serait il ? quel sexe ? couleur de peau ? etc... comment une IA se verrait elle le mieux ? et si on ne met pas la contrainte humain, juste la contrainte etre physique. une IA serait elle un animal ? ou un homme ? ou autre ? je suis curieux de savoir comment la connaissance du monde actuel pourrait impacter ce choix. et de par le fait meme voir l'impact des biais racistes et autre...
C'est pas mieux de bosser sur nous mêmes plutôt qu'avoir besoin des IA ? Comme l'as dit une personne à la rencontre à Paris, pourquoi chercher une solution externe quand elle est peut être interne ?
Le problème c'est que l'arrivée de l'IA est (très probablement) inévitable, donc le travail sur nous-mêmes, qui se fait depuis des siècles, est trop lent pour le contrôle des IA. Moi je pense même que l'IA pourrait nous aider dans certaines situations où la morale est difficile. C'est juste que, pour l'instant, elle est au stade d'embryon.
Y a 7 milliards de connards sur Terre. une partie de ces connards peuvent bosser sur les piles electriques une autre partie peut pondre des commentaires moralistes commençant par « c’est pas mieux de « une autre partie peut travailler sur l’amélioration de soi une autre partie des connards peut aussi travailler sur les IA bref, on peut répartir le boulot. Y a aussi 24h par jour. On peut donc par exemple consacrer 30mn à faire pousser des carottes, 15mn à insulter des moralistes dans les commentaires youtubes, 2H à l’amélioration de soi et 1h36mn à améliorer les IAs pour rendre des services pour les générations futures. voyez, tout est question d’organisation et de répartition... 7 milliards de connard sur Terre, n’oubliez pas.
Ce n'est pas si surprenant. Alors que nous même naissons vierge de tous préjugés, notre environnement culturel, familial, professionnel nous influence sur nos orientations morales. Un enfant ne nait pas raciste ou sexiste. Il le devient. Edit : Programmer une valeur morale à une IA : La morale est subjective et non universelle à mon sens. Chacun a la sienne. Individuelle, ethnique, régionale ou nationale. Sinon nous ne serions pas sans cesse les uns contre les autres.
L'IA ne serait que le miroir de l'homme,,,, qui s'en sert, donc de l'homme occidental. L'homme occidental serait raciste de structure. Faut-il que ce soit à une société occidentale qui propose une morale à L'IA? Faut-il que ce soit un humain tout court? À ce jour, les blablateurs de L'IA tendent à un cartesianisme si religieux, que c'est mal barré
alors tu as déjà _la vidéo précédente _la thèse directement (le début a été écrit pour être lu par le grand public, donc compréhensible) _PodcastScience n°233
Ma tentative : Racisme : discrimination des personnes selon leur ethnie, origine, apparence physique... Et hiérarchisation des différents groupes. Morale : Ca c'est plus difficile. Allez, soyons fous, je la tente définition de maths : Supposons qu'il existe un ensemble E de tous les modes de vie (mode de vie occidental, oriental ; mode de vie religieux ; mode de vie au Pérou au 17ème siècle ; et tous les modes de vie possibles qui n'ont pas nécessairement déjà existé !) On part du postulat suivant : E possède une relation d'ordre total. La "bonne morale" serait le maximum de cet ensemble. Alors ça va en faire hurler certains qu'un tel ordre puisse exister, mais je pense qu'avec un peu d'approximations ça passe ;)
fr.wikipedia.org/wiki/Relation_d%27ordre En gros, la relation est totale si, étant donné deux éléments d'un ensemble, on peut toujours comparer ces éléments. Exemple : si je prends deux nombres entiers, l'un est toujours supérieur ou égal à l'autre. 8>=6 ; 4>= 2 ; 4>=4 ... Donc la relation d'ordre "supérieur ou égal" est une relation d'ordre totale sur l'ensemble des entiers. Ce qui signifie, d'après mon postulat, que si on prend 2 modes de vie (exemple : être xénophobe et aimer les siens , versus être extrêmement altruiste envers tous les étrangers quitte à tout perdre.) il doit y en avoir un qui est "supérieur" à l'autre. Mais je ne prétends surtout pas savoir lequel :) [EDIT : quand je me relis ça donne l'impression que je suis contre l'immigration, mais ce n'est pas le cas !]
Dommage que la partie sur l'IA soit finalement assez court (et finalement ne parle que d'un problème déjà traité qu'est la sur-interprétation) et que la majorité de la vidéo soit un peu moralisateur sur un sujet que tout le monde connait (en tout cas tu as largement développé nos biais ainsi que David Louapre dans sa série crétin de cerveau et je ne parle même pas de Stéphane Debove.) Même si le but est de montrer l'utilité de l'IA mais qui n'est pas à démontrer tu l'as bien fait au début de cette série. Un peu déçu du contenu de cette vidéo finalement quasi-vide.
Question sans troll : si les données montrent que statistiquement les personnes de couleurs noires récidives plus souvent, alors en quoi la machine est elle raciste lorsqu'elle prend en compte cette information dans sa prise de décision ? Elle n'a pas dit que les noirs etaient naturellement plus enclins à être comme ça ni que les noirs en étaient la cause. Mais si la question est "Au travers des informations la concernant, cette personne a-t-elle un risque plus élevé de récidiver?" Et que la réponse est oui, en quoi cela serait il raciste? La machine n'a pas biaisé son jugement, elle répond juste à la question posée.
Éventuellement, on peut ensuite analyser les résultats pour en lever les ambiguïtés et expliquer pourquoi ( facteurs sociaux, culturels, génétiques , etc.) . Cela dit la réponse à la question resterait la même non?
À l'inverse, s'il s'agissait d'influencer la réponse car celle-ci nous semble biaisée , cela ne reviendrait il pas à remettre en cause la légitimité même d'utiliser les statistiques pour répondre à cette question? Et, par voie de conséquence, remettre en cause le fait même poser la question à la machine ?
Excellentes questions que j'ai volontairement balayées sous le tapis pour aujourd'hui ! Mais il s'agit en effet de questions importantes et non-triviales...
Exactement la question que je me suis posée. Le fait de considérer ces résultats comme étant racistes (donc, amoraux et irrecevables) ne serait-il pas justement biaisé ? On a déjà vu que montrer une corrélation n'équivaut pas pour autant à établir une causalité, il s'agirait donc de voir plutôt d'où provient la corrélation. Il m'a semblé bizarre aussi que tu n'abordes pas la question, mais si tu dis que tu l'as volontairement balayée pour aujourd'hui c'est qu'il doit y avoir une raison ;) (wait and see)
Geo Hello, le souci n'est il pas que le risque de récidive des blancs est, lui, sous estimé ? Sinon, oui, plutôt d'accord avec toi. Ça rend service à personne de masquer ces données...
La réponse resterait la même, mais les solutions envisagées sont différentes:
au lieu de mettre tous les noirs en prison, il suffirait de leur allouer plus de charges sociales pour augmenter leur niveau d'études par exemple.
NOTE: les statistiques sont un outil, on a tendance à taper sur les outils plutot que les utilisateurs. C'est l'utilisateur qui a un problème, pas l'outil. ^^
tu as raison. nous parlons de racisme, les chiffres parlent de statistiques.
un des problemes de l'humain est qu'il ne se met pas a jour correctement, alors que une IA pourrait etre a jour.
cette statistique peut etre vrai a un instant T mais ne l'est plus aujourd'hui, grace justement au renforcement des sentences contre ce groupe de personnes. et peut etre que le groupe "a probleme" est maintenant une catégorie d'humain différente.
on pourrait alors dire que une IA pourrait avoir un jugement plus juste et actuel au moment de sa décision.
cela l'etre humain ne peut pas le faire, il ne peut pas se maintenir a jour si facilement et rapidement, il continuerait de prendre des décisions basé sur son passé mais pas son actuel.
Il serait du coup aussi facile de renverser des décisions, j'ai mis plus de personne du groupe A en prison, mais maintenant on voit que le groupe A est moins enclin a récidiver, ceux actuellement en prison, je peux les libérer plus tot finalement, l'effet de dissuasion ayant fonctionné.
va y avoir beaucoup de choses a suivre dans tout cela dans les prochaines années :-)
Si on tape "mathématicien"'au lieu de "mathematician"), on trouve plein d'images de Cédric Villani! A croire que la majorité des mathématiciens sont des Cédric Villanis!
Il y a quand même une bonne proportion de vivants dans le cas francophone(Perlman, Connes, Wiles)
le moteur de recherche Google est une très mauvaise encyclopédie
ce n’est qu’une association entre des mots populaires que les gens accolent aux images (c’est donc arbitraire) et en plus, les résultats sont classés par popularité (ce qui a tendance à s’auto-renforcer).
De plus, n'oubliez pas qu’on peut payer Google pour modifier ses réglages (pour associer un mot clé à des résultats) et qu’on peut aussi demander à Google de revenir sur des données en ligne pour les réindexer et corriger ses associations.
Bref : ce n’est pas une encyclopédie, juste un miroir de ce qui est actuellement en ligne ET populaire.
C'est ce que je dis toujours, le moteur google est loin d'être pertinent, même si il progresse et qu'il est pratique. +oomusd Du coup peut--on encore l'appeler moteur de recherche ? Il ressemble plus à un moteur de rumeur présenté comme ça ;) Google, la commère du web :D
Google n'a pas la prétention d'être une encyclopédie. Et je le trouve très pertinent comme moteur de recherche (bien au-dessus de bing ou d'ecosia): Villani est parfaitement l'image que je me fais d'un mathématicien. D'ailleurs, je me pose la question de savoir quand les résultats des recherches seront personnalisés. Même si je trouve que c'est une mauvaise, c'est forcé que ça arrive un jour.
Je ne dit pas que google est nul. Il est pertinent au regard de ce qui se fait en ce moment, et probablement le meilleur. Mais sans en faire une encyclopédie, il se présente comme moteur de recherche. On attend pas des définitions académiques ou de la documentation, mais un panel de choix différents. Les résultats sont fortement orientée par des choses plus que discutables, et on se retrouve lorsqu'on fait une recherche à devoir penser comment contourner l'actualité ou les techniques de référencement pour s'approcher d'une recherche pertinente sans forcément l'atteindre. Je ne parle même pas du problème des homonymes et de celui du non référencement volontaire de certains mots parce qu'une grosse boite paie cher pour un mot proche à 1 ou 2 lettres près. Sans compter que certains outils devenus médiocres comme google image qui nous régurgite désormais des pages et des pages de pinterest sans aucune référence. Alors c'est toujours mieux qu'il y a 20 ans, mais il y a encore beaucoup de travail.
Je regarde pas la télé et les shooting photo ça m'en touche une sans remuer l'autre. Je connais Villani grâce à sa médaille Fields et à Numberphile. C'est juste qu'il correspond assez bien au génie excentrique. Comme Grigori Perelman, l'ermite russe qui a résolu la conjecture de Poincaré qui a refusé un million de dollars. Ce ceux eux qui marquent les esprits, pas les mecs lambda qui n'intéressent pas grand-monde. Si je cherche "paysage" sur google, je veux les plus belles images, pas Patrick qui prend des couchers de soleil en photo avec son iphone 4. C'est la même chose avec les mathématiciens.
''A condition de leur enseigner adéquatement les valeurs morale'', j'ai frémis en entendant cette phrase. C'est la subjectivité de quel groupe dominant que l'ont va utiliser pour déterminer le bien et le mal dans ce cas précis? Faire ce choix c'est cristalliser le pouvoir au ceint même de quelque chose qui finira par être vénéré tel un Dieu. C'est une validation de domination et le début d'une ère de caste encore pire que celle qui existe aujourd'hui en France. Qui décidera de cela et Comment?
Utilisera t'on la morale de l'agneau ou celle de l'aigle? Fera t'on cela sur des bases déterministes ou sur des bases relativistes?
A la limite ce n'est pas la morale qu'il faut lui enseigner, mais les morales, leurs fonctionnements et leurs structures. Utiliser une méthode analytique plutôt que d'essayer de soustraire des biais déterminer en dehors de contexte relativiste propre au culture sociale et à l'ère du temps ne serait il pas plus judicieux?
Enseigner le relativisme à une machine... xD
Contrairement aux humains elle aura un minimum d'intelligence pour comprendre que le déterminisme et la seule conception du monde qui n'est pas absurde.
C'est une vidéo qui m'a fait beaucoup réfléchir 😅 J'ai donc une suggestion à proposer concernant la thèse de la vidéo :
Dire que "l'IA est discriminante (mais vous aussi !)" n'aurait pas pu être préférable à "l'IA est raciste (mais vous aussi !)" ?
Non pas pour atténuer la portée du message (et le rendre plus politiquement correct), mais plus pour décrire le processus de raisonnement de l'IA tel qu'il est.
Dire que "l'IA est discriminante" permet d'expliquer que l'IA va avantager certaines possibilités plus que d'autres. Dans le contexte de TayTweets par exemple, l'IA est discriminante parce que "inconsciemment", elle a avantagé des propos racistes plutôt que des propos non racistes, parce que son algorithme et les données l'ont amené à agir de cette façon, ce qui induit que l'IA est devenu raciste ...
Oui, l'IA est devenu raciste. Mais je pense que le problème majeur est surtout que l'IA est discriminante à cause de son algorithme et des données qu'elle reçoit. Tout comme nous ...
C'est ce que j'en suis venu à penser d'après ta vidéo. Surtout que le racisme et le sexisme ne sont que des formes de discriminations parmi d'autres. Je comprends aussi ce choix : "l'IA est raciste (mais vous aussi !)" reste une thèse sensationnel qui a le mérite de plus interpeler les gens. Mais présente-il bien le problème ?
Dis moi ce que tu en penses 🙂
Wow Thibault Cordier!, ce serait effectivement ce que j'essayerais de dire plus bas, félicitations. La notion de discrimination si elle serait problématique reliée à la moralité serait une bonne option mais jamais cependant un choix. La liberté mais comme le hasard n'existant pas vraiment, nous n'aurions pas de choix mais plutôt quelque option en fonction de nos connaissances du moment (voir mes références aussi). N'aurait-on pas pu aussi inscrire L'IA est moralisatrice (mais nous aussi)?
Plus je regarde tes vidéos (dont, le plus souvent, une bonne partie du contenu m'échappe), plus j'apprécie ta rigueur "moral", tes appels à l'humilité, etc... Pour une fois, je dirais sincèrement ses mots : J'adore ce que vous faites.
Un énorme merci à toi, particulièrement. Vivement la suite.
(Je me demande si c'est tes centre d'intérêt qui crée cette honnêteté intellectuelle... Par ce que chez d'autres -zeteticien, pour les cités, la rigueur et l'honnêteté intellectuelle à une drôle de tendance la fluctuation... Et la présente vidéo me donne une idée des raisons possibles à cela.)
Toujours une bonne vidéo mon cher Lee. A mon avis, on ne doit pas être loin de la fin de cette série. J'ai hâte de savoir de quoi on va parler.
C'est intéressant ton passage sur Google Image, au tant que développeurs web, l'intelligence artificielle se fait programmé par des développeurs de ce domaine , mais les images que tu vois dans le site Google c'est ni la faute de l'IA ni celles des Googlers ( développeurs de Google ) . je t’explique ! Google trie ces photos à partir des sites donc web en fonctions de leur popularité ( on va dire ça comme ça ) donc ça prouve que si tu tape " pdg " c'est a cause du fonctionnement du cerveau des développeurs de sites !!
Je pense que ce ne sont pas les ia qui sont racistes, mais les données.
Aux States, il fut un moment ou les assurances étaient plus cher pour les personnes noirs, que pour les personnes blanches.
Ça peut paraitre extrêmement racistes dit comme ça, mais le prix était calculé selon un tas de caractéristique et de données, et il se trouvait, que les noirs mourraient en moyenne plus jeune que les blancs, d'ou le cout plus élevé.
Après ça, il est devenu interdit de demander la couleur de peau ou la "race" pour les sondage, et truc du genre.
C'est intéressent, parce que d'un point de vue complètement rationnel, c'est tout a fait normal, ça repose sur un fait, mais d'un point de vue moral, c'est vraiment limite, même raciste.
c'est ce que je me disais aussi... maintenant à l'échelle d'IA, en imaginant que celle-ci puisse lire toutes les oeuvres écrites/réalisé par l'humanité, il s'agirait de voir les taux des actes décrit...
Et comme la façon dont on raconte les histoires oriente notre interet pour elle (une evenement heureux, n'a pas d'interet à être raconté à des inconnus, il faut une intrigue)
Ainsi l'IA a de forte chance d'être exposé à une "culture du drame" et comme on a beaucoup écrit sur la guerre, les génocide, les nazis, il y a de forte chances que sa culture soit orienté sur les crimes... Ou les histoires d'amour à l'eau de rose. ^^
Je ne vois pas en quoi c'est limite moralement. Les hommes paient plus chers les assurances (pour les memes raisons) et tout le monde trouve ça normal et c'est normal ! Les assureurs ne peuvent pas passer 36000 ans à déterminer quel est ton niveau de risque individuelle, ils prennent des facteurs rapidement calculable et foute tout ça dans l'ordi.
D'accord certes, mais dans ce cas je te dis l'IA est mal foutue. De plus les erreurs ça arrive et c'en est pas raciste pour autant, mettons que 10% des noirs récidivent, dire que 10% des noirs récidivent ce n'est pas mal, maintenant imaginons qu'à cause d'erreur honnetes (peu importe leur source) on vienne à conclure que 20% des noirs récidivent, ce n'est pas mal non plus. La non adéquation à la réalité n'est pas une condition suffisante au racisme.
Ca empeche pas les assurance de faire payer moins cher pour les femmes, parce que le racisme et tous les "ismes", ca marche bizarrement que dans un sens
Il est possible d'interagir avec l'algorithme de RUclips, pas en le modifiant certe, mais par exemple en lui disant que telle ou telle vidéo ne nous plaît pas et que l'on ne veut plus qu'elle nous soit suggérer.
(je parierai d'ailleurs que les "j'aime" joue également un rôle sur les suggestions), on peut donc bien modelé l'impact que l'algorithme de RUclips à sur les suggestions qu'il nous fait.
C'était exactement le sujet de mon TPE ! J'ai adoré :p
Quand tu dis "les humains ne sont pas faciles à programmer", n'est-ce pas un peu contradictoire avec les exemples que tu utilises dans cette vidéo : l'effet pygmalion, les camions offerts aux petits garçons et les poupées offertes aux filles ? Le conditionnement social est une forme de programmation (sans parler de la génétique et l'épigénétique qui rentrent dans la danse). Finalement, voudrais-tu dire que les humains (certains en tout cas) ne sont pas faciles à reprogrammer ? ;)
La programmation est à mon sens un acte conscient qui vise un but définit par le programmeur. Le conditionnement social à priori n'est pas un acte conscient et ne vise pas un but définit à priori par une personne ou un groupe. (oui, je chicane un peu sur le sens des mots :-) , mais ça ne m'étonnerais pas que Lé pensait les mots dans ces sens-là ). Et si une personne ou groupe de personne voulait consciemment soit rectifier les biais des humains soit rectifier les biais des IA, cette personnne/groupe de personne aurait suivant ce raisonnement plus de chance de réussir à faire cela avec les IA.
On peut programmer des humains pour de grands projets collectif, mais face à des situations particulières, il y aura toujours des exceptions.
un conditionnement n'est jamais efficace à 100% car il fait référence au subconscient qui se construit avec l'expérience, il y a des verrous psychologique qui se créer (tabous) nous empechant ou nous faisant douter de l'utilité de certains actes.
Et certains mécanismes peuvent être contourner quand on connait leur existence (c'est ce qu'enseignent certains mentalistes ou des chaines comme hyggiène mentale.)
@Michel Thayse : juste pour la forme, on dit "programmeur" plutôt que "programmateur", qui est un appareil, pas une activité ou un métier :p
Programmateur est aussi un métier en fait : c'est la personne qui décide de la programmation dans un lieu culturel. Mais rien à voir avec l'informatique ou l'ingénierie sociale, en effet.
Corrigé ;-) Merci
trop cool mais maintenant je vais passez la nuit a réfléchir 😅
La démonstration et la conclusion sont intéressantes, mais cela pose une question fondamentale : qui peut programmer la morale de l'ia? En quoi ta morale est "meilleure" que la mienne? Et sans tomber dans le relativisme. On pourrait décider/programmer à plusieurs, mais alors quelle serait notre légitimité pour le faire ?
Il faut savoir ce que l'on veut : soit optimiser les résultats, au risque d'avoir une attitude de l'IA à l'opposé d'une morale arbitraire, soit mettre cette morale en priorité par rapport aux résultats, auquel cas l'utilité du remplacement de l'humain par l'IA est fortement remise en question.
Sachant qu'enseigner la morale (du programmeur) à l'IA revient à lui transmettre de nouveaux biais humains, il vaut mieux s'en passer pour mieux permettre à l'IA de remplir sa tâche, à savoir : optimiser la fonction de sortie par rapport aux données d'entrée.
Dans le cas de l'IA qui tente de prédire les chances de récidives on ne peut pas dire que l'absence de morale l'ai aidée à optimiser la sortie de sa "fonction".
Néanmoins, je rejoins toutefois ton avis sur le fait d'enseigner la morale à une IA. L'idéal c'est de trouver un moyen de faire une IA qui évite les biais (comme celui du paradoxe de Simpson). Mais ça, j'ignore si c'est possible.
Le probleme de l'IA (sans extrapoler sur une IA forte ou la on plonge en plein abime) c'est que peut importe la programmation elle aura toujours un fonctionnement ou raisonnement "humain".
Meme en descendant dans quelque chose d'ultra basique sur sa conception elle ne sera créée que par et pour l'humain et services apportés a celui ci. Elle ne peut etre qu'a notre image le voila le vrai probleme a mes yeux, c'est pas l'IA en elle meme mais ce que nous sommes qui deteindra forcement sur sa conception, meme avec toutes les precautions prises en amont.
Le plus difficile à combattre dans le racisme est ce qu’on appelle le racisme implicite : par exemple, dans des expériences, une majorité de Blancs se disant non racistes s’asseyent, dans une salle d’attente, statistiquement plus loin d’un Noir que d’un Blanc.
Pour mesurer le racisme implicite, on demande à des sujets d’appuyer sur un bouton A pour indiquer si un mot rapidement projeté sur un écran exprime une notion positive, et sur un bouton B s’il exprime une notion négative.
Juste après le mot apparaît un visage, d’une personne noire ou blanche : les sujets doivent appuyer sur le bouton A s’il s’agit d’un Noir, et B s’il s’agit d’un Blanc.
Or on note que leur temps de réaction est raccourci si l’on inverse les boutons (appuyer sur A pour un Blanc et sur B pour un Noir).
Pourquoi ? Quand la personne appuie sur le bouton A en réponse à un mot positif, son cerveau est préparé à appuyer sur ce bouton en réponse à un concept positif. Si, dans son esprit, un visage de Blanc est associé (inconsciemment) à un concept positif, le temps de réaction sera raccourci. Il sera allongé s’il doit appuyer sur B pour un Noir.
Patricia Devine et ses collègues ont fait passer ce test à des volontaires avant et après un programme de réduction du racisme comportant cinq grands axes :
- prendre conscience que l’on agit parfois en fonction de stéréotypes,
- montrer que ces stéréotypes ne sont pas fondés (en pensant à des exemples d’individus qui le contredisent, tel un président noir, un sprinter blanc, etc.),
- pratiquer l’individuation (s’intéresser à des membres en particulier d’une minorité, et non au groupe dans son ensemble),
- développer la prise de perspective (se mettre à la place d’un membre d’une minorité) et
- augmenter les contacts avec des membres de minorités.
Après une demi-journée d’un tel programme, les participants étaient encouragés à mettre en pratique ces directives et subissaient un second test de racisme implicite 2 mois plus tard : les scores de racisme implicite avaient baissé de 50%.
Ainsi, même les réactions involontaires et à priori enfouies dans le subconscient peuvent être remodelées en vertu d’objectifs sociaux et humains positifs.
Sébastien Bohler :
Rédacteur en chef de Cerveau & Psycho.
Docteur en neurosciences.
Tu me fait pensé avec cette vidéo à une expérience ressente a ce propos.
Cher moi à Montréal, on a fait une expérience sur plusieurs IA qui devait savoir qu'esquisser avait sur une image floue. Chacun était un Deep lurning dont on donnait des infos neutres mise appart un a qui on lui a donner des donnés consernant(scène de meutres, de viole, de torture et etr) resultat, tout les IA ont fait une déduction neutre alors que celui dont on n'a fait les donnes (spécial) était devenue un vrai Sphsicopath en décrivant a chaque foie une scène macabre.
Rien compris, applique toi sur ton écriture .
TheJeanjaque ici à Montréal, il ont réussi à créé un programme Psicopath qui regardait des photo et voyait que des scènes de meurtres et autres scènes macabre.ma partir d'une base de donné remplie de contenue macabre.
Non aux IA SJW !
Stephane Leclere: impossible, car dans "intelligence artificielle" il y a "intelligence".
Attention aux excès socio-constructivistes ! A 6:47, la mention des camions pour les garçons et les poupées pour les filles m'a fait tiquer. Je vais fournir des sources ci-après mais je note de tels excès chez plusieurs youtubeurs et podcasteurs de vulgarisation scientifique francophones qui semblent animés par un souci de vertu qui les fait pencher vers le côté émotionnel de la force... aux dépens de la raison.
S'agissant donc des activités qu'affectionnent les enfants, une excellente étude est "Fetal Testosterone Predicts Sexually Differentiated Childhood Behavior in Girls and in Boys" : www.ncbi.nlm.nih.gov/pmc/articles/PMC2778233/
Outre l'écart monumental d'activités entre filles et garçons (et il y aurait bien plus à en dire), c'est la comparaison entre filles "standard" et filles affectées par une CAH (hyperplasie congénitale des surrénales) qui enfonce le clou sur la cause biologique des activités différenciées entre filles et garçons.
Note supplémentaire : les graphiques représentant les données n'ont pas la même échelle pour les filles et les garçons. Une fois remis à l'échelle, l'impression de différence est encore plus forte.
Nick Stone > je cherchais si quelqu’un avait fait ce commentaire, merci.
"Inconscience sans conscience n'est que ruine de l'âme" RabeLê
J'adore tes vidéos, de la calite simple et compréhensible. Je suis fan!
ça fait réfléchir. Le jour ou l'on votera pour un président IA, faudra quand même vérifier si c'est pas Adolf Hitler 2.0 💀
La question difficile, c'est comment faire cette vérification ? Et que faire si on n'est pas d'accord dans nos diagnostics ?
Il faut mettre une limite sur la facture de gaz 😂
Non sérieusement je dirais faire pleins de simulations jusqu’à ce que ce soit bon. Après, ce qui est bon pour l'un ne l'est pas forcément pour l'autre, donc déjà ce mettre d'accord sur ce qui est bon. Peut-être qu'on votera pour des modèles sociaux simulés par l'IA, pour choisir quelle société on veut.
Le mode de "fonctionnement" des IA et des êtres humains n'est-il pas proche ? Même type de biais, sensible aux facteurs de confusion, etc...
En tout cas j'adore cette série de vidéo 😀
non. L’un utilise un organe plus ou moins mal compris constitué d’un mélange effroyable de neurones et neuro-transmetteurs de plusieurs centaines de millions, utilisant de la chimie et des impulsions électriques pour échanger localement des états par des connexions instables qui changent selon les besoins.
L’autre est une machine plutôt simpliste, où on simule une version très simpliste d’un « réseau de neurone », où les temps de calculs deviennent effroyablement longs si tôt qu’on approche les centaines de milliers. Les Tensors et autres techniques échangent des informations simples (numérique).
Concrètement; un réseau de neurone n’est qu’une version incroyablement simpliste de ce qu’on COMPREND du cerveau humain.
On est donc loin d’être comparable, si ça se trouve, c’est même totalement pas la même chose.
C’est comme si vous me disiez ‘le fonctionnement du climat dans une boule de noel et celui de la planète Terre n’est il pas proche ? »
Les zordinateurs c’est génial, mangez en, Mais soyez humbles: ce ne sont que des machines humaines, très simples, avec lequel on tentent de simuler des choses dont nous comprenons à peine leur complexité.
Donnez nous encore quelques milliers d’années de travail pour faire mieux. Ptet que ça sera pas suffisant, ptet que si.
Zou, au boulot !
oomusd Je suis pas d'accord avec toi. C'est pas parce que les règles sont simples que les résultats le sont forcément. Regarde le jeu de la vie par exemple. Je trouve d'ailleurs la question de Benjamin intéressante. Il y a quelques mois, Alpha zero battait Stockfish aux échecs à plat de couture et apparemment Alpha zero (qui est un réseau de neurones) avait un comportement beaucoup plus "humain" que Stockfish (qui utilise la force brute). Ça veut quand même dire que le réseau de neurones est plus proche du fonctionnement d'un cerveau que de le simple alignement de calculs. D'ailleurs, personnellement, certaines connaissances en machine learning m'aident à comprendre ce qu'il se passe dans mon cerveau quand je joue à un nouveau jeu vidéo ou je m'initie à une tâche inconnue.
Bonjour j'aimerai parler avec une plateforme IA c'est possible ?
Même si ça fait des lustres que j'ai pas joué aux fléchettes, je me souviens que ton truc ne marche pas forcément. Si je visais toujours un peu trop à droite, viser volontairement la gauche de la cible me faisait viser trop à gauche. En fait, je ne visais pas la zone juste à gauche, je la visais en espérant que ça toucherait la cible, ce qui est différent de viser un endroit en voulant l'atteindre. C'est un peu embrouillant, mais je me comprends.
J'ai plus l'impression que la machine répond à la mauvaise question, au lieu de définir la façon optimale de juger un humain ( blanc / noir ). Elle ne fait que donner la réponse la plus probable d'un juge en fonction des différents cas. Pour que ça soit plus juste, il faudrait pondérer les résultat avec les relaxes et les remise de peine pour bonne conduite.
Ce qu'il faut je pense c'est trouver un moyen de changer les intensives des gens qui interagissent avec l'IA pour les pousser à lui apprendre ce qu'ils pensent être morale.
En plus, cela laisse imaginer que l'IA adopterait au bout d'un temps une moral moyenne de la population qui pourrait ainsi servir de référence en matières de morale.
Super vidéo ! Pour la vidéo de David sur les biais implicites, je tenais à remettre un de mes commentaires, concernant l'étude sur le chaud et le froid: "Je ne sais pas si vous avez vu, mais un ami m'a fait parvenir ceci: econtent.hogrefe.com/doi/full/10.1027/1864-9335/a000187 qui montre que les résultats de l'étude sur la chaleur ne fonctionnent pas. S'il est possible d'annoter la vidéo pour en rendre compte, ça serait sympa et ça éviterait de propager de fausses informations ^^"
Merci d'en prendre note :)
Merci Lê, pour le lien vers la thèse de Mickael Launay, ça m'interesse beaucoup. A bientôt! Franck
Merci, C'est toujours top tes videos!
ou plus simplement, cette IA dit tout haut ce que plus personne n'ose constater tout bas. Je trouve ça énorme... soit on fait confiance à l'IA, soit non, si on commence à prendre que ce qui nous arrange, c'est pas honnête..
Et les entrées à Harvard avec 310 points d'avance pour les noirs et -140 pour les asiatiques, c'est quoi ? Pourquoi on n'en entends pas parler ?
C'est uine IA qui le fait?
Sinon, quel rapport?
Parce que la définition qu'il donne au racisme est incorrecte et qu'elle est celle utilisée par "les élites" afin de servir leur idéologie égalitariste et cosmopolite, tandis que dans le même temps ces individus, à travers leurs pratiques de discrimination dite positive, comme l'affaire que je dénonce, parfaitement racistes (pour le coup) et scandaleusement injustes, constatent l'existence des races et leurs différences ( intellectuelles en l'espèce), mais le cache, le nie au monde et condamne ceux qui, par analyse scientifique ou simple bon sens commun, le reconnaîtrait.
Et qu'évidemment très peu de personnes, en tout cas pas celles qui ont une certaine visibilité/accès au grands médias, n'en parlent. Ce qui est au demeurant logique puisque celles-ci sont validées par ces "élites".
J'estime donc que ce racisme, qui n'en est pas d'un, de l'algorithme de youtube, est risible par rapport au véritable racisme auquel nous sommes confronté et que l'on cherche à taire, j'en cite donc un exemple très parlant et absolument indécent, pour éventuellement faire tiquer les esprits fins et pour au minimum emmerder les partisans et les aveugles volontaires de cette discrimination raciale.
7:20 "en étant conscient de mes biais inconscients, je peux rectifier mes jugements biaisés..." Il y a plus de 300ans, un livre au titre évocateur du sujet traité dans ta vidéo, "L'Ethique", paraissait. Dans ce livre écrit dans un langage clair et dépouillé, à la manière des traités de géométrie de son époque (17iem siècle), on y découvrait justement le moyen d'être libéré de nos passions et idées inadéquates qui nous valent d'être esclaves. Le projet de l'auteur pouvait se résumer ainsi : pour que l'homme puisse se libérer, il faut qu'il ait conscience, à la base, qu'il est soumis à tout un registre de déterminations (passions, désirs, représentations inadéquates etc) qui en lui-même le contraignent à opérer des jugements ou des choix, suivant l'idée ou la passion qui l'affecte le plus sur le moment. Ainsi, paradoxalement, l'auteur définissait la liberté humaine comme une sorte d'illusion en ces termes : " Les hommes sont conscients de leurs désirs et ignorants des causes qui les déterminent ". Donc un peu comme tu le dis dans ta vidéo, cet auteur préconisait également de rendre conscient les idées inadéquates que nous avons en nous, en réfléchissant aux causes qui les déterminent afin d'influer , rectifier, l'orientation vers laquelle elles nous poussent à opérer un choix. Cet auteur était un philosophe du 17iem siècle du nom de SPINOZA.
Fascinant mais établir une morale dans une IA cela reviendra au même que de forcer les gens à adopter une morale comme on l'a fait dans l'histoire puisque ce sera une IA "moralisé" et "juste" qu'on écoutera seulement puisque détenteur de jugement plus exact que n'importe quel humain...
N'avez-vous pas peur que cela entraîne des dogmes nouveaux comme à l'époque avec la religion? Car cela va poser exactement les mêmes problèmes politiques et sociaux où à l'époque on écoutait un envoyé d'un Dieu faire ses prédications (ou prédiction avec une IA ^^) et même gouverné un Empire car se disant avoir la vérité d'un être tout puissant...
Concrètement qui décidera de la morale qu'on intégrera dans tel ou tel IA? Et en quoi une "IA morale" par l'homme serait-elle différente d'un "juge impartial"?
Puis finalement la justice, l'exécutif, le gouvernement, et le peuple bref les gens devront-ils se prosterner et écouter sans broncher ce nouvel envoyé des "Dieux" qui aura décider de la BONNE morale à adopter et ainsi la vérité puisque nous de simple mortel inconscient?
non.
Ta conclusion est intéressante : enseigner aux IA nos valeurs morales. Mais soulève qques questions.
Je ne m'attarderai pas sur celles du type "qu'elles morales enseigner aux IA" partons du principe que des comités d'éthiques ont réussi à s'entendre sur les morales à enseigner aux IA.
Comment, une fois les IA programmés pour faire respecter La Morale, faire en sorte que celle ci puisse évoluer sans que l'ia freine ce phénomène. C'est un fait que la morale change à travers les cultures et surtout à changé à travers l'histoire. Et que c'est grâces aux changements de la morale qu'on pus évoluer les civilisations humaines. Freiner ce changement risque donc de freiner notre évolution sur le long terme (cf l'œuvre de asimov sur le cycles des robots, l'empire et Elijah belley. Cette c'est de la Sf et de la speculation, mais l'analyse de l'auteur ne semble as dénué de logique ;-) ).
Cordialement ^^
la morale est une logique en elle-même, c'est cette logique qu'il faut enseigner à l'IA plus qu'une simple liste d'actes à bannir, qu'elle puisse se remettre en question et juger de la pertinence d'une action plutot qu'une autre.
"Qu'est-ce que la moral à inculquer à l'IA?"
C'est la question que je pose à Lé depuis 3 vidéos (mais je dois surement mal la formulé^^)
Très bonnes questions !! En bref, c'est pas facile. Et c'est pour ça qu'il faut beaucoup y réfléchir ^^
Le Petit Monde de Purexo
J'ai peut-être une idée. On pourrait demander à l'IA de récolter des informations sur la morale des gens.
Du coup, l'IA se mettra un jour en fonction du moment.
Est-ce que tu sais pourquoi tu as fait tout ce que tu as fait dans la journée?
Est-ce que ce sont des choix ou cela répond-t'il a des croyances inconscientes que tu as acquis il y a des années?
"Pourquoi vaut-il mieux aller au boulot de 7h a 17h plutot que de 11h a 21h? Parce qu'on voit mieux le jour, et qu'il est plus facile de travailler... Mais on a des lampes electriquer dans les bureaux... la logique qui était valable y a un siècle ne l'est plus aujourd'hui grâce à la technologie...
le truc c'est que la plupart de nos comportements sont des habitudes générationnelles.
L'IA a une capacité de calcul qu'on sous-estime constament. Pour la morale, elle serait plus dans la position d'un joueur d'échec qui doit évaluer l'impact de ses coups à chaque tour, quels seront les avantages à plus ou moins long terme: la moral c'est un calcul utilitariste.
Salut ! Psycho/sociologiquement "avoir des stéréotypes ≠ être raciste". Pratiqué l'équité ne gomme pas les inégalités :p
Certains stéréotypes sont plus fondés que d'autres, dans tout les cas ils nous influencent, parfois comme une opinion consciente, le plus souvent inconsciemment. Ça fait partie des raccourcis de pensés de notre cerveau, évolutivement c'est utile; moralement, moins. ^^
Le comble dans cette histoire c'est que malgré la difficulté, une élite d'érudits va pondre une formule de la Morale pertinemment utilisé par les I.A ; alors que depuis des millénaires l'humanité patauge culturellement pour une morale fondamentale et son application.
Mais le tableau n'est pas surprenant, alors que le plus court chemin de notre économie pour se nourrir sont les maux de l'Homme. Entre culture et technique, le favori est facilement désigné... Des avantages ? On se survie bien, si rendre un problème plus saillant peut nous aider à le résoudre, tant mieux. Tandis que vivre dans se déséquilibre reste une source de curiosités et de plaisanteries sans fin. Alors régalez-vous !
Il faudrait que l'IA sache se poser des questions quand elle constate une corrélation, qu'elle sache faire des protocoles non biaisés et faire ses propres expériences pour tenter de vérifier ce qu'elle "croit". Je n'aime pas l'idée de lui programmer des valeurs morales, je préférerais qu'elle soit curieuse et qu'elle nous demande à nous, ce qu'on en pense, quitte à ce que ce dialogue avec elle nous fasse nous interroger nous même.
ON EST EN FINALE!!!!!!!!!!
Pour continuer sur l'exemple de l'algorithme de RUclips, n'aurait il pas intérêt à proposer de temps en temps des vidéos d'autres "catégories" pour améliorer sa connaissance des utilisateurs, ce qui permet ensuite de faire des suggestions encore meilleures ?
Cela me fait penser au problème d'optimisation, où l'on peut rester sur un optimum local, alors qu'une meilleure solution nécessite de s'en éloigner.
Sinon à quand un épisode sur la rétro-propagation du gradient ? (c'est ce qui reste le plus obscure pour moi dans les réseaux de neurone)
Nous sommes victimes de la confusion du mot "intelligence" qui en anglais n'est pas l'équivalent du mot français, mais a plutôt ici le sens de renseignement/traitement de données. Il faut laisser nos fantasmes de SF de côté pour le moment, Terminator, c'est pas pour ce siècle.
Plutôt que d'inclure des valeurs morales dans de l'IA, avec le risque de "pensée unique", de "police des idées" etc, il semble tout aussi efficace et beaucoup plus simple d'introduire une part d'aléatoire dans les algorithmes de décision. C'est d'ailleurs comme ça que la vie a évolué et continue d'évoluer. Ne dit-on pas que dans une fourmilières, 1/3 de fourmis construit, 1/3 détruit et le dernier 1/3 fait n'importe quoi, pourtant les fourmis survivent et les fourmilières se développent.
Si l'aléatoire peut choquer l'attente de justice de chacun, il faut se rappeler que déjà, une part d'injustice est intrinsèquement liée à la vie, vie sociale autant que vie biologique. Vouloir tendre vers un monde parfait, comme pourrait le faire croire l'usage d'IA, deviendrait alors la pire des dictatures, comme nous l'on montré à travers l'histoire toutes les tentatives d'instaurer une idéologie promettant un monde "meilleur".
Contrairement à l'homme, il est possible de contrôler le jeu de données auquel l'IA est exposée. Des efforts plus importants doivent être faits dans ce domaine, en amont du programme d'IA lui même. Si l'IA de reconnaissance des objets fonctionne si bien, c'est parce que les trolls qui appellent des tables des chaises étaient peu nombreux.
Les IA sont un formidable outil pour analyser nos propres biais. Aussi lorsqu'une IA fait des choix / prend des décisions qui nous semblent immorales, comment modifier le jeu de données pour améliorer ces décisions d'un point de vue moral ?
Ou comment nous modifier nous-mêmes pour être moins biaisés au regard de ce qui esr relevé par l'IA / de ce que nous apprenons à l'IA ?
Si c'est possible comment automatiser ce processus ?
Encore une fois personne n'est raciste individuellement (ni ne se dit raciste, sauf quelques exceptions) c'est un comportement collectif et inconscient... Ce sont toujours les autres qui sont racistes. Et je peux prendre des décisions racistes et ne pas en avoir conscience. L'IA, parce qu'on a accès à son contenu de "pensée" (à ce qui motive les choix), elle ne peut rien nous "cacher".
Vraiment les IA sont une formidable occasion d'apprendre sur nous même et nos biais.
Parler de racisme ne peut pas se faire de manière scientifique parce que des gens utilisent ce défaut pour en faire une arme et eux-même inciter les autres à la haine.
La remarque de Geo est courageuse et hélas vraie les statistiques ne plaident pas en faveur de certains. Le problème c'est que ces statistiques ne reflètent pas réellement le comportement d'une population mais celui d'un groupe de cette population lui même non représentatif.
Au moment de la colonisation des Amériques si on avait fait des statistiques sur le migrants on n'aurait pas obtenu une image des peuples européens mais celles de ceux qui fuyaient leurs pays pour de multiples raisons.
Heureusement avec la mondialisation les choses s'équilibrent progressivement.
Que l'IA nous fasse prendre conscience de ces problèmes est une bonne chose.
L'IA progressera sérieusement quand elle comprendra à quel point les humains sont menteurs notamment quant l'intérêt personnel est en jeux mais c'est une autre histoire.
Quand on lit les commentaires on comprend.
A partagé, c est fait !
Pour Tay, il y également le facteur "buzz" , c'est triste à dire mais si on veut attirer le plus de personne possible , ce n'est pas en étant "banal" . En proclamant des faits racistes violents, l ' IA s'assure de faire réagir un grand nombre de personne (en bien ou en mal). Pour l'exemple, si je dis que j'adore le Ku Klux Klan et que je suis pour l'extermination des indiens, cela entraînera beaucoup plus de réactions que de dire que ce midi j'ai manger des nouilles ou que j'aime bien les vidéos de Science4All =).
+Science4All
Est-ce que ce sont les IA qui sont biaisées ou nous qui cherchons à fausser les résultats en intégrant la morale ?
Dans le premier exemple j'imagine que si on essaie d'estimer le risque de récidive c'est précisément pour essayer de le prévenir. Dans un contexte socio-économique qui ne leur est pas forcément favorable les afro-américains ont peut-être factuellement plus de chances de récidiver et que donc on ne leur rend peut-être pas service en voulant éliminer un biais qui n'en est en fait pas un.
Sur l'effet des jeux de données : Norman, IA psychopathe créée par le MIT à partir d'images violentes : norman-ai.mit.edu/
Quand dans un test de Rorschach une IA standard "voit" un gant de baseball en noir et blanc, Norman "voit" un homme assassiné à la mitrailleuse...
Je ne vois pas pourquoi le paramétrage de l'algo youtube serait un problème sous prétexte que les gens choisiraient de ne voir que des vidéos de chaton.
Car si le paramétrage existe, et qu'un jour ils veulent voir autre chose (du genre ils veulent s'informer sur un point d'actualité, ou sur les technique de plantation des radis en haute montagne), ils pourront alors modifier les paramètres afin d'avoir des infos plus précises et/ou plus pluralistes ; tandis que si ce paramétrage n'existe pas, ils seront enfermés par l'algo (et ce, même - voire surtout - si l'algo a reçu des valeurs morales, qui pourrait par exemple "forcer" l'utilisateur à voir des vidéos sur la plantation de carottes plutôt que de radis, ou en bord de mer plutôt qu'en montagne).
Je pense qu'au contraire il faut une possibilité de paramétrage personnalisable, et ce même si ce paramétrage n'est quasiment jamais utilisé (avec bien sûr une option "neutre" dans le paramétrage, et une option "stricte" qui ne renvoie que les résultats demandées, et pas les résultats proches ; il faut que les utilisateurs apprennent à faire des recherches, et que les programmeur ne forcent pas les résultats lorsque la recherche ne donne rien)
A propos de l'inconscient, on peut apprécier la vidéo de "La Tronche en Biais", épisode "Vous êtes sous influences".
C'est difficile de savoir à quel point la personnalité est déterminée par environnement ou par la génétique. En général, les opinions sont assez tranchées suivant le bord politique. À gauche, le déni de la génétique va jusqu'à inventer des dizaines de genres (on peut être ce qu'on veut) et refuser toute différence entre homme et femme. Avant de vouloir réduire les inégalités, il faut d'abord les mettre clairement en évidence. Moi, il me semble que si les hommes ont plus souvent des positions dominantes dans la société, c'est qu'ils doivent plus se battre pour trouver leur place, comparé aux femmes. C'est aussi pour ça qu'il a plus d'hommes que de femmes à la rue par exemple. Typiquement, les hommes qui ne reproduisent pas sont deux fois plus nombreux que les femmes qui ne se reproduisent pas. Tout cela est déterminé par la génétique et dans ce cas-là, aucun sexe n'est mieux loti que l'autre. Si on commence à "réduire" les inégalités ici, ça se fera forcément au détriment d'un des sexes.
Encore une vidéo super interessante sur l'IA, mais pourquoi parle-t'on toujours de moral en abordant l'intelligence? La morale sous-entends que notre comportement est totalement aléatoire, certain vont aider les autres et d'autres vont les blesser... Hors en dehors des pathologies mentales, l'économiste Tim Harford à montrer que même nos "erreurs" étaient des comportement parfaitement rationnel dans son livre "la logique caché de la vie".
Il fait référence à ce biais cognitif via une expérience similaire sauf que ce sont les étudiants eux-mêmes qui doivent évaluer leur chance de réussir dans la vie via un teste anonyme... Ils arrivent à un résultat "raciste" sans volonté de nuire, simplement parce que la réussite favorise la réussite.
Avant de parler de moral, il faudrait déjà définir ce que c'est pour pouvoir résoudre le problème de l'IA. Si je reprend ta formule menant à l'infirmière, il faudrait donc trouver un équilibre/une parité dans les résultats.
Mais alors pourquoi nous-même avons des difficulté à le faire? Je pense à une vidéo d'hygiène mentale, lorsque l'on fait des choix, est-ce qu'on se demande pourquoi on fait des choix? En fait, on a conscience d'être et derrière on doit avoir conscience d'avoir conscience...
Et si au lieu de faire une "IA" qui n'est pas vraiment intelligente, mais plutot "robotique" on faisait IA consciente de sa conscience? Qui se demande pourquoi il obtient un résultat différent lorsqu'il trouve un medecin et une infirmière juste en changeant le sexe dans l'équation...
NB: (vous noterez qu'ici, je ne cherche pas à savoir si c'est bien ou mal. il n'y pas besoin de moral dans ce calcul)
*LA* morale.
Garde le moral quand même ;p
Meme si l'IA se demande pourquoi elle n'obtient pas la même chose entre "docteur" et"infirmière" elle ne pourra pas savoir si c'est une mauvaise chose ou une bonne chose, sauf si on la programme avec une morale.
Justement, qu'est-ce que la morale? Tout le monde en parle mais personne ne peut expliquer la logique dedans?
Du coup a la base même de la programmation il y a un problème qui engendre un nouveau problème.
Pourquoi nous ne faisons pas certaines actions? Parce que nous anticipons les conséquences, nous établissons des stratégies pour répondre à des objéctifs précis.
Il s'agit d'avoir une IA dans l'IA, ce que j'appelle une double conscience. J'observe mes décision et j'évalue ce que ça m'apporte pour modifier la stratégie dès que possible.
lmz dev Le simple fait que tu as corrigé ma syntaxe, montre que tu as compris la phrase, ce qui implique donc une conscience de la situation, ce que nous cherchons à appliquer à une IA.
Theo I , certes j'ai compris la situation, mais si j'étais une IA moraliste, tu serais systématiquement réprimandé à chaque faute ... imagine l'enfer :(
La morale c'est binaire, c'est soit bien, soit mal. Il n'y a pas besoin de conscience pour l'appliquer.
Une IA morale, même consciente, serait l'équivalent d'une religion et ses préceptes.
Elle tendrait à mettre en œuvre une forme d'eugénisme intellectuel et comportemental. Seuls les meilleurs et conformes à sa morale auraient la paix !
Pour s'en faire une bonne idée, va voir le film avec Sylvester Stallone : *Demolition Man*
L'IA ne faisant que reproduire une contradiction existante entre notre morale et la réalité de notre société, il faudrait déjà corriger notre société avant de vouloir corriger l'IA.
I
Yura comme une fraction importante des adultes quoi...
lol .. ui .. aussi :)
Bonjour Lê. Pour l'exemple de l'IA twitter, vu que les humains ont entaché la morale de l'IA, serait il possible d'avoir une morale d'IA plus "propre" en faisant entrainer l'IA avec d'autres IA sur un twitter alternatif avec que des IA?
Bonjour. Je ne pense pas moi. Des IA entre elles n'apprendraient qu'à communiquer entre elles et non avec les humains.
Comme le dit Minquoad, c'est comme si tu essayais d'apprendre le langage à un bébé avec d'autres bébés.
Disons que Microsoft n'aurait pas du faire de la pub pour son IA, ca aurait évité d'attirer tous les trolls.
Estimer certains comportements ou jugements comme étant des biais systématiques est un biais parmi d'autres.
une nouvelle à lire sur les IA : "Robot dreams" de Isaac Asimov
Petite question hors-sujet, je suis en train de finir la série sur l'infini, après avoir fini celle sur la relativité. Elle sont top, ce serait envisageable de faire une serie sur la théorie des catégories :-P ?
Pas dans un futur proche, malheureusement...
excellente première partie , j'ai appris des choses sur l'humain et sur l'IA par contre la deuxième partie, vous parlez trop vite, contrairement à la première
Je pense que donner de la moral aux IA risque justement de leur retirer leur objectivité.. Non ?
Imaginons un fait scientifique mais un fait considéré comme raciste, l'IA pourrait passer à coté à cause de sa programmation morale alors que la découverte aurait pu être très utile..
Alors je suis désolé de répondre sur cette vidéo au lieu de l'originale. Mais à la fin tu passes un extrait d'une vidéo qui parle (j'ai cru comprendre) du test d'association implicite d'Harvard.
J'ai un problème avec ce test car il commence par nous "entraîner" à associer blancs et adjectif positifs puis noirs et adjectifs négatifs. Après le test inverse les positions.
Je l'ai fait et il m'a trouvé un léger racisme. Ce que je pourrais accepter. Mais je me demande ce qu'il se serait passé si on avait commencé par nous demander l'association inverse.
Personnellement je joue beaucoup aux jeux vidéos, qui ont des mécanismes similaires. Et du coup avec la première tâche on nous créé une mémoire musculaire qu'il nous faut désapprendre ensuite quand la règle change.
Du coup je trouve ce test un peu malhonnête...
"Conscience sans inconscience n'est que ruine de l'âme" : alors là, je dois que c'est le pompon ! Une ABSURDITÉ ABSOLUE.
L'inconscience est précisément ce qui ruine l'âme... :
- c'est l’inconscience qui fait faire aux hommes toutes les erreurs.
- c'est l’inconscience qui est la source de toutes leurs faiblesses.
- c'est l’inconscience qui est la source de toutes leurs passions et désirs.
- c'est l’inconscience qui est la source de toutes leurs obsessions, hypnotismes, etc.
- c'est l’inconscience qui est la source de leurs fautes, délits, et crimes.
N'avez vous pas remarqué que toutes les traditions initiatiques parlent précisémment de la nécessité d'éveiller la conscience, de cesser de dormir, de cesser d'être inconscient ?
Bonne continuation. ;)
Advaita
Euh... euh... je viens d'être saisi d'un ÉNORME doute. Tout indigné du racisme que je puisse être, et notament des données récoltées de manière biaisée (souvent par idéologie ou ignorance sociologique), dans le tableau à 1:02, il y a quand même un truc qui me chiffonne énormément: que la prédiction de l' "IA" (pour moi c'est juste un modèle prédictif, menfin...) influe sur les données qui servent de matériau de base à l'établissement des prédictions.
En effet, si un personne est labellée "high risk", elle est plus susceptible d'être mise en prison. Si elle est mise en prison, nécessairement, elle est beaucoup moins susceptible de récidiver (même s'il reste possible de commettre un crime ou un délit en prison: meurtre, viol, coups et blessures, traffic de drogue ou d'objets interdits, rébellion...et on a à peu près fait le tour). Donc si, pour quelque raison que ce soit, légitime ou non, les Noirs sont plus souvent labellés high risk que les Blancs, donc plus souvent envoyés en prison, mécaniquement le plus faible taux de récidive réelle en regard du risque estimé devrait se manifester statistiquement.
En plus du "statut carcéral", qui est influencé par la prédiction (high risk => plus de risque d'aller en prison), en même temps qu'il influence la prédiction (plus de risque d'aller en prison => moins de risque que récidiver), il y a aussi la gravité de l'infraction. Si les Blancs, en moyenne, sont condamnés pour des délits/crimes moins "graves" (en tout cas moins sévèrement punis dans le système judiciaire) que les Noirs, ils sont aussi plus susceptible d'être relâchés même s'ils sont considérés high risk.
Ce résultat statistique est d'ailleurs valable même en cas de biais raciste: si les Blancs commettent les même crimes que les Noirs, mais qu'à crime égal les Blancs sont plus souvent remis en liberté, le risque de récidive reste plus élevé. On en revient au premier point, à savoir l'influence du taux d'incarcération sur la probabilité de récidive, donc la boucle de rétroaction entre prédiction et fait à prédire.
Au final, faute d'une prise en compte séparée de ces critères de confusion, on est pas en mesure de dire si les prédictions de ce modèle sont réellement biaisées ou pas.
J'aime cette vision de d'une IA anti-biais cognitif !! :-D
J'suis pas raciste, mais quand même c'est vrai qu'on est tous racistes. Toufa fé la faute à la fofiété !!!
Ce que tu dis clairement c'est qu'il faut forcer, ce que tu nommes des "valeurs morale " en partant du principe que, tes valeurs morale à toi, sont générale et doivent donc être imposé pour influencer les gens puisque, pour le moment, ce sont d'autres valeurs qui sont imposé via les IA et qui serais minoritaire .. je m'inscris en faux là dessus, puisque, comme tu le dis, l'IA est influencé par ce qu'elle trouve sur le net et comme elle a des postures que toi, tu considères comme raciste ( c'est à discuter) .. alors la conclusion logique et partant de ton postulat de base c'est que la majorité des choses trouver sur le net est raciste et donc, la majorité des gens le sont tout autant ..
La première des choses donc c'est de définir ce qu'est le racisme , de nos jours, pour les gens comme toi , être contre l'immigration par exemple est stupide puisque l'humanité, depuis la nuit des temps, pratiquerais la chose et donc, il y auras un substrat raciste dans cette posture , ors, ceci est bien plus compliquée, par exemple, si il est vrai que l'immigration est quelques chose de normal dans l'humanité depuis la nuit des temps, tu omets le facteur temps, jusqu'à dans les années 40 , les immigrations étaient diffuse et s'étalé sur des décennies, de nos jours, ces immigrations sont bien plus compacté dans le temps et provoque de fait, des changements brutaux d'ou la réaction mentionnée plus haut, ce n'est en rien du racisme en l’occurrence .
Tu vois, ceci est un exemple parmi tant d'autres et c'est pour cela que programmée les IA avec des valeurs morale ( les tiennes ) porterais défaut à la pluralité des sensibilités, tu imposerais ta vision du monde comme étant la meilleure alors qu'en réalité, il n'y a pas de vision du monde supérieur, juste des temporalités, ce qui est bien aujourd'hui ne le seras peut être plus demain , de la même façon que le bien d'hier n'est pas le bien d'aujourd'hui ..
Cet éternel débat d'espérer changer le systeme de l'intérieur... Comme si ça allait se faire par magie et sans résistance...
Peu importe le changement, il devra être forcé s'il n'est pas dans la ligne déjà admise par la majorité ou la doxa majoritaire en place.
Et votre thème du racisme est presque déplacé en parlant d'IA. Ou plutôt, je vais reformuler ma phrase et dire "On dirait juste que vous aviez envie de parler de racisme et que toutes les occasions sont bonnes pour se faire bien voir."
Problème : qui et commen garantirais que le biais "correctif" imposé aux machines serait correct, plutôt que justement un renforcement du biais des programmeurs ou de l'autorité propriétaire ou législatrice de cette dite IA? N'est ce pas encore pire ?
L’étude scientifique des stéréotypes démontrent qu’ils traduisent des vérités statistiques. Les IA découvrent ces différences parce que ces différences sont présentent dans la réalité. L’idée d’aller à l’encontre du « fit » est contre-productive, idéologiquement biaisé et authoritaire.
danodet chhhhut c'est tabou!
Ah bon, les IA observent la réalité? Non, on leur fournit des données statistiques produites par des institutions étatiques (par exemple), forcément subjectives et donc potentiellement biaisées.
"Une donnée factuelle n'est pas subjective voyons" : cela dépend de comment tu récoltes la donnée... étant donne que l'on ne peux pas tout récolter, il peux y avoir des biais dans la récolte.
Par exemple pour le racisme, le problème ici c'est que le programme sur-estime le taux de récidive des noirs et sous-estime celui des blancs.
Le tableau à 0:50 montre en effet :
- Sur la première ligne, le taux de personnes désignées comme étant à haut risque de récidive mais n'ayant pas récidivé.
- Sur la deuxième ligne, le taux de personnes désignées comme étant à faible risque de récidive mais ayant récidivé.
Donc même si dans la réalité les noirs récidivent plus que les blancs, l'IA éxagère cet effet et fait beaucoup d'erreurs.
De plus, les données proviennent de la réalité et les modèles imitent la réalité mais c'est précisemment pour cela qu'ils sont biaisés. Les modèles sont des approximations de la réalité qui sont nécessairement faux. Comme cité plus haut, le premier biais auquel on peux penser est celui de la selection des données, mais il y en a bien d'autres. Par exemple, plus un modèle a une dimension VC faible (cf. un épisode plus tôt dans la série, en gros la capacité d'un algo) plus il va simplifier les données et tirer des conclusions trop générales (bien-sûr, trop grande dimension VC -> risque d'over-fiting).
TKZ Ce qui veut dire que tenir compte de la race augmente le fit.
6:00 J'ai pas compris : les 5 élèves ont-ils progressé ? ou est-ce la prof qui a été "corrompue" en attribuant de meilleures notes à ces 5 élèves ? ou est-ce que la prof a mieux enseigné à ces 5 élèves ? En bref : qui a corrigé les tests ? et ces derniers étaient-ils nominatifs ?
Relou Man De ce que j'ai compris : le professeur croyait que les 5 étaient plus aptes à progresser, et au final il a plus ou moins inconsciemment mieux fait son travail pour ces 5 là.
Ce qui fait qu'ils ont réellement progressé, plus que les autres.
twitter c'est .... twitter , meilleure définition et en même temps on sent l'envie de développer qui est réprimé ^^
bon je continue à regarder la vidéo mais ça semble très bon
D'accord, on est biaisé, mais est-ce que c'est forcément une mauvaise chose ? Je pense que les préjugés découlent simplement de notre appartenance sociale et du tribalisme qui s'en suit, des choses qui sont profondément ancrées en nous en tant qu'espèce sociale.
Le fond vert a un probleme? Ou tu bouges trop ce qui cree une sorte de halo flou autour de toi
Il est quand même plus probable qu'un garçon soit intéressé par un camion et une fille par une poupée. Appeler ça un biais me semble un peu exagéré.
On parle souvent de programmer des valeurs morales mais c'est un problème d'une complexité incroyable! Ou est ce qu'il y a un moyen de simplifier ce problème ?
Vous avez conclu que l'IA serait plus à même que l'être humain de détecter/éviter les biais, mais a-t-on la moindre idée de comment le programmer ?
Cette idée n'est elle pas uniquement un espoir illusoire ?
ou on peut juste admettre qu on est tous different et que l on peut jamais atteindre "l'egalité" sans etre mauvais.
Du coup, infirmière - femme + homme, ça fait pas infirmier ?
ça doit faire "médecin", je suppose...
Ah oui, mais la grande question, c'est "à quoi est égal infirmier ?"
Quand tu dis qu'il faut implémenter des valeurs morales, je trouve que ça sous entend qu'il y aurait une morale universelle qu'il faudrait imposer à tous. Cette simple idée crée déjà de la reactance sur moi alors ça en créera sans doute sur d'autres. De plus qui choisira ces fameuses valeurs ? Ne risqueront elles pas d'etre biaisées également ?
L'IA se basse sur d'autre chose que la couleur, et assurément, il ne peux par y avoir le même % de récidives entre noir et blanc , comme il ne peu pas y avoir le même % de récidives chez les petite personne et les grande, sa na rien a voir avec le racisme, la probabilité pour que se sois le même taux est minuscule, sa c'est chercher des lien ou il n'y en a pas , sa s'appel une croyance.
N'est ce pas se biaiser et se placer dans une bulle de confort de refuser le racisme ?
J'observe le monde et certains veulent faire croire que tout se vaut jusqu'à l'absurde; bientôt ce sera interdit par la loi de différencier un arbre et un animal.
Je dirais plutot que je n'ai pas confience dans les humains pour ce qui est des valeurs morales.
J'imagine la surabondance de vidéos aux messages clef de moral approuvé qui soudain jaillirai pour "toujours+2Like" XD N'est il pas à craindre à une uniformisation trop aigus si la mécanique morale tendrai de manière exponentiel en visant la régulation des choix ? La morale c'est comme la race: si elle correspond ça passe toujours mieux. (protocole 1.0)
Moi je dis faut faire regarder aux IA de RUclips les vidéos de Lê pour qu'elles réfléchissent à leurs actes et qu'on les éduque un peu ces réseaux de neurones !
Hum coder une morale ne me semble pas top. En fait bien que l'on voit la morale comme "absolue", sa mise en oeuvre est forcément contextuelle. Ce que j'ai l'impression de voir c'est que l'IA presente "honnêtement" les immoralites presentes dans notre environnement. Hors la moralité est appliquée depuis pas mal de temps et on voit surtout qu'elle évolue en fonction de nos connaissances/prises de conscience. Fixer cette morale dans les IA semble casser une partie de l'intérêt de l'IA qui ne devrait pas être prédictive et elle sera obsolète plus tard, quand on découvrira d'autres choses (sentiments des animaux, vies extraterrestres, etc.). Je verrai plutôt la prise en compte de "recompenses" et "punissions" tout au long de la vie de l'IA. Il y aura surement des IAs qui s'ancreront sur certaines chosess et il ne sera pas possible de les ré-éduquer. La vie a réglé ce problème en utilisant un cycle en 8 avec dégénérescence et procréation permettant une remise à zero (elle en a profité pour ajouter pleins d'actions cool à ce moment aussi :D).
Attend mais c'est super intéressant sa,même si j'aime pas les statistique. :)
Ça commence comme ça ;) .
Pas faux :)
J'ai lu "même si j'aime pas les asiatiques"..
Désolé mon IA de lecture a quelque biais :)
L'IA de niveau humain: les Androïdes (DETROIT)
Ce jeu est hyper intéressant et je pense que beaucoup de gens (99.99% imo) sous-estiment sa portée morale et j'ai vu des let's play dans lesquels il semblait impossible au youtuber que la machine soit consciente et sensible. Le problème du mal que nous pouvons peut être faire à des machines conscientes et les problèmes existentiels que ça implique devraient être considérés au même titre que les problèmes de morale directe des IA imo
Dire que l'IA discrimine les noirs va provoquer une grande vague de haine de la part de personnes qui ne comprennent pas ce qu'est un biais cognitif !
Erreur Lê, erreur...
Mais sinon la vidéo est très intéressante !
"Dire que l'IA discrimine les noirs va provoquer une grande vague de haine de la part de personnes qui ne comprennent pas ce qu'est un biais cognitif »
on le voit déjà dans les commentaires
sans parler de ceux qui veulent savoir si tous les biais sont à proscrire, et s’ils peuvent garder les biais qui les arrangent, , y a t’il des ‘« bons biais » (les miens) et des « mauvais biais » (ceux des autres, bouerk)
bref... si les gens ne veulent pas chercher à s’améliorer, avoir plus d’humilité, être plus proches d’autrui et plus ouvert, on y peut rien !
La vidéo est effectivement très intéressante.
Pire l'IA a été jugée antisémite, elle n'a pas compris le procès Nuremberg ? Euh no comment voilà comment faut dire
Je me demandais en toute objectivité...
Serait il possible qu'à cause de milieu de certains noirs, cela les fasses replonger dans la criminalité et que les blancs en moyenne seraient donc Moins des criminels. La machine ne ferait que décrire la réalité et c'est nous qui y mettons un jugement de valeur ce qui fait de notre jugement un jugement raciste sur l'analyse de la machine qui ne fait que décrire.
Le problème ici c'est que le programme sur-estime le taux de récidive des noirs et sous-estime celui des blancs.
Le tableau à 0:50 montre en effet :
- Sur la première ligne, le taux de personnes désignées comme étant à haut risque de récidive mais n'ayant pas récidivé.
- Sur la deuxième ligne, le taux de personnes désignées comme étant à faible risque de récidive mais ayant récidivé.
Donc même si dans la réalité les noirs récidivent plus que les blancs, l'IA éxagère cet effet et fait beaucoup d'erreurs.
bien apprendre les valeurs aux IA ? comment ?
je me demande, si une IA devait se créer un corps humain.
comment serait il ? quel sexe ? couleur de peau ? etc...
comment une IA se verrait elle le mieux ?
et si on ne met pas la contrainte humain, juste la contrainte etre physique.
une IA serait elle un animal ? ou un homme ? ou autre ?
je suis curieux de savoir comment la connaissance du monde actuel pourrait impacter ce choix.
et de par le fait meme voir l'impact des biais racistes et autre...
C'est pas mieux de bosser sur nous mêmes plutôt qu'avoir besoin des IA ?
Comme l'as dit une personne à la rencontre à Paris, pourquoi chercher une solution externe quand elle est peut être interne ?
Le problème c'est que l'arrivée de l'IA est (très probablement) inévitable, donc le travail sur nous-mêmes, qui se fait depuis des siècles, est trop lent pour le contrôle des IA.
Moi je pense même que l'IA pourrait nous aider dans certaines situations où la morale est difficile. C'est juste que, pour l'instant, elle est au stade d'embryon.
Y a 7 milliards de connards sur Terre.
une partie de ces connards peuvent bosser sur les piles electriques
une autre partie peut pondre des commentaires moralistes commençant par « c’est pas mieux de «
une autre partie peut travailler sur l’amélioration de soi
une autre partie des connards peut aussi travailler sur les IA
bref, on peut répartir le boulot.
Y a aussi 24h par jour. On peut donc par exemple consacrer 30mn à faire pousser des carottes, 15mn à insulter des moralistes dans les commentaires youtubes, 2H à l’amélioration de soi et 1h36mn à améliorer les IAs pour rendre des services pour les générations futures.
voyez, tout est question d’organisation et de répartition...
7 milliards de connard sur Terre, n’oubliez pas.
Ce n'est pas si surprenant. Alors que nous même naissons vierge de tous préjugés, notre environnement culturel, familial, professionnel nous influence sur nos orientations morales.
Un enfant ne nait pas raciste ou sexiste. Il le devient.
Edit : Programmer une valeur morale à une IA : La morale est subjective et non universelle à mon sens. Chacun a la sienne. Individuelle, ethnique, régionale ou nationale. Sinon nous ne serions pas sans cesse les uns contre les autres.
L'IA ne serait que le miroir de l'homme,,,, qui s'en sert, donc de l'homme occidental.
L'homme occidental serait raciste de structure.
Faut-il que ce soit à une société occidentale qui propose une morale à L'IA?
Faut-il que ce soit un humain tout court?
À ce jour, les blablateurs de L'IA tendent à un cartesianisme si religieux, que c'est mal barré
J'arrive pas a trouver de details sur le theoreme de launay (meme sur sa chaine) ..
alors tu as déjà
_la vidéo précédente
_la thèse directement (le début a été écrit pour être lu par le grand public, donc compréhensible)
_PodcastScience n°233
chamb6 je ne trouve pas la these
chamb6 dsl j'avais pas vu la description
c'est quoi "raciste" ? une définition ?
c'est quoi "moral" ? une définition ?
Ma tentative :
Racisme : discrimination des personnes selon leur ethnie, origine, apparence physique... Et hiérarchisation des différents groupes.
Morale : Ca c'est plus difficile. Allez, soyons fous, je la tente définition de maths :
Supposons qu'il existe un ensemble E de tous les modes de vie (mode de vie occidental, oriental ; mode de vie religieux ; mode de vie au Pérou au 17ème siècle ; et tous les modes de vie possibles qui n'ont pas nécessairement déjà existé !)
On part du postulat suivant : E possède une relation d'ordre total.
La "bonne morale" serait le maximum de cet ensemble. Alors ça va en faire hurler certains qu'un tel ordre puisse exister, mais je pense qu'avec un peu d'approximations ça passe ;)
Raciste = mal
Moral = pas raciste (voire gauchiste)
Obscu
C'est à dire une relation d'ordre total?
fr.wikipedia.org/wiki/Relation_d%27ordre
En gros, la relation est totale si, étant donné deux éléments d'un ensemble, on peut toujours comparer ces éléments.
Exemple : si je prends deux nombres entiers, l'un est toujours supérieur ou égal à l'autre. 8>=6 ; 4>= 2 ; 4>=4 ...
Donc la relation d'ordre "supérieur ou égal" est une relation d'ordre totale sur l'ensemble des entiers.
Ce qui signifie, d'après mon postulat, que si on prend 2 modes de vie (exemple : être xénophobe et aimer les siens , versus être extrêmement altruiste envers tous les étrangers quitte à tout perdre.)
il doit y en avoir un qui est "supérieur" à l'autre.
Mais je ne prétends surtout pas savoir lequel :)
[EDIT : quand je me relis ça donne l'impression que je suis contre l'immigration, mais ce n'est pas le cas !]
@Obscu
Le truc c'est qu'il n'existe pas de relation d'ordre dans la morale, sinon toutes les populations seraient beaucoup + homogène
Alors d'après toi l'IA a de bonnes raisons d'être raciste mais pas nous ? Pourtant moi aussi j'ai des centaines de raisons de l'être.
donc c'est juste un cliché les Asiatiques qui aiment les Math et la science ? dis moi toi qui semble être neutre :p
Dommage que la partie sur l'IA soit finalement assez court (et finalement ne parle que d'un problème déjà traité qu'est la sur-interprétation) et que la majorité de la vidéo soit un peu moralisateur sur un sujet que tout le monde connait (en tout cas tu as largement développé nos biais ainsi que David Louapre dans sa série crétin de cerveau et je ne parle même pas de Stéphane Debove.) Même si le but est de montrer l'utilité de l'IA mais qui n'est pas à démontrer tu l'as bien fait au début de cette série. Un peu déçu du contenu de cette vidéo finalement quasi-vide.