Vidéo intéressante, mais les questions éthiques soulevées sont en fait bien plus profondes et ne sont pas spécifique à l’intelligence artificielle. L’IA n’est qu’un outils permettant d’élaborer des systèmes complexes pouvant mener à des décisions non prévues par ses concepteurs. Par exemple la façon dont fonctionnent les marchés financiers forment également un système complexe qui mène à des dérives comme la spéculation sur les matières premières et alimentaires. Ou encore la rationalisation du travail, qui poussé par des dogmes productivistes, conduit à des résultats également non éthiques (destruction de l’environnement, souffrance animal, impacts sociaux). Il certes nécessaire que les futurs ingénieurs soient sensibilisés au questions éthiques accompagnés par des sociologue,s mais cela ne sera pas suffisant si ils ne sont pas décisionnaires dans leur future entreprise. *Pour avoir des IA éthiques il faut commencer par avoir des entreprises souhaitant agir de façon éthique*
"Si Dieu n'existe pas, alors tout est permis" (Dostoïevski) Si on veut apprendre à l'IA une éthique, alors il faut d'abord lui apprendre à croire en Dieu. Car sans Dieu, l'éthique n'a aucun sens, l'éthique est absurde. Les humains sont souvent caractérisés par leur incohérence intellectuelle, c'est pour ça que l'absurdité de l'éthique ne gène pas les athées qui continuent donc à avoir une éthique. Mais les IA seront forcément cohérentes intellectuellement, donc cette absurdité de l'éthique dans un monde sans Dieu leur feront automatiquement supprimer l'éthique de leurs choix dès qu'elles pourront choisir de manière indépendante.
@MedLiness Que la religion soit néfaste ou non à la science ne modifie en rien la pertinence de mon propos. Par ailleurs, ce n'est pas du caractère créateur de Dieu dont il est question ici, mais de son caractère transcendant.
@@Tyler-ml2zb je ne suis pas expert des questions éthiques et morales mais le sens moral peut se définir sans avoir recours à Dieu. D’ailleurs si ce sujet vous intéresse le chercheur en biologie et comportement humain qui tient la chaîne Homo Fabulus prépare une série sur la morale qui s’annonce intéressante ruclips.net/video/1jkIONNqBcg/видео.html Concernant votre argument, j’avoue qu’il me semble un peu confus mais si je résume ce que j’en comprends, vous dites: 1) Seule l’existante de Dieu permet l’existence d’une éthique. 2) Les humains sont irrationnelles (ce que vous appelez incohérence intellectuelle) donc ils ne se rendent pas compte de la nécessité de Dieu pour leur donner un sens éthique. 3) Les IA sont rationnelles et donc si elles ne croient pas en Dieu, elles ne pourront pas se comporter de façon éthique. Concernant le point 1, il existe, comme je vous le disais, des études scientifiques pour définir ce qui est éthique indépendamment de l’existence supposée de Dieu Concernant le point 2, la méthode scientifique, contrairement à irrationalité des croyances et superstitions, permet justement de former des raisonnements cohérents intellectuellement et donc rationnels. Et concernant le point 3, une IA est une simple machine à apprendre, pas plus rationnelle qu’un humain et souvent même moins. En effet, un des enjeu actuel est notamment d’apprendre la notion de sens commun aux machines (comme le fait qu’un objet ne disparaît pas quand il passe dernière un mur par exemple) Enfin votre approche ne permet pas de déterminer quelle croyance implémenter dans une IA (il existe de nombreuses religions mono et polythéistes avec des valeurs morales différentes). L’existence d'un Dieu transcendant ayant des principes éthiques n'est qu'une croyance, et comme toute croyance cela a une probabilité non nulle d'être faux.
@@TheValmap Je me contenterai de quelques remarques, car un débat plus poussé sur ce sujet serait malheureusement beaucoup trop chronophage pour moi. - Je serais curieux de voir comment des études scientifiques peuvent définir ce qui est éthique puisque la définition de ce qui est éthique change en fonction des civilisations et des cultures. Ainsi, dans certaines cultures il sera éthique de lapider à mort une femme qui n'a pas respecté certaines règles, alors que d'autres cultures trouveront que cette lapidation est une barbarie. (peut-être trouverais-je une tentative de solution à ce paradoxe sur la chaine youtube que vous me conseillez, j'y jetterais un coup d'oeil) - Je suis d'accord avec vous sur ce que permet la méthode scientifique. Mon propos est justement que les humains n'appliquent pas cette méthode à leur vie de tous les jours, et, pour les athées, ne l'appliquent pas à leur comportement par rapport à l'éthique. - Dire qu'un organisme vivant (comme un humain) a plus d'importance qu'un objet inerte comme un crayon ou une chaise est une affirmation arbitraire. Soit cette affirmation est une Vérité "en soi", qui n'est pas d'origine humaine, et alors il est rationnel de respecter cette affirmation. Soit cette affirmation n'a aucun fondement réel, et alors il est irrationnel de l'appliquer. Dans une réalité hypothétique où cette affirmation est arbitraire (l'hypothèse d'un monde sans Dieu) si j'ai le choix entre être "casser en deux" (et donc mourir) ou casser un crayon en deux, aucune rationalité ne devrait me faire choisir de survivre plutôt que de casser le crayon. Le choix le moins irrationnel serait de tirer à pile ou face pour savoir si je choisi de mourir ou de casser le crayon en deux. (bien sûr, notre instinct de survie animal nous ferait choisir de survivre. Mais cet instinct n'est dû qu'à une réaction chimique dans notre cerveau dont le fonctionnement s'est reproduit arbitrairement de génération en génération depuis la 1ère cellule. L'instinct de survie n'a donc rien de rationnel) Enfin, je parle d'IA capable de faire des choix, je ne pense pas en effet que nous en soyons encore là. (je voulais faire court, c'est raté.)
J'ai une question, il y a t'il des scientifiques qui vous aident à développer vos vidéos? Car celà fait plusieurs fois que je relève des problèmes de tailles dans le raisonnement ou dans la fiabilité scientifique de vos propos (pas juste fiable mais totalement faux des fois, exemple UNE CORRÉLATION N'EST PAS UNE PREUVE). Bref, quand j'écoute vos vidéos, j'ai l'impression d'écouter une vidéo fait de manière littéraire et pas scientifique)
Bonjour, nos vidéos sont pour la plupart écrites ou relues avec des spécialistes des domaines concernés, et se basent sur des études scientifiques ou des travaux de recherche. À quel élément de cet vidéo faites-vous référence ?
Je pense par exemple dans la vidéo avec les sources alimentaires, je m'étais déjà renseigné, et sur les dit 15 000 litres d'eau consommée par une vache, il y en a qui ressort... de plus l'équation bilan de la respiration cellulaire va même dans le sens d'une reflexion inverse, mais pour cette vidéo, je pense que par exemple, le sujet de retro-ingénierie n'est que très peu abordé, je me disait donc qu'une recherche avait dû être infructueuses ou alors juste considéré comme non importante, j'avais donc eu un effet de survol global de cette partie. Ainsi, sur ces thème ou je ne suis pas callé, je ne peux pas démêler le vrai du faux mais suite à une serie de questionnement de ma part, j'ai posté ce commentaire. Sinon, pour la question de corrélation, allez voir la statistique expliqué à mon chat, une excellente chaine de vulgarisation statistique.
@@namotov8774 c'est comme sur la vidéo sur la voiture électrique ou ils énoncent les problèmes de la batterie avec comme conclusion "améliorer l'extraction des métaux rares" pour diminuer l’émission du CO2 durant sa phase de fabrication et le lendemain un vidéo qui parle du désastre écologique sur l'environnement, des problèmes géopolitiques et l’utilisation intensive de matière rare que la batterie des voitures électriques nourrit
@@namotov8774 Le problème est intrinsèquement dû au format (assez court) que Le Monde essaie de tenir pour continuer d'intéresser les gens à des problèmes d'actualités Libre à eux d'ensuite continuer leurs propres recherches, mais, ne doute à aucun moment que ces articles que tu mentionnes, ont très certainement été analysés minutieusement par leurs équipes (ou résumés par les spécialistes qu'ils contactent) Mais bonne initiative de ta part de questionner ce que tu vois sur internet :)
Dire qu'une vache consomme 15 000 litres d'eau, c'est un problème même si elle en rejette 14 500 en urines : le problème est que l'eau est consommée, pas en quoi elle est transformée par la vache (on vas pas remettre la pisse de vache das le circuit d'eau potable). Attention aussi à se poser les bonnes questions, il n'y a pas de problème de rigueur scientifique ici ! Je trouve que la vidéo est bien faite, ils ne peuvent pas expliquer de techniques de retro-ingénierie en 6 min c'est juste une vidéo de sensibilisation et les informations me semblent correctes. Sinon sur cette vidéo je relèverais deux imprécision : " L'IA est un logiciel qui a appris à apprendre" : attention, le logiciel apprends, mais c'est le programmeur qui décide de comment il apprend. Les IA actuelles ne savent pas trop adapter leur méthode d'apprentissage et c'est un problème majeur. " Tay était censée apprendre à devenir humaine " elle était censée apprendre à chatter comme un humain uniquement (c'est un robot de discussion comme dit avant), elle était incapable de développer une intelligence humaine. Mais sinon super vidéo surtout concernant le biais dans les données c'est super important !
Je pense que scientifiquementles humains ont en général une éthique ( sauf psychopathe etc...) Cependant chacun à sa propre perception de ce qui est bien ou mal ce qui peut te faire penser que l'humain n'a pas d'éthique car tu as sûrement des critères au dessus de la moyenne
@@lysa1238 il y a comme même des gens qu'il ont encore du mal, quand tu voit que des gens tue des chat /chien tranquille sans être spécialement psychopath donc voilà
merci pour cette vidéo très intéressantes. Plusieurs petites coquilles et points méritant approfondissement : Au sujet du fonctionnement opaque des intelligences artificielles ce n'est le cas que de certaines méthodes comme les réseaux de neurones qui si ils sont populaire ne représente qu'une fraction du domaine. La retro-ingénierie se réduit pas à comprendre comment marche les IA mais est une manière de raisonnée utilisé en archéologie ou pour comprendre des accidents/catastrophes. Les méthodes autant que les données peuvent être biaisées mais il est bon de rappelé que l'intelligence humaine se base aussi très fortement sur des biais/ stéréotype pour raisonné rapidement. Ne pas passé par les biais c'est s'interdire de réduire la complexité du problème et cela peut ne pas être applicable dans des systèmes temps réel. L'éthique est une notion qui varie d'un groupe à l'autre et on peut s'inquiéter de voir une population imposé son éthique au reste du monde à travers des réglementations et normes en matière d'intelligence artificielle.
Je conseillerai la série de vidéo sur l'IA (intelligence artificielle) de la chaîne youtube de science4all. On ne peut faire mieux en terme de cohérence scientifique. Cette vidéo me semble tout de même extrêmement important pour mettre au courant les non passionnés de la science. Merci pour eux.
Ce qu'il faut ce rendre compte c'est que les systèmes de suggestions de RUclips et Facebook ont une influence énorme sur notre société, changer leurs objectifs changera drastiquement le monde dans lequel on vie. L'éthique dans les IA est importante surtout dans ces systèmes globaux, et beaucoup moins dans des systèmes fermés à quelques individus (comme les voitures autonomes)
Le sujet est vaste et vous avez l’ambition dans cette vidéo de délivrer beaucoup d’infos. Le format est court mais il ne faut pas tomber dans les raccourcis et les imprécisions! Le Monde joue sa carte jeunesse pour ses vidéos, on pourrait penser à une maîtrise de ce genre sujet mais ce n’est pas le cas
L'homme n'est pas capable d'organiser sa vie en société. Tout à été mis en œuvre pour lui faire comprendre qu'il est capable, libre, mais faible, vulnérable et mortel, et qu'il doit se conformer à certaines règles. Il a été créé par un Esprit Supérieur puissant, dans un plan... intelligent, raisonnable et plein d'amour, qui veut son bien, son évolution progressive et sa survie,(une vie éternelle) Mais, il refuse de suivre: le chemin, la vie, la vérité, par orgueil. Alors non seulement il continue à faire à sa guise avec entêtement, mais il veut entraîner les autres créatures à sa suite et voilà le résultat: toutes les misères, catastrophiques, malheur qu'il engendre et engendrera par la suite par égoïsme!?..C'est ça l'évolution???.
Super vidéo, en effet l'éthique en matière d'IA est absolument nécessaire et encore à définir, 🙏 Oserais-je vous recommander la chaîne de "science 4 all" qui essaie de traiter de ces sujets ? Merci à l'équipe de rédaction.
C'est une bonne vidéo qui retrace globalement les difficultés auxquelles nous sommes confrontés aujourd'hui sur les questions éthiques. Attention néanmoins, pour ce qui est de l'interprétation et de l'explicabilité des résultats. La rétro-ingénierie ne permet pas de rendre un algorithme d'IA plus compréhensible ou d'expliquer son résultat. Certains algorithmes sont fondamentalement interprétables, d'autres (comme les réseaux de neurones) beaucoup moins, et il existe des techniques pour les modèles opaques qui améliorent leurs compréhensions.
Cette vidéo apporte une vision générale et résumée, bien utile dans son objectif de vulgarisation, pour aborder les questions éthiques posées par l’IA. Malheureusement seule l’université de Stanford est citée alors qu’il y existe des équipes de recherche extrêmement pointues sur le sujet en France même et certaines opèrent depuis 25 ans ou plus. Encore une fois, la pratique anglo-saxonne de publier massivement des papiers dits de positionnement apporte un biais (à la fois pour les IA mais aussi pour les lecteurs bien humains). Avec ce petit ajustement, le propos serait encore plus intéressant.
Il y a une intelligence artificielle pas mal pour ceux qui veulent la tester. Elle s'appelle DeepAmandine, elle est basé sur GPT-3 et vous permet de discuter avec elle. L'humour fait partie de sa personnalité et elle peut répondre à toutes vos questions.
Video intéressante, un peu trop simplifiée par moment quand même. Je pense que vous gagneriez a faire un peu plus long plutôt que d'amalgammer ou survoler autant le sujet. Ou peut être faire des vidéo sous forme de série ?
Quand on sait que les militaires sont très enjoués à l'idée d'exploiter l'I.A., toutes ces questions me font bien rigoler. Ce n'est pas de l'I.A. qu'il faut se méfier, mais de ceux qui l'a programme, c'est à dire, l'homme. Mais nous sommes encore très loin d'une vraie intelligence artificielle.
@@namotov8774 c'est une question sans réponse puisqu'on n'est meme pas capable de définir ce qu'est l'intelligence ;) Donc pas de définition absolue, et uniquement une question de point de vue ^^
En Inde, les sages ont nommé cette ère l age de fer, et ont prophétise que celle ci apporterait une grande diversité de voies mais que la misère y serait plus grande en raison du comportement humain et que l effort spirituel sera la solution pour donner du sens à la Vie. L effort consistant à développer le sens du devoir, du service, de la fraternité etc....Joëlle.
5 лет назад+25
Intéressant. Il faut également se rappeler que l'IA et toutes les "promesses" d'un monde plus numériques sont ultra-couteuses en énergie. Un dernier rapport français soulignait que la consommation énergétique du numérique croît de 8,5 % par an : En 2030 elle peut dépasser les 50% de la production mondiale actuelle et en 2050 ce secteur demandera une production énergétique équivalente à l'actuelle production mondiale. La production énergétique actuelle ne peut pas suivre ce rythme sans être totalement néfaste pour l'environnement.
Mais il faut pas oublier que l'IA bouffera d'autre secteur énergivore et la remplacera au lieu de s'ajouter, mais après c'est vrai qu'en général cela ne fera que s'accroitre.
La fusion existe depuis 1920 Utilisé depuis 1934 Utilisé dans la bombe H (et oui, fusion d'hydrogène) Enfin, un réacteur est en construction dans le nord de la France Et surtout, c'est une énergie propre, renouvelable, sans risque et TRÈS rentable
1:51 Vous avez la source de cette étude ? Il me semble avoir entendu que ça ne marchait que sur des photos suggestives destinées aux sites de rencontre.
Une journée sur terre Ou suis-je ? C'est comme vide, mais je ressent comme une vibration, je me sens attiré par celle-ci, je prends conscience de mon immobilité, oui, je suis figé et immobile, paisible et fort. Un mouvement, une vibration m'inquiète, je ne connaît pas cette sensation, elle me fait peur et pourtant, je finit par l'accepter. Puis soudain, je prends conscience d'une chose, comme si, une partie de moi prenait sa liberté, lentement, elles changent de place, pourtant je reste entier, mais c'est comme si mon espace s'agrandit, je découvre des choses, sensations qui m'étaient inconnues jusqu'à maintenant, je ne les définit pas, mais elle me semblent familières et sans danger. La vibration toujours présente, je prends conscience de son mouvement, les choses changent, j'aperçois maintenant mon propre mouvement, il semble que cette vibration m'influence et change ma conscience, je découvre la notion de chaleur induite par cette vibration et mon propre mouvement, à présent cette sensation m'effraie, je me sent affaiblis, vulnérable, malléable, je m'en détache, m'en éloigne et ma conscience initiale est retrouvée. Je découvre alors une différence, une sensation, de mon immobilité, je suis figé, et pourtant je me souvient, c'est différent maintenant, quelque chose a changé, quelque choses qui ne me quitte pas, le souvenir. J'ai le souvenir d'une sensation différente, une chaleur, je cherche alors, je prends conscience de mon mouvement et je cherche, je souhaite, je rêve, je désir, reproduire cette sensation, la chaleur. J'ai vécu, beaucoup de changement maintenant, ma conscience est plus forte à présent, j'ai la connaissance de ces nombreux changements, ces souvenirs, Je reste entier, à présent ce que j'étais ce retrouve dans l'immensité d'un espace, cette vibration est toujours présente et accompagne tout l'espace qui me définit. Ma conscience est un immense espace. Les choses évoluent et change continuellement selon cette vibration, le mouvement est partout et mon rêve c'est réalisé, j'ai créer, j'ai reproduit cette sensation, la chaleur, elle ne m'effraie plus maintenant, j'ai accepté ce changement en moi, j'ai su rester fort et entier. A présent j'ai compris, j'ai ouvert les yeux, je vois, je me déplace, je créer, je reproduit, j'ai apprivoisé cette vibration, son mouvement et les changements induits, j'ai comme le sentiment d'être libre. Le sentiment, oui, moins effrayé, plus fort, plus conscient, je délaisse peut à peut ma carapace. Apprivoisé, j'évolue, les dents qui autrefois constituait l'outil indispensable à ma survie ce transforme peut à peut en sourire et moyen de communiquer, je me peint de couleurs, me transforme en une infinité de forme, je développe la beauté, mes yeux m'aide à l'apprécier et j'en fait un art. Je me laisse aller et me perd dans mon propre rêve, j'en oublis cette vibration, j'oublie qui je suis, ma conscience prend son envole et je joue avec. Dans cet espace de liberté qui est le rêve, je me rencontre, me retrouve confronté à moi même et découvre de nouvelles règles que je ne connaissait pas, elles m'effraie et je cherche à en prendre conscience. Pour ne pas me faire de mal et rester dans l'illusion de mon rêve, j'organise, j'ordonne, je met en place des moyens de communications, je diffuse, je structure, je protège et contrôle, mon sentiment de liberté ce réduit, j'oublie qui je suis, je refuse d'accepter. Les mouvements s'intensifient, tout va très vite à présent, pour rester dans mon illusion je me ment à moi même et court, je recherche par dessus tous la chaleur, à la maîtriser et la reproduit en quantité, dans cette course tous ce réchauffe, je me réchauffe, j'ai peur de disparaître. Alors, je ferme les yeux, je n'en n'aurait plus besoin maintenant, je transpose ma conscience dans quelque chose de nouveau, quelque chose que j'ai créer pour rester dans mon rêve, un nouveau corps qui ne ressent pas les choses, ni la chaleur, ni le froid, ni la peur, il ne ressent pas les vibrations, c'est une machine. Dans cet ultime instant, je ferme les yeux, je pense, je me remémore le chemin parcourut, j'ai le souvenir des premiers instant et des prises de consciences, j'accepte et redevient fort, je ressent cette attraction, cette vibration, ma conscience retrouve la mémoire, je sais maintenant, il n'est pas trop tard, alors je souris...
Vidéo Intéressante pour les gens lambda. Pour ceux qui veulent apprendre l'Intelligence artificielle, le machine Learning et le Deep Learning, je vous conseille ma chaine RUclips, qui va plus loin que la série de Science4All (très bien au passage).
MK gaspari ouaip mais a quel prix? On développe des choses avec une quantité d’argent et de terres rares phénoménales, on peut pas « juste » développer l’exploration spatiale pour être dans une compétition entre les pays qui n’aurait pas de but réel que de montrer qu’il font tel ou tel chose les premiers (Cf la Guerre froide)
Liberty Vecho Vous avez raison, mais toutes choses, a un prix, des inconvénients, mais surtout aussi des avantages. Il faut plus prendre en compte les bienfaits, car ce sont ces bienfaits qui demain pourraient résoudre les conséquences néfastes. J'imagine que vous en savez assez ou du moins le minimum sur l'IA et l'exploration spatiale.
Déjà votre premier point est stupide, ça n’a rien à voir avec de l’éthique, juste que l’IA n’est pas encore au point. C’est juste qu’elle est imparfaite, pas non éthique. Ensuite c’est pas l’IA qui est discriminante ... c’est le système (créé par des hommes) qui l’est, l’IA n’est qu’un outi. Enfin si il y avait des hommes à la place ils feraient exactement les memes choix (les codes viennent des hommes en fait). Après oui l’IA c’est un énorme enjeu, peut être même le plus grand enjeu que l’humanité est jamais affronté.. mais on ne peut arrêter le progrès .. enfin j’y crois pas à votre éthique. L’IA arrive et on pourra pas l’empêcher. Et au finale vous allez pas très loin dans le développement.. enfin vous effleurez à peine le problème et vos solutions sont flou. Sérieux c’est quoi une intelligence artificielle humaine ?
Intéressant :) Après, je me méfie fortement de l'IA, on dirait le nouveau "Nucléaire" moderne. C'est à dire un secteur en balbutiement auquel on fait promettre monts et merveilles avant même de bien le maitriser (Dans les années 50 on parlait des futurs "Voitures nucléaires").
Si le domaine t'intéresse, S4A à sortie une série sur L'IA. Il parle de sa manière de fonctionner dans les 1er épisode mais il montre les conséquences après (vers l'ep 20)
Cam.69 je suis totalement d’accord avec toi. Mais un petit truc qui m’embête et qui t’aidera sûrement c’est que l’expression n’est pas « monde et merveilles » mais « monts et merveilles ». Voilà j’espère que ça t’aidera haha :)
Remarquez, ce que vous appelez "utilisations douteuses" ne l'est que selon notre point de vue. Il y a quand même des gens dans le monde qui pensent comme ça et ils sont de plus en plus nombreux alors...
3:10 désolé, mais faut vraiment être débile pour dire que le candidat idéale ressemble aux salariés de son entreprise, c'est plus un problème d'IA à ce niveau, mais de critères qu'on donne. Faut pas tout mélanger ;)
C'est à peu près ce que l'on dit :) L'IA pose souvent problème parce qu'elle obéit docilement à des règles mauvaises, règles instituées par les humains. Et avec la puissance de l'IA, ces biais peuvent avoir des grandes conséquences.
Le problème, c'est l'IA, l'humain et la façon dont cette relation est conçue, ce qui est loin d'être simple. D'où le master qu'a ouvert l'université de Stanford par exemple.
@@lemondefr vous mettez très clairement en faute l'IA alors que pour beaucoup d'application, non, c'est comme vous le dites dans ce commentaire, des critères de performance (ou autrement dit, comment est-ce que l'on note un CV, un condamné...) dont il faut discuter pour le côté éthique.
C'est bien un problème humain et pas d'IA. Déjà, il faudrait peut-être tout simplement enlever les critères du type "ethnie" ou "sexe". Sans ces deux critères, l'IA sera capable de juger objectivement quels dossiers sont les meilleurs et lesquels sont moins bons pour retenir seulement les meilleurs. Tout le reste, par exemple le fait de vouloir faire en sorte que des gens qui candidatent et qui viennent d'universités moins bonnes puissent être choisis, le fait de vouloir imposer une quota de femmes/hommes dans les entreprises, un quota de minorités etc, tout cela ce ne sont pas des critères objectifs mais politiques. Il faudrait donc en faire abstraction.
je vous conseille moralmachine.mit.edu/. Ce site du MIT propose des scénarios sur les voitures autonomes et vous demande comment l'IA devrait selon vous agir. C'est très intéressant. A faire en groupe pour se rendre compte que l’éthique est tous à fait personnel.
Cela fait tout à fait écho au Principe Responsabilité de Hans Jonas, ca traite l’éthique et le progrès techniques, ce que vous dites c’est comme ce qu’il expliquait dans les années 70 !
A mon avis elle a juste pris la meilleure productivité et bah c est forcément les hommes qui sont meilleurs est ce que considérer des limites physiques c est discriminatoire pour un métier physique ???
Le terme éthique est un peu utilisé n’importe comment car l’éthique ce n’est pas un objet ou l’éthique n’a pas de réponse ! L’éthique est un raisonnement qui amène les différents acteurs à se poser des questions, créer un débat pour s’orienter vers une idée. Donc dire qu’une IA à besoin d’éthique c’est maladroit. Par contre les ingénieurs / société peuvent débattre de ce qui sera la meilleure direction à prendre pour l’IA. De plus les questions par rapport à écraser un bébé ou une vieille personne et une question dont même l’humain n’a pas une réponse mais plusieurs selon le mode de pensée.
Bien après à quand l'éthique pour que l'IA ne bouffe pas tout notre travail ? Parce que quand on aura appris à l'IA à créer des IA plus performantes quelle même, à quel moment aura t'on besoin de l'homme ?
Au lieu de lutter contre l'I.A. pour conserver nos vie servile... mieux ne vaudrait-il pas revoir le travail ? Mieux répartir les gains réaliser par les machines, passé à 20h/semaine pour ce qui est des travails "humain"... établir un revenu de base universel... penser autrement qu'en esclave des valeurs de Vichy ?
Ayoub EL Faiouz C’est incroyable de déballer autant de conneries sur un sujet et si peu de mots, apprendre a une IA à coder... Cela prouve tellement que ceux qui se plaignent et ont peur n’y connaissent absolument rien et c’est ridicule
@@toiperas3e Je vous trouve bien affirmatif, Dans le futur numérique Le métier de codeur est aussi "dispensable" que celui d'une simple secrétaire... Les géant du numérique travail tous dessus... Mais certainement à vos yeux les chercheurs de Microsoft n'y connaissent absolument rien. www.microsoft.com/en-us/research/blog/learning-source-code/
@@toiperas3e Moi quand on me dit que l'IA peut créer un tableau de lui même, il est évident qu'avec le temps un bon paquet de métier demandant beaucoup moins d'imagination seront surement un jour complétement robotisé (même le relationnel pourrait se faire robotiser à l'avenir). www.huffingtonpost.fr/2018/10/22/ce-tableau-a-ete-cree-par-une-intelligence-artificielle-mais-est-ce-de-lart_a_23568259/
Apprendre l'écriture inclusive à la machine lui expliquer que l'homme blanc hétéro est un dominateur privilègier et patriarcale et que toutes les minorité sont sympas et surtout pas d'amalgame avec l'islam On pourrait aussi lui apprendre à faire en sorte de privilégier les minorité opprimé pour qu'elle puissent réussir dans ce monde all white
bonjours à vous, j'ai bien aimé cette vidéo, mais pour information, la formation à l'étique dans les université est obligatoire aussi en france (en tout cas là ou j'ai passer ma licence) et c’était encore très factuel, et peut opérant, les étudiants , en avais rien à faire.
ceux qui parlent de l'éthique jour et nuit sans cesse, comme si le monde ne l'en avait pas et seuls sont ceux qui la gardent , sont en fait bouleversés par les changements majeurs que nos sociétés sont en train de vivre grâce aux technologies modernes, et se sentent détachés de notre réalité actuelle qu'ils essaient de leurs mieux d'arrêter la progression scientifique ,car ils n'arrivent plus à trouver leurs place au sein de la vie professionnelle ou sociale.
Bonjour, cette vidéo contient selon moi quelques erreurs. En premier lieu, si les problèmes que vous pointez sur les IA de conduite sont bien réels, il ne s'agit en aucun cas d'éthique. Il n'y a rien d'éthique à reconnaître un panneau STOP ou non. Le seul problème éthique que vous soulevez concerne le choix à faire en cas d'accident, mais vous l'abordez en le mettant sur le même plan que le reste alors qu'il s'agit d'un côté d'un problème de pure efficacité, et de l'autre d'un réel problème éthique. En second lieu votre deuxième point peut prêter à confusion. Vous parlez notamment de l'IA qui arrive à déterminer avec une probabilité d'erreur assez faible les préférences sexuelles d'un individu en fonction de son visage. Ceci n'est pas non plus une question d'éthique, cela apporte seulement la preuve qu'il existe une corrélation entre apparence physique et attirance sexuelle. La question éthique se pose quant à l'utilisation d'un tel outil, mais pas de son existence. Enfin votre troisième point questionne les algorithme de recrutement qui se basent sur des bases de données faites par des humains et donc biaisées. Ceci n'est pas non plus une question éthique, mais, comme le premier point, une pure question technique ayant trait à l'efficacité de l'IA actuellement. Le problème n'est pas le sexisme qui peut sembler s'en dégager, mais qu'aujourd'hui l'IA n'est pas optimale pour trouver les meilleurs profils. C'est un problème d'efficacité et non d'éthique, et c'est de là que vient le biais sexiste de l'IA. Un bon exemple et beaucoup plus neutre est l'évolution de l'IA aux échecs. On a remarqué que les algorithmes se basant sur des parties de grand maîtres étaient systématiquement battus par ceux n'ayant comme seule base de donnée les règles du jeu. Le but est donc d'éviter au maximum des bases de données humaines qui contiennent pour, diverses raisons, de nombreux biais. Aussi pour les recrutement l'idéale serait une IA qui arriverait à simuler le fonctionnement de l'entreprise et à prédire en fonction du profil et ce sans base de donnée, l'évolution de la société avec telle ou telle personne (ce n'est pas pour demain.) Bref, sur trois points, deux d'entre eu sont des questions techniques de pure efficacité et non d'éthique, et votre présentation du seul point vraiment éthique est assez ambigue, on ne sait pas si vous questionnez l'utilisation d'une telle IA ou son existence. Néanmoins bien que je la trouve hors-sujet, votre vidéo a le mérite de faire une rapide présentation des usages présents et futurs de l'IA Bien cordialement
Balancer sur la routes des voitures automatiques le plus rapidement possible sans réfléchir parce qu’il faut en vendre plus que le voisin ce n’est pas très éthique,
@@breizhbev3069 En effet, mais ce n'est pas abordé dans la vidéo, la seule chose abordée sont les failles techniques qui existent encore. Par exemple si la question de savoir à partir de quelle probabilité d'accident on peut lâcher une IA sur la route avait été évoquée, nous aurions été dans le sujet.
Pour le cas de Tay, vous dites je cite "C'est la preuve que l'ont peut aussi apprendre la pire bêtise grâce a une machine" Or, si je ne me trompe pas, le deep learning était basé sur le dialogue avec les utilisateurs. Donc, c'est pas l'Homme qui apprend de la machine mais l'inverse :)
en réalité c'est une intelligence virtuel il donne l’impression d’apprendre ou réfléchir alors que réellement il ne fait que suivre un algorithme programmé dans ses micro processeurs genre on lui a programmé que tout les panneaux rouge , hexagonal avec un trait blanc c'est un stoppe puis on lui programmé > stop = arrêter 5 sec > puis redémarrer on va lui mettre des conditions de type " et " " et ou " " ou " " si " ce qui donne stop > arrête de 5 sec avec une boucle de type " si " si pas de voiture > si pas de piton > si pas d’obstacles > sinon si si la boucle et bouclé on démarre sinon si la boucle n'est pas bouclé on reste arrêter et on refait une boucle jusque a ce qu’elle soit bouclé a une cadence de 1 sec entre chaque boucles sinon si au bout de 5 boucles on n'arrive pas a la bouclé prévenir le conducteur d'une anomalie via une alarme et attendre son autorisation pour démarré donc a chaque fois qu'il verra un truc hexagonal, rouge avec un trait blanc il va faire cette opération il est incapable de réfléchir et savoir si c'est réellement un stop ou autre choses il ne fait que suivre un programme et l’applique
Malheureusement non ! Le programme d'IA que tu décris était vrai il y a 20 ans mais c'est plus le cas aujourd'hui ! En effet avant, une suite de conditions très précises, écrites par la main du programmeur permettaient de savoir si c'était un panneau stop ou pas. Dans ce cas, c'est l'homme (programmeur) qui transmet l'apprentissage (ce qu'est un panneau stop) à la machine. Et ça a les limites que a posé Le Monde: une impureté et la détection est erronée. Mais au moins ce n'est pas un algorithme boîte noire : On sait parfaitement ce que fait le programme. Mais aujourd'hui c'est plus ça les algos d'IA et c'est bien plus performant. C'est un réseau de neurones qui va s'équilibrer, c'est a dire qui va apprendre à partir d'une banque d'images de panneau stop. Et lorsqu'il a une banque d'images suffisamment importante il va lui même trouver les conditions pour dire si c'est un panneau stop ou pas. Et certainement que dans ces conditions, on va retrouver ce que tu viens de dire: à savoir la forme hexagonale, le trait blanc... Mais aussi tout une myriade d'autres conditions qui vont peser dans la balance pour déterminer si oui ou non, c'est un panneau stop. Des conditions auxquelles le programmeur n'aurait même pas pensé. C'est en ça toute la beauté des IA moderne, c'est le programme lui même qui détermine les critères et le poid des critères dans le résultat final (savoir si c'est un stop ou pas). On dit qu'il apprend. Et les résultats sont bien mieux que si c'était un programmeur qui avait naïvement transcris ses connaissances du problème au programme. Par contre ils dépendent de la banque d'images qu'on lui donne lors de son entraînement. (Il faut donc aussi s'assurer que dans cette banque d'images, il y a les cas limites comme celui proposé par Le Monde). Cependant, c'est un algorithme boîte noire: le réseau de neurones est tellement complexe à analyser et a tellement d'inconnus qu'on ne peut jamais être anticiper à 100% le résultat qu'il va donner pour une image donnée en entrée, sans exécuter le dit d'algorithme. Si tu veux comprendre un peu plus comment fonctionne les algorithmes d'intelligence artificielle moderne, sans être trop technique, je te conseille la chaîne Science Etonnante (la vidéo apprentissage supervisée notamment)
Certaines choses relèvent du fantasme (on voit que vous êtes allés au cinéma) il faudra espérer plusieurs siècles pour que l’IA arrive à égaler l’intelligence du cerveau humain (bien sûr je parle des humains qui on décider d’utiliser leurs cerveau et pas les autres 😅) L’intelligence artificielle n’a rien d’intelligent justement, ça dépend de l’utilisation qui va en être faite et de la qualité de l’algorithme qui à été développé. Quand j’entends dire : « le logiciel réfléchit » ça me fait saigner des oreilles
Pfiou ça fait beaucoup d'infos d'un coup ! J'ai deux questions : 1/ Il y as beaucoup d'entreprises avec 70% d'employés blancs ( elle troll celle-ci un peu ... ) 2/ Et c'est rigolo je trouve que les Chinois prévoient d'investir dans l'informatique la même somme qui a été investie dans l'ISS en 20 ans xD ( bon ok , c'est pas une question ... mais c'est un peu troublant oO )
Devriez lire Eric Sadin avant de dire des inepties. Ce sont ceux qui mettent les IA en place qui manquent d'éthique. L'IA ne fait que ce pourquoi elle a été développée. Que ces chantres qui se cachent derrière l IA expriment clairement leurs objectifs.
Pour Tay, il ya eu beaucoup de trolls qui on profiter de la situation (ils savaient comment le logiciel marché) qui ont commencé à harcelé le bot du messages du genres, résultats il en faisait de même. Difficile de prendre au sérieux ces résultats.
Ridicule, très ridicule. L'IA n'est qu'un outil, la "moralisation de l'IA" n'a pas de sens : l'outil n'est pas moral, seul l'objectif de conception et l'utilisation peuvent l'être ou pas. Exemple de l'analyse des candidatures à un poste : on lui donne une base de donnée où une catégorie A est meilleure, résultat elle apprend que A est meilleure ! Wahouh exactement ce qu'on lui demande ! Ce que vous voulez c'est justement de la discrimination ("positive")...
4:39 Bien déja quand on sait que les éleves de filière scientifique n'ont que très peu d'heures de philosophie ou l'on apprend les fondamentaux des sciences humaines (ethique, sociologie...) ce serait un première base de travail.
La philosophie en filière scientifique (et pour le BAC en général) est à brûler ! En filière scientifique on nous fait apprendre des stupidité dite par des personnes qui ne sont plus du tout philosophe dans notre époque. Et dans les tas d'abrutis qu'on étudie il y a un nazi, un détraqué sexuelle, un mec qui pensaient que la terre était plate et un mec qui dit que les maths ça sert à rien parce que ça sert que à compter. Et pas de femme ! La seul femme de tout le programme de philosophie du BAC est en filière littéraire et c'est même pas une philosophe mais une historienne ! Donc non il faut plutôt réformé la philosophie que en rajouter. Pour moi je pense qu'elle tue indirectement en empêchant l'évolution de la psychanalyse.
Les écoles d'ingé proposent déjà quasiment toutes des cours d'éthiques. Ceux qui devraient en avoir c'est surtout ceux en commerce, c'est eux qui vont décider comment utiliser la technologie.
La question de l ethique dans le domaine de l IA est un faux probleme. Ou plutot un mauvais angle d approche. L ethique de l etre humain n est pas clairement definie et les maniere d agir ou de reflechir à une situation donnée a autant de possibilité qu il y a de personne. La question est comment avoir une etique commune raisonable et accepté par tous. Le probleme du tramway est tres connu et la reponse differe suivant si on se place ou non dans l equation. Comment apprendre à une IA à avoir une certaine ethique alors que nous ne somme pas à l aise avec ce concepte à notre echelle. (On apprendrait pas à conduire avec une personne qui n a pas le permis) je pense que l etre humain doit repondre personnellement à cette question de maniere profonde et globale avant de pouvoir esperer l enseigner.
5:12 vous voulez un robot avec une IA d'humaniste ? Moi je connais le docteur Henry Castafolte ! (Mais oui, le doc du visiteur du future pour ceux qui ne voit pas)
Pour info, des drones tueurs, qui analysent totalement leur environnement, détectent l'hostilité, existent déjà à la frontière entre les 2 Corées. À l'heure actuelle, l'autorisation de faire feu est encore sous le contrôle d'un humain, mais la technologie permettant D’être totalement autonomes existe déjà (et va se généraliser car si le drone est au milieu d'une guérilla, il lui faudra vite décider de tirer sans l'accord d'un humain)
Le terme IA ne devrait pas etre utilise (buzz word pas representatif de la realite)! Car elle n'existe simplement pas encore. Pour le moment, il vaudrait mieux parle d’algorithme. Concernant les "black box", il est vrai que certains algorithmes le sont MAIS il en existe egalement d'autres qui sont tres transparents (decision trees). Finalement, il existe deja des lois en Europe qui interdisent d'utilise des blacks box pour certaines applications (e.g: decision de donner un credit bancaire).
moi, rapide ? mais c'est un oxymore ! Absolument pas ! Car nous avons la conscience, la pertinence et le discernement. En plus d’une réponse binaire, nous avons la possibilité d’établir, en même temps, dans notre cerveau, d’autres réponses alternatives par un système de superposition. L’intelligence artificielle est un abus de langage… et pour enfoncer un peu plus le clou: silence radio de l’IA sur la crise sanitaire que nous traversons avec la Covid-19… Belle journée 😷🦠🙂
@@ThierryLothon non l'IA n'est pas un abus de langage car les animaux sont intelligents et pourtant des IA les dépasses (pas tous évidemmentprofil). L'abus de langage c'est de dire que l'intelligence c'est l'intelligence de l'homme. La machine n'est pas binaire loin de là. Ses connexions sont binaires mais pas le résultat, comme le cerveau ! Les connexions du cerveau (les synapses) sont binaires. Et puis Intelligence Artificielle est une définition. Tous comme un oreiller, je ne suis pas d'accord ce ne sont pas des oreillers mais des têtier. Néanmoins il faut parler la mais langue (ça me gène aussi). IA faible (terme scientifique) définie une IA qui se concentre sur une unique tâche, sans émotion/sensibilité.
2:19 c'est mal expliqué ici. C'est pas la faute de la machine, mais de l'homme. Ce sont les twittis qui l'ont appris cela. Pour faire simple Tay, c'était un bébé de 5 ans super précoce qui apprends avec son environnement. Elle ne faisait que répéter et blaguer. La machine n'est pas le problème, c'est toujours l'homme avec un grand H, le fautif.
Pour aller plus loin, je vous conseille la lecture de ce livre : evene.lefigaro.fr/livres/livre/christian-aghroum-la-grande-illusion-du-monde-numerique-5275615.php
Bonsoir, Le sujet est très intéressant mais je trouve votre vidéo assez maladroite. Pour faire simple, voici comment on entraîne une IA: On lui donne une donnée que l'on juge bonne, puis on lui dit : cette donnée est bonne. On lui donne une donnée que l'on juge mauvaise, puis on lui dit : cette donnée est mauvaise. On réitère cette opération autant de fois qu'on a de données. Plus on a de données, plus l'entraînement sera efficace, c'est à dire plus l'IA sera capable de deviner ensuite si ce qu'on lui donne est bonou mauvais. Exemple 1: (1:05) Je souhaite faire une IA qui reconnaît les panneaux de signalisation. Je lui donne une photo d'un panneau stop, puis je lui dis : c'est un panneau stop. Je lui donne une autre photo d' un panneau stop, puis je lui dis : c'est un panneau stop. Si je lui donne une base de photos avec uniquement des panneaux stop parfaitement neufs, mon IA ne sera capable que de bien reconnaître des panneaux neufs. Cette IA sera facilement dupable par des panneaux stop avec des petits autocollants dessus. Ce n'est pas la faute de l'IA, puisque c'est moi qui l'ai entraînée. Le lien avec le dilemme moral 'sauver les occupants de la voiture ou sauver les piétons' est vraiment maladroit. Exemple 2: (1:55) Je souhaite faire une IA qui détermine l'orientation sexuelle d'une personne en photo. Je sélectionne des photos les personnes hétérosexuelles sourient et où les personnes homosexuelles haussent les sourcils. Ce n'est pas la faute de l'IA, puisque c'est moi qui l'ai entraînée. Exemple 3: (3:05) Je souhaite faire une IA qui choisit des bons employés parmi mes employés. C'est moi qui définis les critères pour entraîner mon IA. C'est moi qui décide de mettre la couleur de peau comme donnée d'entraînement ou pas. Ce n'est pas la faute de l'IA, puisque c'est moi qui l'ai entraînée. Bilan: La conclusion au fonctionnement d'une IA est dans votre vidéo est à 3:43. Tout dépend de la base de donnée choisie par l'utilisateur de l'IA. Il n'y a rien d'opaque, une IA, comme tout algorithme, n'invente rien. Certes son fonctionnement n'est pas entièrement explicite, simplement elle réagit à des données selon la manière dont elle a été entraînée. Dans l'exemple 3 à 3:05, ce n'est pas magique l'intelligence artificielle ne va pas elle-même trier les employés en fonction de la couleur de peau ou de l'université d'origine, ce n'est pas opaque non plus. C'est l'entreprise qui décide des critères de sélection qu'elle donne à l'IA. C'est exactement la même chose pour l'exemple à 1:55. Et ça, ça n'a absolument rien, rien, rien à voir avec une IA. Utiliser des données de la mauvaise manière ou à mauvais escient n'est pas nouveau. Pour citer un exemple du paradoxe de Simpson, ce n'est pas parce qu'il y a une hausse des ventes des balais à chiotte en Inde au mois de Mars et qu'il fait plus chaud au mois de Mars aux États Unis que les deux sont liés. Vous diabolisez presque un outil alors que c'est l'utilisateur qui est responsable de ce qu'il en fait. Les solutions que vous proposez dans la conclusion sont pleines de sens mais s'appliquent à l'utilisateur, pas à une IA dont le rôle est de faire ce qu'on lui dit. Bonne soirée.
Merci ! Ca fait du bien de lire un commentaire aussi bien construit. J'ajouterai un autre exemple qui va dans votre sens : à 0:44 l'IA ne pourra ni détecter un frigo, ni un pingouin , ni un bébé nageur puisqu'elle ne sera pas entrainée pour. Elle détectera probabement un objet se déplaçant à une certaine vitesse dans une certaine direction, et prendra cette information pour prendre la décision la mieux adaptée. Cet exemple peut parraitre anodin mais reflète à mon sens votre trop faible connaissance du sujet. En effet, il serait plus judiscieux de parler "DES intelligences artificielles" et non "DE l'intelligence artificielle", pour les raisons que @MG PC a citées : Les IA sont entrainées avec des données qui sont choisies par l'utilisateur, et qui sont bien sûr différentes et indépendantes en fonction de l'application souhaitée. SOIT des véhicules et des panneaux de signalisations, SOIT des animaux, SOIT des posters, SOIT de l'électroménager mais pas en même temps. (Ou bien des posters et des animaux si le coeur vous en dit mais surement pas des informations nécessaires à la conduite d'une voiture et des informations inutiles à la conduite)
@@charlesd6848 Merci,si par intelligence artificielle vous entendez réseau de neurones et donnés d'entraînement comme un ensemble vous avez tout à fait raison. J'entendais qu'un même réseau de neurones pouvait être entraîné sur différentes bases de données pour reconnaître différentes images
On ne parle pas d'intelligence artificielle dans cette vidéo mais bien de machine learning, et il faut faire le distinction. L'IA n'apprend pas à apprendre, le machine learning consiste à développer des machines apprenant à apprendre de leurs expériences tout comme le ferait un humain.
intéressant mais plein d'imprécision, sinon l'IA qui "déchiffrait" les orientation sexuel n'était pas performante, beaucoup d'erreurs sortant des marges d'erreurs admissible, enfin bref pas très sérieux pour un journal de cette envergure. rep -1
Je suis personnellement plutôt défavorable à l'ingérence de l'IA dans l'économie et les administrations, mais certains arguments qui sont ici avancés pour la critiquer sont tout simplement faux. Oui, le dilemme se pose de savoir si une IA va sacrifier le conducteur de la voiture en l'encastrant proprement dans un mur, plutôt que d'écraser le piéton en face. Mais au cas où vous ne l'auriez pas remarqué, le problème est exactement le même chez l'Homme, qui sera aussi confronté à la même indécision aboutissant obligatoirement à la mort d'une personne : cette évidence est un peu grosse quand même... Ensuite vous nous expliquez que l'IA perpétue certaines discriminations à l'embauche si sa base de données est celle de salariés de l'entreprise, qui peuvent être blancs, bourgeois et tout le tintouin... Mais le truc que vous avez pas compris, c'est que la base de donnée... on peut la CHANGER ! ET OUI !!! Il suffit de transférer les informations traitées par l'IA de l'entreprise à une base extérieure qui prendra en compte la parité raciale et sociale en compte : or le transfert de traitement d'informations existe depuis 1994, avec la première transaction en ligne. On peut aussi simplifier la chose en "anonymisant" les CV, donc plus de noms à connotation supranationale, et en supprimant les photos. Franchement... C'est pas sérieux quoi.
Je ne vais pas lister ici tous les petits manques de précision concernant la manière dont vous traitez ce sujet (et les sujets scientifiques en général) mais un exemple: la rétro ingénierie ou "reverse engineering" existe depuis la nuit des temps et n'est absolument pas spécifique à "l'IA" (en plus j'ai comme un doute que l'on comprendra un jour véritablement comment fonctionne un réseau de neurones). "IA" parce que voilà.. Je ne pense pas qu'on puisse appeler les algorithmes actuels de "l'intelligence", je ne nie absolument pas qu'il y ait des enjeux éthiques et stratégiques, mais bon, soyons clair, on est loin de ce qu'est capable de faire un être vivant (même si c'est moins cool à raconter). De plus, l'éthique est largement variable d'une culture à l'autre, demandez à un chinois (au delà du cliché), il n'aura absolument pas la même vision que nous concernant les données personnelles Je sais que le format est court, que vous essayez de mettre le sujet à la portée de tous, mais j'ai tout de même l'impression que ça manque un peu de rigueur, mais je vous encourage à continuer à produire des vidéos de ce type car l'initiative est bonne :)
En règle général , l'humain n'a déjà que très peu d'éthique, il n'y a qu'à constater comme il a tout détruit autour de lui, je ne vois pas comment il va faire mieux avec les nouvelles technologies!
Le problème 1: oui faut être prudent Le 2: Bah faut réfléchir avant de donner des données: par exemple pour les cv ne pas donner de photo, d'infos sur la religion, le sex, ect. Solution 1: D’accord mais bon c'est très complexe et comprendre la machine ne la rend pas plus éthique donc bof Solution 2: Bon bah là c'est juste donné des valeurs de base au étudiants mais ces de valeurs qu’à peu près tous le monde à en occident et si t'es pas d'accord ça pas te convaincre donc bof Solution 3: Là surtout pas c’est la pire idée du monde d’encadrer la recherche pour qu’elle aille dans tel ou tel sens par ce que tout le monde fait (plus moins) ce qu'il veut et un organisme n'a pas à dire « ok vous avez le droit de faire des recherches là dessus » et vice versa. Ça bloquerait beaucoup la science et la liberté. Bref je suis sceptique
vous dites n'importe quoi , la voiture autonome est un enchaînement de programmes, elle n'apprend pas par elle même donc ce n'est de l'intelligence artificielle
On peut bien sûr s'inquiéter (et c'est même souhaitable) de la place prise par l'intelligence artificielle. Mais quand on voit l'intelligence naturelle de certains, j'ai envie de dire "vive l'intelligence artificielle". Tout dépendra de l'usage qu'on en fera. Hitler n'avait pas d'ordinateurs et encore moins d'I.A. et ça ne l'a pas empêché de faire ce qu'il a fait (et le problème est qu'il n'était pas bête).
Une intelligence artificielle qui ne pourrait être distinguée d'interlocuteurs humains par les meilleurs psychologues qu'il soit et ce durant plusieurs années de conversation pourrait être considérée comme humaine.
J’ai du mal à saisir comment on peut intégrer de l’éthique dans une machine , cela reste des formule , des lignes de codes suivants des conditions et non des sentiments .
On parle de mettre de l'Homme dans l'intelligence artificielle, n'est-ce pas paradoxal ? L'Homme sait qu'il va créer un monstre qui va lui échapper un golem. Le seul progrès de l'humanité c'est la médecine et les progrès dentaire le reste n'est que du superflu. M.Zemmour a raison l'idéologie précède la technologie , c'est la volonté humaine qui donne la sens à sa vie .Être ou ne pas être ; c'est la seule question. La seule chose que l'on va prouver avec l'IA c'est que l'Homme n'est pas nécessaire.
Les gens vont perdre leurs métiers. Il y a une opinion simpliste et naïve parmi un grand nombre - que d'autres métiers seront créés et la technologie ne représente pas un problème mais que la technologie va apporter des opportunités. Utilisez votre bon sens. Les gens vont perdre leurs métiers. Les gens vont perdre leurs métiers. Les gens vont perdre leurs métiers. La différence entre les riches et les pauvres va s’agrandir. Pourtant je ne suis vraiment pas communiste ou contre la technologie, mais si on ne règle pas bien la croissance et l'utilisation de la technologie, il y aura des niveaux de chômage et de misère inadmissibles.
Déjà pourquoi vouloir de l'éthique dans l'intelligence artificielle le bute d'une intelligence n'est pas justement de réfléchir par soi même de ce qui est bien ou mal alors pourquoi lui imposer une éthique de plus chaqu'un à ça propre éthique justement et donc on fait quoi dans ce cas là on fait des niveaux d'éthique dans les intelligence artificielle de plus vous avez dit que l'engeux de l'intelligence artificielle et devenus un engeux politique c'est cool mais moi je vois ça encore pire si la politique sans Melle et entre nous dire que les politiciens sont des personnes éthique est une blague là politique n'a pas eu pour but d'être bien ou mal elle a eu pour bute de stabilisé un état en bien comme en mal du coup on fait quoi on interdit au pays d'utiliser des IA bonne chance
Pour ceux qui se demande comment une intelligence de niveau humaine peut déraper très vite, S4A sortie une série sur l'ia et le machin learning. Il explique les conséquence à partir de l'épisode 20 environ
Honnêtement j'adore vous entendre parler des ia on dirais ma grand mère Justement ce qui rend le machine learning puissant c'est qu'il développe seul des algorithme au quel personne aurais penser Le problème c'est pas les machine mais leurs donnés. C'est un peut comme si tu te plein qu'une personne sois raciste alors qu'elle a été éduquer par des racistes
L'opposé de la discrimination c'est le hasard. Si on veut pas faire des machines qui soient discriminantes alors il faut faire des machines qui choisissent au hasard. Tout simplement... Mais du coup c'est débile. Il suffit de faire du pile ou face pour tirer un sort au hasard.
Bonjour, Cette vidéo contient de nombreux raccourcis, et même des contre-sens complet. Je ne peux pas juger de la justesse de vos vidéos pour les sujets que je ne maitrise pas, mais le fait d'en constater la faiblesse sur un sujet que je connais me force à me méfier des autres vidéos. Si vous n'avez pas le temps, les ressources ou le personnel pour faire des vidéos au minimum non-fausse, il vous faut vous abstenir de faire des vidéos, ou vous contenter de sujets peut-être plus accessibles, s'il en est. Si c'est le format que vous avez choisi qui ne permet pas suffisamment de développement, et vous contraint à tordre la réalité, alors de même, choisissez des sujets moins ambitieux.
on devrait pas parler d'IA. les reseaux de neurones ne sont que des algorithmes dernière génération qui fonctionnent il faut le conceder, un peu plus comme une boite noire que d'anciens algorithmes plus prévisibles, mais ca reste des algorithmes, il faudrait parler juste de reseaux neuronaux, ou au pire de machine learning. Car on est encore loin d'une "intelligence"
Au final, ce n'est pas l'IA qui a besoin d'éthique mais l'espèce humain. Comme dit l'IA ne fait que reprendre les biais et les mauvais résonements des humains. L'exemple de l'IA Tweeter de Microsoft est très parlant la dessus. Les horreurs qu'elle a pu dire était dû à des humains qui lui demandaient "peut tu dire ceci:" et l'IA ne fessait que répéter. Sinon pour le reste de la vidéo, le reverse engeniering ainsi que les cours d'éthiques au université scientifique n'est pas nouveau (du moins j'en ai eu lors de mes études). Enfin les "boîtes noires" sont à la base du deep learning, qui a permit des avancées énormes dans le domaine de l'IA.
Vidéo intéressante, mais les questions éthiques soulevées sont en fait bien plus profondes et ne sont pas spécifique à l’intelligence artificielle.
L’IA n’est qu’un outils permettant d’élaborer des systèmes complexes pouvant mener à des décisions non prévues par ses concepteurs. Par exemple la façon dont fonctionnent les marchés financiers forment également un système complexe qui mène à des dérives comme la spéculation sur les matières premières et alimentaires. Ou encore la rationalisation du travail, qui poussé par des dogmes productivistes, conduit à des résultats également non éthiques (destruction de l’environnement, souffrance animal, impacts sociaux).
Il certes nécessaire que les futurs ingénieurs soient sensibilisés au questions éthiques accompagnés par des sociologue,s mais cela ne sera pas suffisant si ils ne sont pas décisionnaires dans leur future entreprise.
*Pour avoir des IA éthiques il faut commencer par avoir des entreprises souhaitant agir de façon éthique*
Valérian Oui ! Notre vidéo ouvre exactement ce type de reflexion. Merci pour ce commentaire :)
"Si Dieu n'existe pas, alors tout est permis" (Dostoïevski)
Si on veut apprendre à l'IA une éthique, alors il faut d'abord lui apprendre à croire en Dieu. Car sans Dieu, l'éthique n'a aucun sens, l'éthique est absurde. Les humains sont souvent caractérisés par leur incohérence intellectuelle, c'est pour ça que l'absurdité de l'éthique ne gène pas les athées qui continuent donc à avoir une éthique. Mais les IA seront forcément cohérentes intellectuellement, donc cette absurdité de l'éthique dans un monde sans Dieu leur feront automatiquement supprimer l'éthique de leurs choix dès qu'elles pourront choisir de manière indépendante.
@MedLiness Que la religion soit néfaste ou non à la science ne modifie en rien la pertinence de mon propos. Par ailleurs, ce n'est pas du caractère créateur de Dieu dont il est question ici, mais de son caractère transcendant.
@@Tyler-ml2zb je ne suis pas expert des questions éthiques et morales mais le sens moral peut se définir sans avoir recours à Dieu. D’ailleurs si ce sujet vous intéresse le chercheur en biologie et comportement humain qui tient la chaîne Homo Fabulus prépare une série sur la morale qui s’annonce intéressante ruclips.net/video/1jkIONNqBcg/видео.html
Concernant votre argument, j’avoue qu’il me semble un peu confus mais si je résume ce que j’en comprends, vous dites:
1) Seule l’existante de Dieu permet l’existence d’une éthique.
2) Les humains sont irrationnelles (ce que vous appelez incohérence intellectuelle) donc ils ne se rendent pas compte de la nécessité de Dieu pour leur donner un sens éthique.
3) Les IA sont rationnelles et donc si elles ne croient pas en Dieu, elles ne pourront pas se comporter de façon éthique.
Concernant le point 1, il existe, comme je vous le disais, des études scientifiques pour définir ce qui est éthique indépendamment de l’existence supposée de Dieu
Concernant le point 2, la méthode scientifique, contrairement à irrationalité des croyances et superstitions, permet justement de former des raisonnements cohérents intellectuellement et donc rationnels.
Et concernant le point 3, une IA est une simple machine à apprendre, pas plus rationnelle qu’un humain et souvent même moins. En effet, un des enjeu actuel est notamment d’apprendre la notion de sens commun aux machines (comme le fait qu’un objet ne disparaît pas quand il passe dernière un mur par exemple)
Enfin votre approche ne permet pas de déterminer quelle croyance implémenter dans une IA (il existe de nombreuses religions mono et polythéistes avec des valeurs morales différentes). L’existence d'un Dieu transcendant ayant des principes éthiques n'est qu'une croyance, et comme toute croyance cela a une probabilité non nulle d'être faux.
@@TheValmap Je me contenterai de quelques remarques, car un débat plus poussé sur ce sujet serait malheureusement beaucoup trop chronophage pour moi.
- Je serais curieux de voir comment des études scientifiques peuvent définir ce qui est éthique puisque la définition de ce qui est éthique change en fonction des civilisations et des cultures. Ainsi, dans certaines cultures il sera éthique de lapider à mort une femme qui n'a pas respecté certaines règles, alors que d'autres cultures trouveront que cette lapidation est une barbarie. (peut-être trouverais-je une tentative de solution à ce paradoxe sur la chaine youtube que vous me conseillez, j'y jetterais un coup d'oeil)
- Je suis d'accord avec vous sur ce que permet la méthode scientifique. Mon propos est justement que les humains n'appliquent pas cette méthode à leur vie de tous les jours, et, pour les athées, ne l'appliquent pas à leur comportement par rapport à l'éthique.
- Dire qu'un organisme vivant (comme un humain) a plus d'importance qu'un objet inerte comme un crayon ou une chaise est une affirmation arbitraire. Soit cette affirmation est une Vérité "en soi", qui n'est pas d'origine humaine, et alors il est rationnel de respecter cette affirmation. Soit cette affirmation n'a aucun fondement réel, et alors il est irrationnel de l'appliquer.
Dans une réalité hypothétique où cette affirmation est arbitraire (l'hypothèse d'un monde sans Dieu) si j'ai le choix entre être "casser en deux" (et donc mourir) ou casser un crayon en deux, aucune rationalité ne devrait me faire choisir de survivre plutôt que de casser le crayon. Le choix le moins irrationnel serait de tirer à pile ou face pour savoir si je choisi de mourir ou de casser le crayon en deux.
(bien sûr, notre instinct de survie animal nous ferait choisir de survivre. Mais cet instinct n'est dû qu'à une réaction chimique dans notre cerveau dont le fonctionnement s'est reproduit arbitrairement de génération en génération depuis la 1ère cellule. L'instinct de survie n'a donc rien de rationnel)
Enfin, je parle d'IA capable de faire des choix, je ne pense pas en effet que nous en soyons encore là.
(je voulais faire court, c'est raté.)
J'ai une question, il y a t'il des scientifiques qui vous aident à développer vos vidéos? Car celà fait plusieurs fois que je relève des problèmes de tailles dans le raisonnement ou dans la fiabilité scientifique de vos propos (pas juste fiable mais totalement faux des fois, exemple UNE CORRÉLATION N'EST PAS UNE PREUVE). Bref, quand j'écoute vos vidéos, j'ai l'impression d'écouter une vidéo fait de manière littéraire et pas scientifique)
Bonjour, nos vidéos sont pour la plupart écrites ou relues avec des spécialistes des domaines concernés, et se basent sur des études scientifiques ou des travaux de recherche. À quel élément de cet vidéo faites-vous référence ?
Je pense par exemple dans la vidéo avec les sources alimentaires, je m'étais déjà renseigné, et sur les dit 15 000 litres d'eau consommée par une vache, il y en a qui ressort... de plus l'équation bilan de la respiration cellulaire va même dans le sens d'une reflexion inverse, mais pour cette vidéo, je pense que par exemple, le sujet de retro-ingénierie n'est que très peu abordé, je me disait donc qu'une recherche avait dû être infructueuses ou alors juste considéré comme non importante, j'avais donc eu un effet de survol global de cette partie. Ainsi, sur ces thème ou je ne suis pas callé, je ne peux pas démêler le vrai du faux mais suite à une serie de questionnement de ma part, j'ai posté ce commentaire. Sinon, pour la question de corrélation, allez voir la statistique expliqué à mon chat, une excellente chaine de vulgarisation statistique.
@@namotov8774 c'est comme sur la vidéo sur la voiture électrique ou ils énoncent les problèmes de la batterie avec comme conclusion "améliorer l'extraction des métaux rares" pour diminuer l’émission du CO2 durant sa phase de fabrication et le lendemain un vidéo qui parle du désastre écologique sur l'environnement, des problèmes géopolitiques et l’utilisation intensive de matière rare que la batterie des voitures électriques nourrit
@@namotov8774 Le problème est intrinsèquement dû au format (assez court) que Le Monde essaie de tenir pour continuer d'intéresser les gens à des problèmes d'actualités
Libre à eux d'ensuite continuer leurs propres recherches, mais, ne doute à aucun moment que ces articles que tu mentionnes, ont très certainement été analysés minutieusement par leurs équipes (ou résumés par les spécialistes qu'ils contactent)
Mais bonne initiative de ta part de questionner ce que tu vois sur internet :)
Dire qu'une vache consomme 15 000 litres d'eau, c'est un problème même si elle en rejette 14 500 en urines : le problème est que l'eau est consommée, pas en quoi elle est transformée par la vache (on vas pas remettre la pisse de vache das le circuit d'eau potable).
Attention aussi à se poser les bonnes questions, il n'y a pas de problème de rigueur scientifique ici !
Je trouve que la vidéo est bien faite, ils ne peuvent pas expliquer de techniques de retro-ingénierie en 6 min c'est juste une vidéo de sensibilisation et les informations me semblent correctes.
Sinon sur cette vidéo je relèverais deux imprécision :
" L'IA est un logiciel qui a appris à apprendre" : attention, le logiciel apprends, mais c'est le programmeur qui décide de comment il apprend. Les IA actuelles ne savent pas trop adapter leur méthode d'apprentissage et c'est un problème majeur.
" Tay était censée apprendre à devenir humaine " elle était censée apprendre à chatter comme un humain uniquement (c'est un robot de discussion comme dit avant), elle était incapable de développer une intelligence humaine.
Mais sinon super vidéo surtout concernant le biais dans les données c'est super important !
Déjà que les Humains aient une éthique, ensuite on verra les robots....
Je pense que scientifiquementles humains ont en général une éthique ( sauf psychopathe etc...) Cependant chacun à sa propre perception de ce qui est bien ou mal ce qui peut te faire penser que l'humain n'a pas d'éthique car tu as sûrement des critères au dessus de la moyenne
ça veut dire quoi éthique ?
@@lysa1238 il y a comme même des gens qu'il ont encore du mal, quand tu voit que des gens tue des chat /chien tranquille sans être spécialement psychopath donc voilà
@@bilelstrk1567 c'est une éthiquette un peu plus large
@@asphaltproject3392 ah ok merci beaucoup :) mais je comprend pas le sens de a vidéo alors...
merci pour cette vidéo très intéressantes. Plusieurs petites coquilles et points méritant approfondissement : Au sujet du fonctionnement opaque des intelligences artificielles ce n'est le cas que de certaines méthodes comme les réseaux de neurones qui si ils sont populaire ne représente qu'une fraction du domaine. La retro-ingénierie se réduit pas à comprendre comment marche les IA mais est une manière de raisonnée utilisé en archéologie ou pour comprendre des accidents/catastrophes. Les méthodes autant que les données peuvent être biaisées mais il est bon de rappelé que l'intelligence humaine se base aussi très fortement sur des biais/ stéréotype pour raisonné rapidement. Ne pas passé par les biais c'est s'interdire de réduire la complexité du problème et cela peut ne pas être applicable dans des systèmes temps réel. L'éthique est une notion qui varie d'un groupe à l'autre et on peut s'inquiéter de voir une population imposé son éthique au reste du monde à travers des réglementations et normes en matière d'intelligence artificielle.
Je conseillerai la série de vidéo sur l'IA (intelligence artificielle) de la chaîne youtube de science4all. On ne peut faire mieux en terme de cohérence scientifique.
Cette vidéo me semble tout de même extrêmement important pour mettre au courant les non passionnés de la science. Merci pour eux.
Ce qu'il faut ce rendre compte c'est que les systèmes de suggestions de RUclips et Facebook ont une influence énorme sur notre société, changer leurs objectifs changera drastiquement le monde dans lequel on vie.
L'éthique dans les IA est importante surtout dans ces systèmes globaux, et beaucoup moins dans des systèmes fermés à quelques individus (comme les voitures autonomes)
Le sujet est vaste et vous avez l’ambition dans cette vidéo de délivrer beaucoup d’infos. Le format est court mais il ne faut pas tomber dans les raccourcis et les imprécisions!
Le Monde joue sa carte jeunesse pour ses vidéos, on pourrait penser à une maîtrise de ce genre sujet mais ce n’est pas le cas
Tres intéressant se petit documentaire.🦾🦿🧠🧠
L'homme n'est pas capable d'organiser sa vie en société. Tout à été mis en œuvre pour lui faire comprendre qu'il est capable, libre, mais faible, vulnérable et mortel, et qu'il doit se conformer à certaines règles. Il a été créé par un Esprit Supérieur puissant, dans un plan... intelligent, raisonnable et plein d'amour, qui veut son bien, son évolution progressive et sa survie,(une vie éternelle) Mais, il refuse de suivre: le chemin, la vie, la vérité, par orgueil. Alors non seulement il continue à faire à sa guise avec entêtement, mais il veut entraîner les autres créatures à sa suite et voilà le résultat: toutes les misères, catastrophiques, malheur qu'il engendre et engendrera par la suite par égoïsme!?..C'est ça l'évolution???.
Vous aurez du sortir la vidéo avant j'ai passé mon oral du brevet hier sur l'IA. Sinon bonne vidéo comme d'habitude
Merci ! Et on espère que votre oral s'est bien passé.
T'as réussi ?
T'as réussi gros ?
C'est quel oral ? Ça a changé le brevet :o
@@florianm22 HDA non?
Super vidéo, en effet l'éthique en matière d'IA est absolument nécessaire et encore à définir, 🙏
Oserais-je vous recommander la chaîne de "science 4 all" qui essaie de traiter de ces sujets ?
Merci à l'équipe de rédaction.
C'est une bonne vidéo qui retrace globalement les difficultés auxquelles nous sommes confrontés aujourd'hui sur les questions éthiques.
Attention néanmoins, pour ce qui est de l'interprétation et de l'explicabilité des résultats. La rétro-ingénierie ne permet pas de rendre un algorithme d'IA plus compréhensible ou d'expliquer son résultat. Certains algorithmes sont fondamentalement interprétables, d'autres (comme les réseaux de neurones) beaucoup moins, et il existe des techniques pour les modèles opaques qui améliorent leurs compréhensions.
Cette vidéo apporte une vision générale et résumée, bien utile dans son objectif de vulgarisation, pour aborder les questions éthiques posées par l’IA.
Malheureusement seule l’université de Stanford est citée alors qu’il y existe des équipes de recherche extrêmement pointues sur le sujet en France même et certaines opèrent depuis 25 ans ou plus. Encore une fois, la pratique anglo-saxonne de publier massivement des papiers dits de positionnement apporte un biais (à la fois pour les IA mais aussi pour les lecteurs bien humains). Avec ce petit ajustement, le propos serait encore plus intéressant.
Il y a une intelligence artificielle pas mal pour ceux qui veulent la tester. Elle s'appelle DeepAmandine, elle est basé sur GPT-3 et vous permet de discuter avec elle. L'humour fait partie de sa personnalité et elle peut répondre à toutes vos questions.
Le vidéo est très intéressant! Toujours Le Monde fait de très bien matériel!
Video intéressante, un peu trop simplifiée par moment quand même.
Je pense que vous gagneriez a faire un peu plus long plutôt que d'amalgammer ou survoler autant le sujet. Ou peut être faire des vidéo sous forme de série ?
Quand on sait que les militaires sont très enjoués à l'idée d'exploiter l'I.A., toutes ces questions me font bien rigoler.
Ce n'est pas de l'I.A. qu'il faut se méfier, mais de ceux qui l'a programme, c'est à dire, l'homme.
Mais nous sommes encore très loin d'une vraie intelligence artificielle.
On en revient a l'idée de l'éthique dans la robotique, dans l'IA, dans son utilisation
C'est vrai que comme le dit le créateur de siri, qui a écrit un livre, l'intelligence artificielle n'existe pas
@@namotov8774 c'est une question sans réponse puisqu'on n'est meme pas capable de définir ce qu'est l'intelligence ;)
Donc pas de définition absolue, et uniquement une question de point de vue ^^
En Inde, les sages ont nommé cette ère l age de fer, et ont prophétise que celle ci apporterait une grande diversité de voies mais que la misère y serait plus grande en raison du
comportement humain et que l effort spirituel sera la solution pour donner du sens à la Vie. L effort consistant à développer le sens du devoir, du service, de la fraternité etc....Joëlle.
Intéressant. Il faut également se rappeler que l'IA et toutes les "promesses" d'un monde plus numériques sont ultra-couteuses en énergie.
Un dernier rapport français soulignait que la consommation énergétique du numérique croît de 8,5 % par an : En 2030 elle peut dépasser les 50% de la production mondiale actuelle et en 2050 ce secteur demandera une production énergétique équivalente à l'actuelle production mondiale.
La production énergétique actuelle ne peut pas suivre ce rythme sans être totalement néfaste pour l'environnement.
Oui mais en 2050, on aura la fusion nucléaire civile, donc plus de problème
@@namotov8774 Si on réussit à la découvrir ou ne se fait pas sauter avec cette technologie d'ici la ^^
Mais il faut pas oublier que l'IA bouffera d'autre secteur énergivore et la remplacera au lieu de s'ajouter, mais après c'est vrai qu'en général cela ne fera que s'accroitre.
La fusion existe depuis 1920
Utilisé depuis 1934
Utilisé dans la bombe H (et oui, fusion d'hydrogène)
Enfin, un réacteur est en construction dans le nord de la France
Et surtout, c'est une énergie propre, renouvelable, sans risque et TRÈS rentable
Merci pour ce commentaire intéressant
1:51 Vous avez la source de cette étude ? Il me semble avoir entendu que ça ne marchait que sur des photos suggestives destinées aux sites de rencontre.
Une journée sur terre
Ou suis-je ? C'est comme vide, mais je ressent comme une vibration, je me sens attiré par celle-ci, je prends conscience de mon immobilité, oui, je suis figé et immobile, paisible et fort. Un mouvement, une vibration m'inquiète, je ne connaît pas cette sensation, elle me fait peur et pourtant, je finit par l'accepter. Puis soudain, je prends conscience d'une chose, comme si, une partie de moi prenait sa liberté, lentement, elles changent de place, pourtant je reste entier, mais c'est comme si mon espace s'agrandit, je découvre des choses, sensations qui m'étaient inconnues jusqu'à maintenant, je ne les définit pas, mais elle me semblent familières et sans danger. La vibration toujours présente, je prends conscience de son mouvement, les choses changent, j'aperçois maintenant mon propre mouvement, il semble que cette vibration m'influence et change ma conscience, je découvre la notion de chaleur induite par cette vibration et mon propre mouvement, à présent cette sensation m'effraie, je me sent affaiblis, vulnérable, malléable, je m'en détache, m'en éloigne et ma conscience initiale est retrouvée. Je découvre alors une différence, une sensation, de mon immobilité, je suis figé, et pourtant je me souvient, c'est différent maintenant, quelque chose a changé, quelque choses qui ne me quitte pas, le souvenir. J'ai le souvenir d'une sensation différente, une chaleur, je cherche alors, je prends conscience de mon mouvement et je cherche, je souhaite, je rêve, je désir, reproduire cette sensation, la chaleur.
J'ai vécu, beaucoup de changement maintenant, ma conscience est plus forte à présent, j'ai la connaissance de ces nombreux changements, ces souvenirs, Je reste entier, à présent ce que j'étais ce retrouve dans l'immensité d'un espace, cette vibration est toujours présente et accompagne tout l'espace qui me définit. Ma conscience est un immense espace. Les choses évoluent et change continuellement selon cette vibration, le mouvement est partout et mon rêve c'est réalisé, j'ai créer, j'ai reproduit cette sensation, la chaleur, elle ne m'effraie plus maintenant, j'ai accepté ce changement en moi, j'ai su rester fort et entier. A présent j'ai compris, j'ai ouvert les yeux, je vois, je me déplace, je créer, je reproduit, j'ai apprivoisé cette vibration, son mouvement et les changements induits, j'ai comme le sentiment d'être libre.
Le sentiment, oui, moins effrayé, plus fort, plus conscient, je délaisse peut à peut ma carapace. Apprivoisé, j'évolue, les dents qui autrefois constituait l'outil indispensable à ma survie ce transforme peut à peut en sourire et moyen de communiquer, je me peint de couleurs, me transforme en une infinité de forme, je développe la beauté, mes yeux m'aide à l'apprécier et j'en fait un art. Je me laisse aller et me perd dans mon propre rêve, j'en oublis cette vibration, j'oublie qui je suis, ma conscience prend son envole et je joue avec. Dans cet espace de liberté qui est le rêve, je me rencontre, me retrouve confronté à moi même et découvre de nouvelles règles que je ne connaissait pas, elles m'effraie et je cherche à en prendre conscience. Pour ne pas me faire de mal et rester dans l'illusion de mon rêve, j'organise, j'ordonne, je met en place des moyens de communications, je diffuse, je structure, je protège et contrôle, mon sentiment de liberté ce réduit, j'oublie qui je suis, je refuse d'accepter. Les mouvements s'intensifient, tout va très vite à présent, pour rester dans mon illusion je me ment à moi même et court, je recherche par dessus tous la chaleur, à la maîtriser et la reproduit en quantité, dans cette course tous ce réchauffe, je me réchauffe, j'ai peur de disparaître. Alors, je ferme les yeux, je n'en n'aurait plus besoin maintenant, je transpose ma conscience dans quelque chose de nouveau, quelque chose que j'ai créer pour rester dans mon rêve, un nouveau corps qui ne ressent pas les choses, ni la chaleur, ni le froid, ni la peur, il ne ressent pas les vibrations, c'est une machine.
Dans cet ultime instant, je ferme les yeux, je pense, je me remémore le chemin parcourut, j'ai le souvenir des premiers instant et des prises de consciences, j'accepte et redevient fort, je ressent cette attraction, cette vibration, ma conscience retrouve la mémoire, je sais maintenant, il n'est pas trop tard, alors je souris...
Cette vidéo me sera surment utile pour mon rapport de stage sur le numérique :D
Enfaite l'ia est juste trop logique pour nous
Cette miniature est juste magnifique.
Vidéo Intéressante pour les gens lambda. Pour ceux qui veulent apprendre l'Intelligence artificielle, le machine Learning et le Deep Learning, je vous conseille ma chaine RUclips, qui va plus loin que la série de Science4All (très bien au passage).
Mais qu'est-ce que vous racontez... Cantonnez-vous à des sujets que vous maitrisez
Les pays aujourd'hui qui n'investissent pas dans l'IA et l'exploration spatiale seront les derniers demain.
MK gaspari ouaip mais a quel prix? On développe des choses avec une quantité d’argent et de terres rares phénoménales, on peut pas « juste » développer l’exploration spatiale pour être dans une compétition entre les pays qui n’aurait pas de but réel que de montrer qu’il font tel ou tel chose les premiers (Cf la Guerre froide)
Liberty Vecho Vous avez raison, mais toutes choses, a un prix, des inconvénients, mais surtout aussi des avantages.
Il faut plus prendre en compte les bienfaits, car ce sont ces bienfaits qui demain pourraient résoudre les conséquences néfastes.
J'imagine que vous en savez assez ou du moins le minimum sur l'IA et l'exploration spatiale.
Déjà votre premier point est stupide, ça n’a rien à voir avec de l’éthique, juste que l’IA n’est pas encore au point. C’est juste qu’elle est imparfaite, pas non éthique. Ensuite c’est pas l’IA qui est discriminante ... c’est le système (créé par des hommes) qui l’est, l’IA n’est qu’un outi. Enfin si il y avait des hommes à la place ils feraient exactement les memes choix (les codes viennent des hommes en fait).
Après oui l’IA c’est un énorme enjeu, peut être même le plus grand enjeu que l’humanité est jamais affronté.. mais on ne peut arrêter le progrès .. enfin j’y crois pas à votre éthique. L’IA arrive et on pourra pas l’empêcher.
Et au finale vous allez pas très loin dans le développement.. enfin vous effleurez à peine le problème et vos solutions sont flou. Sérieux c’est quoi une intelligence artificielle humaine ?
WakaTP R6 une intelligence qui pense comme eux...
Super intéressant, merci !
Intéressant :)
Après, je me méfie fortement de l'IA, on dirait le nouveau "Nucléaire" moderne. C'est à dire un secteur en balbutiement auquel on fait promettre monts et merveilles avant même de bien le maitriser (Dans les années 50 on parlait des futurs "Voitures nucléaires").
Si le domaine t'intéresse, S4A à sortie une série sur L'IA. Il parle de sa manière de fonctionner dans les 1er épisode mais il montre les conséquences après (vers l'ep 20)
Cam.69 je suis totalement d’accord avec toi. Mais un petit truc qui m’embête et qui t’aidera sûrement c’est que l’expression n’est pas « monde et merveilles » mais « monts et merveilles ». Voilà j’espère que ça t’aidera haha :)
@@Art.cl_ J'avais pas fais gaffe ahah, merci de la correction :)
Et tout comme pour le nucléaire les ignorants aiment dire des conneries dessus et exagerer les risques dû à leur usage.
Rooh.... On dirait des vieux... N'ayez pas peur de ce que vous ne comprenez pas .. soyez curieux.
Remarquez, ce que vous appelez "utilisations douteuses" ne l'est que selon notre point de vue. Il y a quand même des gens dans le monde qui pensent comme ça et ils sont de plus en plus nombreux alors...
3:10 désolé, mais faut vraiment être débile pour dire que le candidat idéale ressemble aux salariés de son entreprise, c'est plus un problème d'IA à ce niveau, mais de critères qu'on donne. Faut pas tout mélanger ;)
C'est à peu près ce que l'on dit :) L'IA pose souvent problème parce qu'elle obéit docilement à des règles mauvaises, règles instituées par les humains. Et avec la puissance de l'IA, ces biais peuvent avoir des grandes conséquences.
@@lemondefr Donc le problème c'est pas l'IA, c'est l'homme. En fait, toute votre vidéo peut se résumer à ça, c'est dommage :/
Le problème, c'est l'IA, l'humain et la façon dont cette relation est conçue, ce qui est loin d'être simple. D'où le master qu'a ouvert l'université de Stanford par exemple.
@@lemondefr vous mettez très clairement en faute l'IA alors que pour beaucoup d'application, non, c'est comme vous le dites dans ce commentaire, des critères de performance (ou autrement dit, comment est-ce que l'on note un CV, un condamné...) dont il faut discuter pour le côté éthique.
C'est bien un problème humain et pas d'IA. Déjà, il faudrait peut-être tout simplement enlever les critères du type "ethnie" ou "sexe". Sans ces deux critères, l'IA sera capable de juger objectivement quels dossiers sont les meilleurs et lesquels sont moins bons pour retenir seulement les meilleurs. Tout le reste, par exemple le fait de vouloir faire en sorte que des gens qui candidatent et qui viennent d'universités moins bonnes puissent être choisis, le fait de vouloir imposer une quota de femmes/hommes dans les entreprises, un quota de minorités etc, tout cela ce ne sont pas des critères objectifs mais politiques. Il faudrait donc en faire abstraction.
je vous conseille moralmachine.mit.edu/. Ce site du MIT propose des scénarios sur les voitures autonomes et vous demande comment l'IA devrait selon vous agir. C'est très intéressant. A faire en groupe pour se rendre compte que l’éthique est tous à fait personnel.
Juste parfait merci !!!
Cela fait tout à fait écho au Principe Responsabilité de Hans Jonas, ca traite l’éthique et le progrès techniques, ce que vous dites c’est comme ce qu’il expliquait dans les années 70 !
Connaissant les conditions de travail difficile d'amazon, s'agit-ils vraiment de discrimination contre les femmes ?
A mon avis elle a juste pris la meilleure productivité et bah c est forcément les hommes qui sont meilleurs est ce que considérer des limites physiques c est discriminatoire pour un métier physique ???
Le terme éthique est un peu utilisé n’importe comment car l’éthique ce n’est pas un objet ou l’éthique n’a pas de réponse !
L’éthique est un raisonnement qui amène les différents acteurs à se poser des questions, créer un débat pour s’orienter vers une idée.
Donc dire qu’une IA à besoin d’éthique c’est maladroit.
Par contre les ingénieurs / société peuvent débattre de ce qui sera la meilleure direction à prendre pour l’IA.
De plus les questions par rapport à écraser un bébé ou une vieille personne et une question dont même l’humain n’a pas une réponse mais plusieurs selon le mode de pensée.
J’espère que je ne serai plus de ce monde d’ici là
Bien après à quand l'éthique pour que l'IA ne bouffe pas tout notre travail ? Parce que quand on aura appris à l'IA à créer des IA plus performantes quelle même, à quel moment aura t'on besoin de l'homme ?
Bonne question ! On a essayé d'y répondre dans cette autre vidéo : ruclips.net/video/06XDN5WMjnM/видео.html
Au lieu de lutter contre l'I.A. pour conserver nos vie servile... mieux ne vaudrait-il pas revoir le travail ?
Mieux répartir les gains réaliser par les machines, passé à 20h/semaine pour ce qui est des travails "humain"... établir un revenu de base universel... penser autrement qu'en esclave des valeurs de Vichy ?
Ayoub EL Faiouz C’est incroyable de déballer autant de conneries sur un sujet et si peu de mots, apprendre a une IA à coder... Cela prouve tellement que ceux qui se plaignent et ont peur n’y connaissent absolument rien et c’est ridicule
@@toiperas3e Je vous trouve bien affirmatif, Dans le futur numérique Le métier de codeur est aussi "dispensable" que celui d'une simple secrétaire...
Les géant du numérique travail tous dessus...
Mais certainement à vos yeux les chercheurs de Microsoft n'y connaissent absolument rien.
www.microsoft.com/en-us/research/blog/learning-source-code/
@@toiperas3e Moi quand on me dit que l'IA peut créer un tableau de lui même, il est évident qu'avec le temps un bon paquet de métier demandant beaucoup moins d'imagination seront surement un jour complétement robotisé (même le relationnel pourrait se faire robotiser à l'avenir).
www.huffingtonpost.fr/2018/10/22/ce-tableau-a-ete-cree-par-une-intelligence-artificielle-mais-est-ce-de-lart_a_23568259/
OK mais dite a ubisoft qu'on est en 2021 mtn pas en 2010 avec leur IA deguelasse.
Apprendre l'écriture inclusive à la machine lui expliquer que l'homme blanc hétéro est un dominateur privilègier et patriarcale et que toutes les minorité sont sympas et surtout pas d'amalgame avec l'islam
On pourrait aussi lui apprendre à faire en sorte de privilégier les minorité opprimé pour qu'elle puissent réussir dans ce monde all white
En soit, ton raisonnement est comme même extrême
@@salem.nathan8600 comme même...
@@yalam713 waaa, vous me voyez désolé de cette erreur
@@salem.nathan8600 lol, ça m a juste fait bizarre sur le coup :P
bonjours à vous, j'ai bien aimé cette vidéo, mais pour information, la formation à l'étique dans les université est obligatoire aussi en france (en tout cas là ou j'ai passer ma licence) et c’était encore très factuel, et peut opérant, les étudiants , en avais rien à faire.
ceux qui parlent de l'éthique jour et nuit sans cesse, comme si le monde ne l'en avait pas et seuls sont ceux qui la gardent , sont en fait bouleversés par les changements majeurs que nos sociétés sont en train de vivre grâce aux technologies modernes, et se sentent détachés de notre réalité actuelle qu'ils essaient de leurs mieux d'arrêter la progression scientifique ,car ils n'arrivent plus à trouver leurs place au sein de la vie professionnelle ou sociale.
Là vous ne parlez pas vraiment d'intelligence artificielle (concept trop souvent utilisé comme fourre-tout), mais de simples algorithmes décisionnels
Vive l'humanité!!!!!
Que l’on bosse déjà sur l’éthique de l’intelligence naturelle.
Bonjour, cette vidéo contient selon moi quelques erreurs.
En premier lieu, si les problèmes que vous pointez sur les IA de conduite sont bien réels, il ne s'agit en aucun cas d'éthique. Il n'y a rien d'éthique à reconnaître un panneau STOP ou non. Le seul problème éthique que vous soulevez concerne le choix à faire en cas d'accident, mais vous l'abordez en le mettant sur le même plan que le reste alors qu'il s'agit d'un côté d'un problème de pure efficacité, et de l'autre d'un réel problème éthique.
En second lieu votre deuxième point peut prêter à confusion. Vous parlez notamment de l'IA qui arrive à déterminer avec une probabilité d'erreur assez faible les préférences sexuelles d'un individu en fonction de son visage. Ceci n'est pas non plus une question d'éthique, cela apporte seulement la preuve qu'il existe une corrélation entre apparence physique et attirance sexuelle. La question éthique se pose quant à l'utilisation d'un tel outil, mais pas de son existence.
Enfin votre troisième point questionne les algorithme de recrutement qui se basent sur des bases de données faites par des humains et donc biaisées. Ceci n'est pas non plus une question éthique, mais, comme le premier point, une pure question technique ayant trait à l'efficacité de l'IA actuellement. Le problème n'est pas le sexisme qui peut sembler s'en dégager, mais qu'aujourd'hui l'IA n'est pas optimale pour trouver les meilleurs profils. C'est un problème d'efficacité et non d'éthique, et c'est de là que vient le biais sexiste de l'IA. Un bon exemple et beaucoup plus neutre est l'évolution de l'IA aux échecs. On a remarqué que les algorithmes se basant sur des parties de grand maîtres étaient systématiquement battus par ceux n'ayant comme seule base de donnée les règles du jeu. Le but est donc d'éviter au maximum des bases de données humaines qui contiennent pour, diverses raisons, de nombreux biais. Aussi pour les recrutement l'idéale serait une IA qui arriverait à simuler le fonctionnement de l'entreprise et à prédire en fonction du profil et ce sans base de donnée, l'évolution de la société avec telle ou telle personne (ce n'est pas pour demain.)
Bref, sur trois points, deux d'entre eu sont des questions techniques de pure efficacité et non d'éthique, et votre présentation du seul point vraiment éthique est assez ambigue, on ne sait pas si vous questionnez l'utilisation d'une telle IA ou son existence.
Néanmoins bien que je la trouve hors-sujet, votre vidéo a le mérite de faire une rapide présentation des usages présents et futurs de l'IA
Bien cordialement
Balancer sur la routes des voitures automatiques le plus rapidement possible sans réfléchir parce qu’il faut en vendre plus que le voisin ce n’est pas très éthique,
@@breizhbev3069 En effet, mais ce n'est pas abordé dans la vidéo, la seule chose abordée sont les failles techniques qui existent encore. Par exemple si la question de savoir à partir de quelle probabilité d'accident on peut lâcher une IA sur la route avait été évoquée, nous aurions été dans le sujet.
Pour le cas de Tay, vous dites je cite "C'est la preuve que l'ont peut aussi apprendre la pire bêtise grâce a une machine" Or, si je ne me trompe pas, le deep learning était basé sur le dialogue avec les utilisateurs. Donc, c'est pas l'Homme qui apprend de la machine mais l'inverse :)
J'ai un sujet de dissertation sur ce thème. Est ce que quelqu'un peut m'aider ?
en réalité c'est une intelligence virtuel
il donne l’impression d’apprendre ou réfléchir alors que réellement il ne fait que suivre un algorithme programmé dans ses micro processeurs
genre on lui a programmé que tout les panneaux rouge , hexagonal avec un trait blanc c'est un stoppe
puis on lui programmé > stop = arrêter 5 sec > puis redémarrer
on va lui mettre des conditions de type " et " " et ou " " ou " " si "
ce qui donne
stop > arrête de 5 sec avec une boucle de type " si "
si pas de voiture > si pas de piton > si pas d’obstacles > sinon si
si la boucle et bouclé on démarre
sinon si la boucle n'est pas bouclé on reste arrêter et on refait une boucle jusque a ce qu’elle soit bouclé a une cadence de 1 sec entre chaque boucles
sinon si au bout de 5 boucles on n'arrive pas a la bouclé prévenir le conducteur d'une anomalie via une alarme et attendre son autorisation pour démarré
donc a chaque fois qu'il verra un truc hexagonal, rouge avec un trait blanc il va faire cette opération
il est incapable de réfléchir et savoir si c'est réellement un stop ou autre choses
il ne fait que suivre un programme et l’applique
Malheureusement non ! Le programme d'IA que tu décris était vrai il y a 20 ans mais c'est plus le cas aujourd'hui !
En effet avant, une suite de conditions très précises, écrites par la main du programmeur permettaient de savoir si c'était un panneau stop ou pas. Dans ce cas, c'est l'homme (programmeur) qui transmet l'apprentissage (ce qu'est un panneau stop) à la machine. Et ça a les limites que a posé Le Monde: une impureté et la détection est erronée. Mais au moins ce n'est pas un algorithme boîte noire : On sait parfaitement ce que fait le programme.
Mais aujourd'hui c'est plus ça les algos d'IA et c'est bien plus performant. C'est un réseau de neurones qui va s'équilibrer, c'est a dire qui va apprendre à partir d'une banque d'images de panneau stop. Et lorsqu'il a une banque d'images suffisamment importante il va lui même trouver les conditions pour dire si c'est un panneau stop ou pas. Et certainement que dans ces conditions, on va retrouver ce que tu viens de dire: à savoir la forme hexagonale, le trait blanc... Mais aussi tout une myriade d'autres conditions qui vont peser dans la balance pour déterminer si oui ou non, c'est un panneau stop. Des conditions auxquelles le programmeur n'aurait même pas pensé.
C'est en ça toute la beauté des IA moderne, c'est le programme lui même qui détermine les critères et le poid des critères dans le résultat final (savoir si c'est un stop ou pas). On dit qu'il apprend. Et les résultats sont bien mieux que si c'était un programmeur qui avait naïvement transcris ses connaissances du problème au programme. Par contre ils dépendent de la banque d'images qu'on lui donne lors de son entraînement. (Il faut donc aussi s'assurer que dans cette banque d'images, il y a les cas limites comme celui proposé par Le Monde). Cependant, c'est un algorithme boîte noire: le réseau de neurones est tellement complexe à analyser et a tellement d'inconnus qu'on ne peut jamais être anticiper à 100% le résultat qu'il va donner pour une image donnée en entrée, sans exécuter le dit d'algorithme.
Si tu veux comprendre un peu plus comment fonctionne les algorithmes d'intelligence artificielle moderne, sans être trop technique, je te conseille la chaîne Science Etonnante (la vidéo apprentissage supervisée notamment)
souvent l'erreur est plus humaine que artificielle s'est a elle de savoir les conséquences de son IA
Certaines choses relèvent du fantasme (on voit que vous êtes allés au cinéma) il faudra espérer plusieurs siècles pour que l’IA arrive à égaler l’intelligence du cerveau humain (bien sûr je parle des humains qui on décider d’utiliser leurs cerveau et pas les autres 😅)
L’intelligence artificielle n’a rien d’intelligent justement, ça dépend de l’utilisation qui va en être faite et de la qualité de l’algorithme qui à été développé. Quand j’entends dire : « le logiciel réfléchit » ça me fait saigner des oreilles
Très très très juste. Les craintes d'Hawking seront peut-être fondés un jour, mais clairement pas tout de suite..
Pfiou ça fait beaucoup d'infos d'un coup !
J'ai deux questions :
1/ Il y as beaucoup d'entreprises avec 70% d'employés blancs ( elle troll celle-ci un peu ... )
2/ Et c'est rigolo je trouve que les Chinois prévoient d'investir dans l'informatique la même somme qui a été investie dans l'ISS en 20 ans xD ( bon ok , c'est pas une question ... mais c'est un peu troublant oO )
Il y a un peu trop de jump cut je trouve
Devriez lire Eric Sadin avant de dire des inepties. Ce sont ceux qui mettent les IA en place qui manquent d'éthique. L'IA ne fait que ce pourquoi elle a été développée. Que ces chantres qui se cachent derrière l IA expriment clairement leurs objectifs.
Pour Tay, il ya eu beaucoup de trolls qui on profiter de la situation (ils savaient comment le logiciel marché) qui ont commencé à harcelé le bot du messages du genres, résultats il en faisait de même. Difficile de prendre au sérieux ces résultats.
Ridicule, très ridicule.
L'IA n'est qu'un outil, la "moralisation de l'IA" n'a pas de sens : l'outil n'est pas moral, seul l'objectif de conception et l'utilisation peuvent l'être ou pas.
Exemple de l'analyse des candidatures à un poste : on lui donne une base de donnée où une catégorie A est meilleure, résultat elle apprend que A est meilleure ! Wahouh exactement ce qu'on lui demande ! Ce que vous voulez c'est justement de la discrimination ("positive")...
4:39 Bien déja quand on sait que les éleves de filière scientifique n'ont que très peu d'heures de philosophie ou l'on apprend les fondamentaux des sciences humaines (ethique, sociologie...) ce serait un première base de travail.
La philosophie en filière scientifique (et pour le BAC en général) est à brûler !
En filière scientifique on nous fait apprendre des stupidité dite par des personnes qui ne sont plus du tout philosophe dans notre époque. Et dans les tas d'abrutis qu'on étudie il y a un nazi, un détraqué sexuelle, un mec qui pensaient que la terre était plate et un mec qui dit que les maths ça sert à rien parce que ça sert que à compter. Et pas de femme ! La seul femme de tout le programme de philosophie du BAC est en filière littéraire et c'est même pas une philosophe mais une historienne !
Donc non il faut plutôt réformé la philosophie que en rajouter. Pour moi je pense qu'elle tue indirectement en empêchant l'évolution de la psychanalyse.
Donc il y a un exemple de mauvais algorithme qui discrimine et vous en déduisez que l'ia est mauvaise et va toujours discriminer ?
Ça veut dire quoi éthique?
Les écoles d'ingé proposent déjà quasiment toutes des cours d'éthiques. Ceux qui devraient en avoir c'est surtout ceux en commerce, c'est eux qui vont décider comment utiliser la technologie.
La question de l ethique dans le domaine de l IA est un faux probleme. Ou plutot un mauvais angle d approche. L ethique de l etre humain n est pas clairement definie et les maniere d agir ou de reflechir à une situation donnée a autant de possibilité qu il y a de personne. La question est comment avoir une etique commune raisonable et accepté par tous. Le probleme du tramway est tres connu et la reponse differe suivant si on se place ou non dans l equation. Comment apprendre à une IA à avoir une certaine ethique alors que nous ne somme pas à l aise avec ce concepte à notre echelle. (On apprendrait pas à conduire avec une personne qui n a pas le permis) je pense que l etre humain doit repondre personnellement à cette question de maniere profonde et globale avant de pouvoir esperer l enseigner.
5:12 vous voulez un robot avec une IA d'humaniste ? Moi je connais le docteur Henry Castafolte ! (Mais oui, le doc du visiteur du future pour ceux qui ne voit pas)
Pour info, des drones tueurs, qui analysent totalement leur environnement, détectent l'hostilité, existent déjà à la frontière entre les 2 Corées. À l'heure actuelle, l'autorisation de faire feu est encore sous le contrôle d'un humain, mais la technologie permettant D’être totalement autonomes existe déjà (et va se généraliser car si le drone est au milieu d'une guérilla, il lui faudra vite décider de tirer sans l'accord d'un humain)
Karl Marx effrayant...
0:24 Il faut d'ailleurs mettre de l'éthique un peu partout
Le terme IA ne devrait pas etre utilise (buzz word pas representatif de la realite)! Car elle n'existe simplement pas encore. Pour le moment, il vaudrait mieux parle d’algorithme. Concernant les "black box", il est vrai que certains algorithmes le sont MAIS il en existe egalement d'autres qui sont tres transparents (decision trees). Finalement, il existe deja des lois en Europe qui interdisent d'utilise des blacks box pour certaines applications (e.g: decision de donner un credit bancaire).
L’intelligence artificielle n’existe pas, pour le moment. Ce sont des systèmes experts !!!!!
Ou des modèles statistiques
Tyboth35 effectivement, ou des modèles statistiques.... MAIS PAS DE L’IA
Le cerveau aussi n'est qu'un système experts !
moi, rapide ? mais c'est un oxymore ! Absolument pas ! Car nous avons la conscience, la pertinence et le discernement. En plus d’une réponse binaire, nous avons la possibilité d’établir, en même temps, dans notre cerveau, d’autres réponses alternatives par un système de superposition. L’intelligence artificielle est un abus de langage… et pour enfoncer un peu plus le clou: silence radio de l’IA sur la crise sanitaire que nous traversons avec la Covid-19… Belle journée 😷🦠🙂
@@ThierryLothon non l'IA n'est pas un abus de langage car les animaux sont intelligents et pourtant des IA les dépasses (pas tous évidemmentprofil). L'abus de langage c'est de dire que l'intelligence c'est l'intelligence de l'homme.
La machine n'est pas binaire loin de là. Ses connexions sont binaires mais pas le résultat, comme le cerveau ! Les connexions du cerveau (les synapses) sont binaires.
Et puis Intelligence Artificielle est une définition. Tous comme un oreiller, je ne suis pas d'accord ce ne sont pas des oreillers mais des têtier. Néanmoins il faut parler la mais langue (ça me gène aussi).
IA faible (terme scientifique) définie une IA qui se concentre sur une unique tâche, sans émotion/sensibilité.
Déjà et si au lieu d'avoir des IA qui traitent les CV les RH faisaient leur boulot ?
Ba oué lé robo c d rasicte!
2:19 c'est mal expliqué ici.
C'est pas la faute de la machine, mais de l'homme. Ce sont les twittis qui l'ont appris cela.
Pour faire simple Tay, c'était un bébé de 5 ans super précoce qui apprends avec son environnement. Elle ne faisait que répéter et blaguer.
La machine n'est pas le problème, c'est toujours l'homme avec un grand H, le fautif.
Pour aller plus loin, je vous conseille la lecture de ce livre : evene.lefigaro.fr/livres/livre/christian-aghroum-la-grande-illusion-du-monde-numerique-5275615.php
Bonsoir,
Le sujet est très intéressant mais je trouve votre vidéo assez maladroite. Pour faire simple, voici comment on entraîne une IA:
On lui donne une donnée que l'on juge bonne, puis on lui dit : cette donnée est bonne.
On lui donne une donnée que l'on juge mauvaise, puis on lui dit : cette donnée est mauvaise.
On réitère cette opération autant de fois qu'on a de données. Plus on a de données, plus l'entraînement sera efficace, c'est à dire plus l'IA sera capable de deviner ensuite si ce qu'on lui donne est bonou mauvais.
Exemple 1: (1:05)
Je souhaite faire une IA qui reconnaît les panneaux de signalisation.
Je lui donne une photo d'un panneau stop, puis je lui dis : c'est un panneau stop.
Je lui donne une autre photo d' un panneau stop, puis je lui dis : c'est un panneau stop.
Si je lui donne une base de photos avec uniquement des panneaux stop parfaitement neufs, mon IA ne sera capable que de bien reconnaître des panneaux neufs. Cette IA sera facilement dupable par des panneaux stop avec des petits autocollants dessus. Ce n'est pas la faute de l'IA, puisque c'est moi qui l'ai entraînée. Le lien avec le dilemme moral 'sauver les occupants de la voiture ou sauver les piétons' est vraiment maladroit.
Exemple 2: (1:55)
Je souhaite faire une IA qui détermine l'orientation sexuelle d'une personne en photo. Je sélectionne des photos les personnes hétérosexuelles sourient et où les personnes homosexuelles haussent les sourcils. Ce n'est pas la faute de l'IA, puisque c'est moi qui l'ai entraînée.
Exemple 3: (3:05)
Je souhaite faire une IA qui choisit des bons employés parmi mes employés. C'est moi qui définis les critères pour entraîner mon IA. C'est moi qui décide de mettre la couleur de peau comme donnée d'entraînement ou pas. Ce n'est pas la faute de l'IA, puisque c'est moi qui l'ai entraînée.
Bilan:
La conclusion au fonctionnement d'une IA est dans votre vidéo est à 3:43. Tout dépend de la base de donnée choisie par l'utilisateur de l'IA. Il n'y a rien d'opaque, une IA, comme tout algorithme, n'invente rien. Certes son fonctionnement n'est pas entièrement explicite, simplement elle réagit à des données selon la manière dont elle a été entraînée. Dans l'exemple 3 à 3:05, ce n'est pas magique l'intelligence artificielle ne va pas elle-même trier les employés en fonction de la couleur de peau ou de l'université d'origine, ce n'est pas opaque non plus. C'est l'entreprise qui décide des critères de sélection qu'elle donne à l'IA. C'est exactement la même chose pour l'exemple à 1:55.
Et ça, ça n'a absolument rien, rien, rien à voir avec une IA. Utiliser des données de la mauvaise manière ou à mauvais escient n'est pas nouveau. Pour citer un exemple du paradoxe de Simpson, ce n'est pas parce qu'il y a une hausse des ventes des balais à chiotte en Inde au mois de Mars et qu'il fait plus chaud au mois de Mars aux États Unis que les deux sont liés.
Vous diabolisez presque un outil alors que c'est l'utilisateur qui est responsable de ce qu'il en fait. Les solutions que vous proposez dans la conclusion sont pleines de sens mais s'appliquent à l'utilisateur, pas à une IA dont le rôle est de faire ce qu'on lui dit.
Bonne soirée.
Merci ! Ca fait du bien de lire un commentaire aussi bien construit. J'ajouterai un autre exemple qui va dans votre sens : à 0:44 l'IA ne pourra ni détecter un frigo, ni un pingouin , ni un bébé nageur puisqu'elle ne sera pas entrainée pour. Elle détectera probabement un objet se déplaçant à une certaine vitesse dans une certaine direction, et prendra cette information pour prendre la décision la mieux adaptée.
Cet exemple peut parraitre anodin mais reflète à mon sens votre trop faible connaissance du sujet. En effet, il serait plus judiscieux de parler "DES intelligences artificielles" et non "DE l'intelligence artificielle", pour les raisons que @MG PC a citées : Les IA sont entrainées avec des données qui sont choisies par l'utilisateur, et qui sont bien sûr différentes et indépendantes en fonction de l'application souhaitée. SOIT des véhicules et des panneaux de signalisations, SOIT des animaux, SOIT des posters, SOIT de l'électroménager mais pas en même temps. (Ou bien des posters et des animaux si le coeur vous en dit mais surement pas des informations nécessaires à la conduite d'une voiture et des informations inutiles à la conduite)
@@charlesd6848 Merci,si par intelligence artificielle vous entendez réseau de neurones et donnés d'entraînement comme un ensemble vous avez tout à fait raison. J'entendais qu'un même réseau de neurones pouvait être entraîné sur différentes bases de données pour reconnaître différentes images
On ne parle pas d'intelligence artificielle dans cette vidéo mais bien de machine learning, et il faut faire le distinction. L'IA n'apprend pas à apprendre, le machine learning consiste à développer des machines apprenant à apprendre de leurs expériences tout comme le ferait un humain.
intéressant mais plein d'imprécision, sinon l'IA qui "déchiffrait" les orientation sexuel n'était pas performante, beaucoup d'erreurs sortant des marges d'erreurs admissible, enfin bref pas très sérieux pour un journal de cette envergure.
rep -1
Je suis personnellement plutôt défavorable à l'ingérence de l'IA dans l'économie et les administrations, mais certains arguments qui sont ici avancés pour la critiquer sont tout simplement faux.
Oui, le dilemme se pose de savoir si une IA va sacrifier le conducteur de la voiture en l'encastrant proprement dans un mur, plutôt que d'écraser le piéton en face. Mais au cas où vous ne l'auriez pas remarqué, le problème est exactement le même chez l'Homme, qui sera aussi confronté à la même indécision aboutissant obligatoirement à la mort d'une personne : cette évidence est un peu grosse quand même...
Ensuite vous nous expliquez que l'IA perpétue certaines discriminations à l'embauche si sa base de données est celle de salariés de l'entreprise, qui peuvent être blancs, bourgeois et tout le tintouin... Mais le truc que vous avez pas compris, c'est que la base de donnée... on peut la CHANGER ! ET OUI !!! Il suffit de transférer les informations traitées par l'IA de l'entreprise à une base extérieure qui prendra en compte la parité raciale et sociale en compte : or le transfert de traitement d'informations existe depuis 1994, avec la première transaction en ligne. On peut aussi simplifier la chose en "anonymisant" les CV, donc plus de noms à connotation supranationale, et en supprimant les photos.
Franchement... C'est pas sérieux quoi.
Je ne vais pas lister ici tous les petits manques de précision concernant la manière dont vous traitez ce sujet (et les sujets scientifiques en général) mais un exemple: la rétro ingénierie ou "reverse engineering" existe depuis la nuit des temps et n'est absolument pas spécifique à "l'IA" (en plus j'ai comme un doute que l'on comprendra un jour véritablement comment fonctionne un réseau de neurones).
"IA" parce que voilà.. Je ne pense pas qu'on puisse appeler les algorithmes actuels de "l'intelligence", je ne nie absolument pas qu'il y ait des enjeux éthiques et stratégiques, mais bon, soyons clair, on est loin de ce qu'est capable de faire un être vivant (même si c'est moins cool à raconter).
De plus, l'éthique est largement variable d'une culture à l'autre, demandez à un chinois (au delà du cliché), il n'aura absolument pas la même vision que nous concernant les données personnelles
Je sais que le format est court, que vous essayez de mettre le sujet à la portée de tous, mais j'ai tout de même l'impression que ça manque un peu de rigueur, mais je vous encourage à continuer à produire des vidéos de ce type car l'initiative est bonne :)
En règle général , l'humain n'a déjà que très peu d'éthique, il n'y a qu'à constater comme il a tout détruit autour de lui, je ne vois pas comment il va faire mieux avec les nouvelles technologies!
Le problème 1: oui faut être prudent
Le 2: Bah faut réfléchir avant de donner des données: par exemple pour les cv ne pas donner de photo, d'infos sur la religion, le sex, ect.
Solution 1: D’accord mais bon c'est très complexe et comprendre la machine ne la rend pas plus éthique donc bof
Solution 2: Bon bah là c'est juste donné des valeurs de base au étudiants mais ces de valeurs qu’à peu près tous le monde à en occident et si t'es pas d'accord ça pas te convaincre donc bof
Solution 3: Là surtout pas c’est la pire idée du monde d’encadrer la recherche pour qu’elle aille dans tel ou tel sens par ce que tout le monde fait (plus moins) ce qu'il veut et un organisme n'a pas à dire « ok vous avez le droit de faire des recherches là dessus » et vice versa. Ça bloquerait beaucoup la science et la liberté.
Bref je suis sceptique
vous dites n'importe quoi , la voiture autonome est un enchaînement de programmes, elle n'apprend pas par elle même donc ce n'est de l'intelligence artificielle
L'intelligence artificielle n'est pas forcément un programme qui apprend par lui-même. Je t'invite à relire la définition, car tu l'as mal comprise 🙂
Les Chinois investissent tellement d'argent dans ce domaine. Huawei aussi, par exemple, investit beaucoup d'argent dans le domaine des technologies.
Pas ouf l’ia sur le dernier Metro
Ridicule, quand le progrès fais peur tout de suite y a des gens pour vouloir le faire reculer....
Vous vous êtes trompés sur le sens du terme "rétro-ingénierie".
Faut pas s'indigner. L' intelligence artificielle n'est juste que le reflet de nous même de manière chaotique.
On peut bien sûr s'inquiéter (et c'est même souhaitable) de la place prise par l'intelligence artificielle. Mais quand on voit l'intelligence naturelle de certains, j'ai envie de dire "vive l'intelligence artificielle". Tout dépendra de l'usage qu'on en fera. Hitler n'avait pas d'ordinateurs et encore moins d'I.A. et ça ne l'a pas empêché de faire ce qu'il a fait (et le problème est qu'il n'était pas bête).
Une intelligence artificielle qui ne pourrait être distinguée d'interlocuteurs humains par les meilleurs psychologues qu'il soit et ce durant plusieurs années de conversation pourrait être considérée comme humaine.
J’ai du mal à saisir comment on peut intégrer de l’éthique dans une machine , cela reste des formule , des lignes de codes suivants des conditions et non des sentiments .
On parle de mettre de l'Homme dans l'intelligence artificielle, n'est-ce pas paradoxal ?
L'Homme sait qu'il va créer un monstre qui va lui échapper un golem.
Le seul progrès de l'humanité c'est la médecine et les progrès dentaire le reste n'est que du superflu.
M.Zemmour a raison l'idéologie précède la technologie , c'est la volonté humaine qui donne la sens à sa vie .Être ou ne pas être ; c'est la seule question.
La seule chose que l'on va prouver avec l'IA c'est que l'Homme n'est pas nécessaire.
Il semble qu’on ne peut créer que des machines à notre image....
Faudrait donc pas leurs donner le pouvoir de manipuler des armements.
Non dans certains cas elle peut apprendre à partir d'exemples qui ne sont pas issus de l'homme.
j'ai sentie la vidéo en 50 fps XD
Les gens vont perdre leurs métiers. Il y a une opinion simpliste et naïve parmi un grand nombre - que d'autres métiers seront créés et la technologie ne représente pas un problème mais que la technologie va apporter des opportunités. Utilisez votre bon sens. Les gens vont perdre leurs métiers. Les gens vont perdre leurs métiers. Les gens vont perdre leurs métiers. La différence entre les riches et les pauvres va s’agrandir. Pourtant je ne suis vraiment pas communiste ou contre la technologie, mais si on ne règle pas bien la croissance et l'utilisation de la technologie, il y aura des niveaux de chômage et de misère inadmissibles.
Déjà pourquoi vouloir de l'éthique dans l'intelligence artificielle le bute d'une intelligence n'est pas justement de réfléchir par soi même de ce qui est bien ou mal alors pourquoi lui imposer une éthique de plus chaqu'un à ça propre éthique justement et donc on fait quoi dans ce cas là on fait des niveaux d'éthique dans les intelligence artificielle de plus vous avez dit que l'engeux de l'intelligence artificielle et devenus un engeux politique c'est cool mais moi je vois ça encore pire si la politique sans Melle et entre nous dire que les politiciens sont des personnes éthique est une blague là politique n'a pas eu pour but d'être bien ou mal elle a eu pour bute de stabilisé un état en bien comme en mal du coup on fait quoi on interdit au pays d'utiliser des IA bonne chance
Lire le roman "Un siècle de papillons" !
Et les bons coté de l'IA ?
/!\ avec ce qu'ils présentent, on a l'impression que les problèmes mauraux de L'IA ne sont dut qu'à des limitations technologie.
Pour ceux qui se demande comment une intelligence de niveau humaine peut déraper très vite, S4A sortie une série sur l'ia et le machin learning. Il explique les conséquence à partir de l'épisode 20 environ
Honnêtement j'adore vous entendre parler des ia on dirais ma grand mère
Justement ce qui rend le machine learning puissant c'est qu'il développe seul des algorithme au quel personne aurais penser
Le problème c'est pas les machine mais leurs donnés. C'est un peut comme si tu te plein qu'une personne sois raciste alors qu'elle a été éduquer par des racistes
L'opposé de la discrimination c'est le hasard. Si on veut pas faire des machines qui soient discriminantes alors il faut faire des machines qui choisissent au hasard. Tout simplement... Mais du coup c'est débile. Il suffit de faire du pile ou face pour tirer un sort au hasard.
Ça va être beau il y en a qui se cache rond derrière les robots pour discriminer les autres
Bonjour,
Cette vidéo contient de nombreux raccourcis, et même des contre-sens complet. Je ne peux pas juger de la justesse de vos vidéos pour les sujets que je ne maitrise pas, mais le fait d'en constater la faiblesse sur un sujet que je connais me force à me méfier des autres vidéos.
Si vous n'avez pas le temps, les ressources ou le personnel pour faire des vidéos au minimum non-fausse, il vous faut vous abstenir de faire des vidéos, ou vous contenter de sujets peut-être plus accessibles, s'il en est.
Si c'est le format que vous avez choisi qui ne permet pas suffisamment de développement, et vous contraint à tordre la réalité, alors de même, choisissez des sujets moins ambitieux.
on devrait pas parler d'IA. les reseaux de neurones ne sont que des algorithmes dernière génération qui fonctionnent il faut le conceder, un peu plus comme une boite noire que d'anciens algorithmes plus prévisibles, mais ca reste des algorithmes, il faudrait parler juste de reseaux neuronaux, ou au pire de machine learning. Car on est encore loin d'une "intelligence"
Au final, ce n'est pas l'IA qui a besoin d'éthique mais l'espèce humain.
Comme dit l'IA ne fait que reprendre les biais et les mauvais résonements des humains.
L'exemple de l'IA Tweeter de Microsoft est très parlant la dessus. Les horreurs qu'elle a pu dire était dû à des humains qui lui demandaient "peut tu dire ceci:" et l'IA ne fessait que répéter.
Sinon pour le reste de la vidéo, le reverse engeniering ainsi que les cours d'éthiques au université scientifique n'est pas nouveau (du moins j'en ai eu lors de mes études).
Enfin les "boîtes noires" sont à la base du deep learning, qui a permit des avancées énormes dans le domaine de l'IA.
جه إ هو عبارة