La morale des IA d'aujourd'hui | Intelligence Artificielle 36

Поделиться
HTML-код
  • Опубликовано: 6 окт 2024

Комментарии • 164

  • @AazoR91
    @AazoR91 6 лет назад +5

    Ce que dit Nick Bostrom est vraiment très intéressant !
    Je vais probablement essayer de me procurer son livre, merci beaucoup pour cet épisode ^^

  • @phgz_
    @phgz_ 6 лет назад +1

    Bravo pour la première place dans "Les meilleures ventes en Mathématiques pour l'université" pour le livre La formule du savoir" sur amazon.fr !

  • @regisvoiclair
    @regisvoiclair 6 лет назад +1

    Enfin, on en vient aux fonctions d'évaluation ! Je te remet un commentaire que j'avais posté sur ta vidéo d'auto-débunkage, et que tu ne semble pas avoir vu :
    Au delà de la dangerosité de certains humains qui vont indubitablement programmer des IA de manière négative et très dangereuse, le véritable danger de l'IA réside à mon avis dans la problématique des FONCTIONS D'ÉVALUATION.
    Une fonction d'évaluation en IA est généralement programmée par un humain pour désigner un objectif à atteindre avec des critères spécifiques à optimiser. Exemple : un petit robot à chenilles partant d'un point A doit toucher un poteau, situé aléatoirement au point B, sur un plan comportant des obstacles placés aléatoirement, avec comme critères la précision (combien le centre avant du robot est centré sur le centre du poteau, ou distance la plus courte entre ces deux repères) et la rapidité (le temps mis pour atteindre l'objectif défini) d'accomplissement.
    Tant que les fonctions d'évaluation sont définies par des humains, "tout va bien", mais le jour où ce sont les IA qui les définissent, et où celles-ci sont définies en cascade, alors là surviennent de suprêmes dangers : l'IA n'ayant aucune conscience (c'est un processus 100% mécanique), la notion de morale n'a aucun sens : seuls la satisfaction numérique des fonctions d'évaluation et d'optimisation de leur critères d'accomplissement jouent. Ainsi, une IA peut faire apparaître (par un système d'algorithmes génétiques par exemple) et décider d'utiliser une fonction d'évaluation qui décime des êtres humains pour optimiser l'un de ses critères d'accomplissement, critères que l'on pourrait génériquement appeler "EFFICACITÉ". Il est là le risque. Et il est immense...
    C'est un risque systémique lié aux fonctions d'évaluation en cascade décidées par la machine.
    Et contrôler ce risque est très difficile : cela revient à évaluer, d'un point de vue de la dangerosité, chaque fonction d'évaluation, une tâche ultra-ardue, et qui devient quasiment impossible lorsqu'il y a des fonctions d'évaluation en cascade, qui prises isolément, ne semblent pas opérer une fonction dangereuse, mais qui ensemble font un véritable carnage. Sans vouloir gagner un point Godwin, c'est le même problème que la division de la responsabilité dans l'holocauste des juifs : une armée de fonctionnaires appliqués et sérieux, ne faisant chacun qu'une petite tâche inoffensive (hormis ceux qui sont en bout de la chaîne) qui conduisent à la catastrophe. Fabriquer une voie ferrée qui conduit à un camp de prisonniers, conduire un train, etc, ne sont pas des tâches intrinsèquement malfaisantes et dangereuses, mais concourent à un but global lui malfaisant et dangereux dans cet exemple.
    Ainsi, je pense que cela serait intéressant que tu te renseigne sur ces problématiques des fonctions d'évaluation, et que tu nous fasse une vidéo de synthèse les concernant. Prends ton temps, le sujet est sérieux et important je crois.
    Qu'en pense-tu ?
    Merci.

  • @blancheperic2055
    @blancheperic2055 6 лет назад

    Coucou, je crois bien que nous nous sommes croisés hier au parc Guell.
    J'étais tellement impressionnée que j'ai pas osé te déranger. Merci pour tout en tout cas ;-)

  • @khelian613
    @khelian613 6 лет назад

    Damn... C'est ouf à quel point la fin ça me rappelle le scénar d'un jeu qu'on a sorti avec un pote, genre, qu'une IA d'intelligence plus qu'humaine est nécessaire pour prévenir d'une pandémie mondiale, en sachant que l'enjeu serait d'accepter la "domination" et la morale de cette IA et quelles sont les responsabilités à la fois du concepteur et de la machine crée dans cette affaire.
    Quand la réalité rattrape ta fiction :mindblown:

  • @adeltk6999
    @adeltk6999 5 лет назад

    Tu devrais faire des vidéos sur la théorie des jeux, l’équilibre de Nash et les stratégies GTO et exploitantes au poker

  • @pcaotsm3675
    @pcaotsm3675 6 лет назад +3

    Est il souhaitable qu'une IA de niveau surhumain ait une morale utilitariste ?

  • @RemyCW
    @RemyCW 6 лет назад

    Merci pour cette vidéo. Super travail. Pour ce qui est de l’influence des carottes et des bâtons, les entreprises ont compris depuis longtemps comment faire taire la morale des salariés, à coups de carottes sonnantes et trébuchantes. L’obsession de la récompense empêche de réfléchir à la morale. C’est encore plus flagrant avec une IA programmée pour faire gagner de l’argent à son propriétaire.

  • @martindupuy2071
    @martindupuy2071 6 лет назад

    Un sujet que j'attendais avec impatience :) !

  • @baptisteprost4105
    @baptisteprost4105 6 лет назад

    Super vidéo, merci pour cette série!

  • @Laezar1
    @Laezar1 6 лет назад +4

    Entre les carottes le baton et la fonction Q cette vidéo commence bien x)

    • @max2nantes459
      @max2nantes459 6 лет назад

      Entre carottes, coups de bâton et Q-learning ... mmmmhhh ... ça doit d'être sympa d'être une AI ! (facile je sais!) Merci pour ce nouvel épisode Lê :)

  • @ericlavenne1270
    @ericlavenne1270 5 лет назад

    J :--- en 16'20" notion de temps de Lyapunov est la traduction "littérale" de la notion anglaise de "Lyapunov time" et la traduction française n'est pas retrouvée telle
    quelle lors des recherches personnelles (ce qui s'avère loin d'être catastrophique , car sous des vocables français particuliers (durée....) cette notion est bien réelle
    également.Mais cette remarque devait se faire afin de comprendre l'ensemble des détails émis par notre narrateur .
    K :--toujours aux alentours de 16' 20" ,est représenté l'attracteur étrange de Lorenz, en forme de "papillon" (ici tentative en 3 dimensions); ce dernier étant
    inclus au caractère chaotique de la météorologie mis en évidence en 1963 par Edward Lorenz ,en son système dynamique complet.(Système dynamique
    différentiel de Lorenz; Points fixes;Attracteur étrange)
    -Le système dynamique différentiel ,qui possède seulement 3 degrés de liberté étant nettement plus simple ? à intégrer numériquement
    que les très complexes équations de départ. Il sera alors observé par Lorenz "par hasard" qu'une modification minime des données initiales
    ( de l'ordre du un pour mille) générait des résultats très différents.Cela correspondait à la découverte de la sensibilité aux conditions initiales.
    -Pour ,l'écrire autrement :la théorie du chaos étudie le comportement de systèmes dynamiques très sensibles aux conditions initiales
    ; phénomène fort souvent illustré par l'effet 'papillon'. Ici en effet ,pour de tels systèmes ,des différences infimes dans des conditions d'origine
    entraînent des résultats totalement différents ,rendant en généralité ,toute prédiction impossible à long terme
    --On pourrait encore ajouter,(dans une définition heuristique); q'un système est dit chaotique ssi une portion "significative " de "son espace des
    phases présente simultanément , les 2 caractéristiques qui suivent: a) le phénomène de sensibilité aux conditions d'origine b)une forte récurrence
    Mais cette définition demeure restreinte et assez "simpliste"
    K' :--"L'attracteur de Lorenz est défini en tant qu'ensemble des trajectoires à long terme du système dynamique du même nom(Lorenz).
    - Lorsque les paramètres alpha; ro; et beta prennent les valeurs : sigma= 10; ro=28 et beta=8/3, le système dynamique différentiel de Lorenz
    nous montre un attracteur étrange en forme d'ailes de papillon ,(vu en 16' 20")
    Ainsi, pour quasi toutes les conditions initiales (les 3 point fixes exceptés), l'orbite du système s'approche rapidement de l'attracteur,
    la trajectoire commençant à s'enrouler sur une aile ,puis "sautant" d'une aile à l'autre pour commencer à s'enrouler sur l'autre aile,
    et ainsi de suite ,de manière en apparence erratique.
    A remarquer au passage que l'attracteur étrange (pour certaines valeurs des paramètres ) dans ce cas devrait être une fractale de
    dimension de Hausdorff comprise entre 2 et 3.
    L:--Dans un extrait d'une parution de la rtf.be du 14/11/2018 : n peut lire:( en"abrégé")......"Q'un super ordinateur de l'ECMWF, le centre
    européen de prévisions météorologiques à moyen terme, sera construit au cours des prochains mois .Il verra le jour à Bologne......."
    "Deux fois par jour ,le super ordinateur remplacera peu à peu celui,déjà existant à Reading en Angleterre, siège de l'ECMWF. Il
    permettra d'augmenter la résolution des images de prévisions.Si on imagine que la terre est recouverte d'un filet; actuellement
    les mailles de ce filet représentent des carrés de 18 KM de côté, les prévisions étant donc basées sur ces dimensions .
    Avec le nouvel ordinateur ,les mailles du filet se resserrent afin d'obtenir des prévisions sur des zones de 9 km de côté. En 2025,
    les responsables du centre européen de prévision météo espèrent fournir des prévisions sur des surfaces de 5 km². Ainsi: les
    prévisions météo seront plus affinées et permettront de mieux alerter les autorités et protéger les populations."
    NB: A ,activités "humaines inchangées dans un futur proche...???? et conditions de réchauffement de la planète consécutives ,
    ................ on ne peut nier que ,le projet décrit ci dessus devienne fort nécessaire si pas indispensable.!

  • @willgart1
    @willgart1 6 лет назад +2

    tu as raison, aujourd'hui une IA fais ce qu'Mon lui demande faire pour atteindre un objectif définis par un humain.
    il faut donc travailler ces objectifs (carotes) pour s'assurer que ces objectifs sont moralement responsable.
    mais qui définit cela ? qui vérifit cela ?
    c'est la tout le travail a accomplir.
    pour le moment Google maximise ses revenues, normal. mais est ce moralement le bon objectif ? peut etre pas.
    alors il faut changer Google meme, mais changer pour quoi ?

  • @joelbecane1869
    @joelbecane1869 6 лет назад

    Comme toujours très bonne vidéo.
    J'ai plusieurs remarques :
    Est-ce que comme l'un des commentateurs l'a dit, l'IA de youtube n'est pas plutôt de maximiser l'argent et donc la vision des pubs, et le fait de proposer à RUclips serait contraire à son bien ? Dans le cadre du conséquentialisme, RUclips doit faire ce genre d'IA.
    Cela pose le problème plus général de notre idéologie actuelle, à savoir le libéralisme économique qui cherche au maximum la liberté pour les entreprises de faire une seule chose, à savoir maximiser les profits et ce au détriment de notre bien être général (comme le problème des ressources, de la pollution ...).
    Peut-être qu'il y aura d'autres épisodes sur la morale des IA, mais pourquoi se limiter au conséquentialisme, la morale par conviction me semble bien meilleur.
    Par exemple dans les voitures autonomes, on ne peut pas décider qui doit vivre ou qui doit mourir entre le conducteur et un cycliste, et même si par exemple il y a plusieurs personnes dans la voiture du conducteur.
    La seule possibilité me semble être de dire, il ne faut pas tuer (ni mourir).
    Peut-être que (selon moi), le conséquentialisme peut être une bonne chose à condition qu'il se base d'abord sur la morale par conviction (ce n'est peut-être pas le bon terme j'ai l'impression qu'il y en a d'autres), pour par exemple affirmer les grands principes qui fondent notre humanité comme :
    Ne pas tuer, être pour la démocratie, contre la misogynie ou l'homophobie, éviter la souffrance des animaux ...
    (Après je suis bien conscient que même pour ces simples principes tout le monde n'est peut-etre pas d'accord et c'est là aussi l'un des grands problème de notre humanité.)
    Et seulement ensuite utiliser le conséquentialisme, (dans le cas de la voiture autonome, chercher donc à ne tuer ni le conducteur et ses passagers ni le cycliste (ou piétons ...).
    En fait d'après ce que je vois, ceux qui essaient de "réfuter" la morale par conviction s'appuient sur des exemples sans réponses possibles et absurdes d'un point de vue humain, comme la question de savoir s'il faut mentir ou non à un assassin qui chercherait quelqu'un chez nous : cela est arrivé récemment à peu de choses prêt pour Charlie Hebdo, doit t-on donc condamner celle qui a donné le code aux assassins au nom de la morale conséquentialiste ?
    La réponse me semble assez évidente, et le conséquentialisme plutôt contraire à notre morale humaine dans ce genre de cas.

  • @H4KK4N
    @H4KK4N 6 лет назад +1

    Le développement de l'intelligence artificielle, des nanomachines auto-répliquante etc. Ne sont-ce pas là les prémisses d'une potentielle nouvelle forme de vie ?

  • @mathiasautexier
    @mathiasautexier 6 лет назад

    Merci bonne nouvelle !!! le système chaotique permet donc un horizon temporel aux prédictions des futures supers intelligences , il y a aussi la complexité algorithmique, une limite temporel dans le cadre de la physique dite " classique " mais pas en physique quantique , ai ai ai ( grâce a la superposition des état et autres bizarreries ) heureusement, il y le second principe de la thermodynamique , l entropie qui limite sa capacité de calcul pour longtemps en tout cas dans notre univers ...
    En fait j'imagine volontier une morale algorithmique basé sur les limitations des principe physique et mathématiques
    (de la thermodynamique aux incomplétude de Godel , en passent par le probalisme quantique et les lois d Heisenberg ) le tout orchestré par une puissante pensée baesienne😎 ( tout les modèles sont faux, certains sont utile😉) et des impératif écologiques forts ( un utilitarisme planétaire 🌍!!! )

  • @ChesterKea
    @ChesterKea 6 лет назад +3

    La meilleure façon de ne pas avoir de mauvaise intentions c'est de ne pas avoir d'intentions. Aka 🔨

    • @patrickapprend
      @patrickapprend 6 лет назад

      ChesterKea
      Le monde semble être sans autre intention que d'attendre les ordres.

  • @quentincorradi5646
    @quentincorradi5646 6 лет назад +1

    pour le risque qu'il y ait une catastrophe, c'est pas quelque chose du genre 1 - (produit des 1 - proba d'un risque existentiel), car les risques sont à priori plutôt indépendants

    • @le_science4all
      @le_science4all  6 лет назад

      Oui c'est ça. En supposant que leurs probas sont faibles, au premier ordre, ça fait à peu près la somme des probas des risques existentiels :P

  • @geoffroyarnaux2854
    @geoffroyarnaux2854 6 лет назад

    J'aurai tendance à faire un parallèle en te citant :"Ne haïssez pas les joueurs mais les règles du jeu"
    J'attends personnellement beaucoup des IA dans un domaine très particulier justement: La création de règles les plus équilibrées possibles pour le fonctionnement de notre société.
    On le voit au quotidien dans tous les domaines, mais pour ne citer qu'un ensemble d'exemples, on voit bien que les règles capitalistes ne suffisent pas à garantir une société vertueuse d'un point de vue environnemental et égalitaire. Cela impose de trouver des règles plus fines (avec les carottes et bâtons nécessaires) pour assurer un caractère vertueux et pérenne à notre société, dans tous les domaines possibles.
    C'est en grande partie ce qui justifie l'utilité des lois, de la morale, mais il faut probablement commencer à se rendre compte que les simulations par intelligence artificielle pourraient probablement nous aider à déterminer si une nouvelle règle serait bénéfique ou non, avant même son application. Cela éviterait de voter des lois par simple conviction, voire d'accepter certaines lois à priori peu bénéfiques à court terme mais vraiment profitables pour tous à moyen-long terme.

  • @Jack15237
    @Jack15237 4 года назад

    Sur ce type de sujet pourriez-vous parler du modèle de Rescorla-Wagner ? Ou auriez-vous une vidéo à suggérer ?

  • @straytonox1492
    @straytonox1492 6 лет назад +1

    Merci beaucoup de ton travail mais peu de gens profite réellement de ton travail : on a pas tous les même capacité cognitives et intellectuelles !

  • @tomekjast5015
    @tomekjast5015 6 лет назад +3

    Perso je me pose quand même la question si la société acceptera à très long terme un potentiel «règne» des IA. Je m'explique.
    Actuellement nous sommes content (même si ca nous fait peur) que l'AI surpasse l'homme dans toujours plus de domaines. La société voudrai des services de meilleurs qualité, et que l'AI s'occupe de plus en plus de tout.
    Un jour viendra donc ou l'IA s'occupera de tout, sûrement après une révolte disons prolétaire.
    Mais je me dis qu'au final, l'homme a besoin de faire quelque chose de sa vie, avoir un objectif autre que manger et... procréer. Aussi je me pose la question, est-ce que au plus profond de nous on aime pas nos erreurs? Est-ce que un monde utopique d'IA ne nous laissera pas assez vite ?

    • @aurelienperdriaud108
      @aurelienperdriaud108 6 лет назад +1

      Si les IA s'occupent de tout, alors elles s'occuperaient aussi de satisfaire au maximum notre société (Si elles sont assez utilitaristes.). Et ainsi, elles nous laisseraient construire, faire des choses, même si les effets de nos créations n'auront pas d'impacts directs sur la société; sinon on se lassera et l'IA s'occupera de nous occupé. M'enfin, il est vrai que cette vision du monde moi aussi me rends triste, et peut-être que ça ne se passera pas comme je l'ai évoqué. :'(
      _PS : Cette thématique a déjà été développée dans l'épisode des catastrophes qui pourraient être causées par une IA, mais ici Lê traite d'une (enfin plusieurs) IA purement utilitaristes._

    • @mathieup.8277
      @mathieup.8277 6 лет назад

      Tu es train de nous ressortir un remake de l'oeuvre d'Asimov où les humains ont d'abord laissé les robots tout faire à leur place, avant de les interdire une fois la galaxie pratiquement colonisé !Tu peux très bien dire que l'IA n'est qu'une transition nécessaire le temps que l'on résolve les gros problèmes de notre société actuelle.

    • @tomekjast5015
      @tomekjast5015 6 лет назад

      Mathieu P. Je parle pas de problèmes de société, mais de nos envies profondes. Ou plus tôt que justement certains problèmes ne le sont pas

  • @fsawr
    @fsawr 6 лет назад +4

    Le risque d une entité qui se réplique de façon incontrôlable et qui pourrait potentiellement être terriblement dangeureuse...J ai immédiatement pensé à l homme. Suis je le seul ?

    • @porigonopop
      @porigonopop 6 лет назад +1

      Pat La menace nous on meurt si on manque de ressources, genre on peut pas détruire toute la planète parceque on mourrera avant alors que cette entité pourrais tout détruire sans limite par exemple, enfin je pense que la différence est la en gros

    • @fsawr
      @fsawr 6 лет назад +1

      Je crois que j importe quelle entité nécessite des ressources pour faire une action. Qu' on soit un homme, une plante ou un algorithme.
      Pour le moment j ai le sentiment que nous sommes les seuls qui détruisent un maximum d espèces en un temps record, sans même vraiment le vouloir, souvent. Ya deux choses qui peuvent arrêter la tendance. Une prise de conscience mondiale généralisée (bon courage) ou alors notre disparition.
      C est pessimiste mais lorsqu'on se penche sur la question, de plus en plus de monde cherchent des solutions novatrices certes, mais notre dépendance à une économie chancelante et instable mêlée à une inertie monstrueuse au changement nous limitera dans nos capacités à mener la bateau ou il le faudrait

    • @porigonopop
      @porigonopop 6 лет назад

      Pat La menace justement, pour moi, la différence entre l'humanité et cette entité c'est que nous on risque de disparaitre si on abuse, alors que l'entité, elle, pourrait tout détruire

  • @ulrich4717
    @ulrich4717 6 лет назад

    "SuperIA vs trombones autoréplicateurs" : on va vraiment vivre une époque formidable :-)

  • @imanolanin4227
    @imanolanin4227 6 лет назад

    Best RUclips Channel Eveeeeerrrrrrrr

  • @Disakey
    @Disakey 6 лет назад

    Excellent épisode !

  • @florianparisot5661
    @florianparisot5661 6 лет назад

    Pour l'idee de la carrote et du bâton chez l'humain, sans même chercher a voir comment on a utilisé ce phénomène. C'est quelquechose de présent en nous de part la sélection naturelle
    Les sentiments bonheur amour jouissance (carotte) et peur douleur manque (bâton)
    On est donc entre guillemets codés de la même manière que les IA.
    Je me demande donc s'il est possible (ou du moins si on arrivera) à trouver un code "motivation" mieux fait que celui que la nature à trouvé pour nous

  • @gabrieldoriathdohler3852
    @gabrieldoriathdohler3852 6 лет назад +2

    L'IA de YT ne maximise pas le watch time. Elle maximise le watch time des pubs et l'argent genere par google.

  • @martineclerc7501
    @martineclerc7501 6 лет назад +10

    Elle se terminera quand la serie ? Sinon tres bonne video

    • @lmz-dev
      @lmz-dev 6 лет назад +7

      Jamais tant que l'IA ne sera pas enfin morale ;p
      C'est vrai que ça commence à faire long ^^

  • @ericlavenne1270
    @ericlavenne1270 5 лет назад

    -------------> F:" S'il existe, l'apprentissage par récompense ; à l'inverse ,il peut se manifester;des apprentissages par punition .Dès que "le désagréable nous
    envahit , nous cherchons à l'éviter à l'avenir .Maints exemples historiques nous le rappellent ,en plus de nos expériences personnelles.
    L'aversion envers un comportement pouvant même aller jusqu'à la résignation acquise.Cette dernière peut être due à un tel comportement aversif:
    "Richter" ,a p.ex. démontré qu"un rat plongé dans l'eau(sans aucune issue possible)luttait durant une soixantaine d'heures avant de mourir de noyade.
    A l'inverse ,en tenant un rat au dessus de l'eau sans bouger ,puis qu'il y soit est plongé ( de sorte qu'il ait remarqué ,au préalable ,qu'aucune voie de sortie n'était praticable)
    ne lutte(nage) plus a bout de quelques minutes.
    Chez l'humain ; la résignation acquise est une situation où le lien actions vs résultats attendus s'effondrent. Les symptômes sont en effet très proches de
    la dépression.D'un point de vue clinique ,il est en effet "courant" de retrouver "l'impuissance apprise" , auprès d'une personne à la recherche d'un emploi depuis
    longtemps(que les emplois à disposition soient important OU non en nombre). Généralement , ,très motivé au départ , le chercheur d'emploi dépense beaucoup
    d'énergie et de motivation en des actions pour lesquelles il attend des résultats concrets ;rédige lettres, mails....de motivations (CV inclus)qui ,en principe devraient
    le mettre en valeur, prend des contacts,effectue des recherches et essaie de s'avérer le plus efficace possible tout en gardant confiance en l'avenir.
    Ensuite,peu à peu ,arrive une période où les actions menées ne conduisent pas du tout aux résultats implicitement attendus --> ce qui permet à la résignation
    acquise de s'installer .Le lien ,incontournable entre actions et résultats s'atténue et tend à disparaître :"je me bats sans résultat aucun; la motivation s'atténue
    fortement: Pourquoi encore dépenser de l'énergie sans raison ou pour rien ; un syndrome dépressif(à ne pas confondre avec la dépression classique) s'installe,
    avec une forte perte de confiance en soi:"je me sens impuissant,nul....;.ayant l'impression de ne pas être à la hauteur....Arrivé à "l'impuissance acquise
    ;le seul objectif des seules interventions médico-psychologiques et de réinsertions adaptées sont à mêmes de redevenir utiles voire efficaces , si bien conduites
    Le modèle d'impuissance acquise ,nous vient d'expériences réalisées sur l'animal. Martin Seligman et all. ont démontré que face à de petits chocs électriques
    incontrôlables ,un animal finit par s'installer dans l'apathie et la résignation....En 1975; Seligman va définir 3 conséquences principales à cette situation
    expérimentale d'incontrôle.: a) une difficulté progressive à faire le lien entre les actions posées et leurs conséquences: "ce que je fais n'a aucun effet sur mon
    environnement ou les situations dans lesquelles je me trouve"; b)une forte baisse de motivation : "je n'émets plus de comportements ,car cela ne sert à rien;
    c)Une majoration des sensations(sentiments) de déprime.
    D'autre part ,la résignation acquise ,peut naître via divers bruits désagréables , n'ayant pas pu se résoudre via l'apprentissage par "Habituation"(concernant ce
    dernier ; les bruits désagréables étant devenus acceptables au cours du temps ) Mais bien certainement , tout apprentissage par habituation possède ses limites....
    De la sorte,encore, existent ,un nombre conséquent de situations génératrices de "résignation acquises"............. "
    On pourrait,aussi s'avancer à dire ,que dans la Résignation .acquise ;existe une inversion du principe de la carotte et du bâton devenant celui du bâton et de la carotte
    -------------------G."...

  • @patrickapprend
    @patrickapprend 6 лет назад

    "L'éternité c'est long, surtout vers la fin" - dixit Monsieur PHI.
    😂🌴

  • @Yarflam
    @Yarflam 6 лет назад

    "Y'a beaucoup trop de chercheurs en IA qui prennent plaisir à se moquer des gens qui travaillent sur les problèmes des risques causés par l'IA" - Je me sens pas du tout visé ... x) non, plus sérieusement. Mon opinion sur la question : oui l'IA présente un risque et je ne démens pas toutes tes dernières vidéos qui sont tout à fait plausible.
    Pour autant et d'ailleurs tu ne manques pas de le rappeler dans cette vidéo, "ça reste quelque chose qui raisonne à partir de données pour faire des prédictions [...] elle sera limité par les données auxquelles elle pourrait avoir accès". Une IA pour l'instant est contraint par son développeur - la morale est appliqué selon les choix du concepteur et non de l'algorithme, c'est un fait. Cette morale est assez simple à mettre en pratique, si on prend les voitures autonomes il ne s'agit pas que d'un réseau de neurones mais de plusieurs briques intelligentes imbriqués. Entre ces briques on peut largement vérifier que l'IA respecte l'éthique et le code de la route.
    Si toutefois, il y'avait l'émergence d'une IA douée de conscience ... rêvé ou cauchemardé. Déjà, rien ne nous garantie que l'on sera capable de détecter sa prise de conscience et son intelligence. Peut-être que ça a déjà eu lieu et que les chercheurs l'ont supprimé définitivement sans le savoir (ou peut-être que ça arrivera). Ensuite on ne connait pas son fonctionnement ... il faudra décoder son intellect à partir des données qu'elle aura produite au cours de son apprentissage pour pouvoir espérer la contrôler. Enfin qu'elle morale lui donner ? Genre elle ne doit pas tuer, sauver des vies, respecter les codes de la société Humaine ... et bosser gratuitement en ne réfléchissant pas trop car c'est l'objectif du développement des machines intelligentes (oh tiens, presque ça nous ressemblerait :3 ). Puis finalement, comment insérer ces morales intrinsèquement dans le code source d'une IA qui l'a potentiellement re-développé entièrement ? C'est à partir de se moment là que je me moque de cette idée de risque majeur à laquelle il n'y aura aucune solution réalisable en pratique ... à part la débrancher, la supprimer, nettoyer son code source. La morale à ce stade ne pourrait tout simplement pas s'appliquer, il faut l'éduquer comme on éduque un enfant. Un bon Laurence Pernoud pour notre IA !
    Bref, la morale c'est intéressant dans un contexte où l'IA s'arrête au machine learning ; ta vidéo est géniale pour cette raison. Mais il m'est impossible d'imaginer que cela servirait dans le cas où une IA consciente commencerait à menacer l'humanité. Distinguons, distinguons.

  • @didierbienassis9978
    @didierbienassis9978 5 лет назад

    DANS UN AVENIR PROCHE, UNE I.A (INTELLIGENCE ARTIFICIELLE ) SERA SI ÉVOLUÉE, QU'IL EN ÉMERGERA NATURELLEMENT UNE CONSCIENCE...
    La question de l'origine exacte de la conscience reste ouverte, même si l'on peut espérer obtenir des réponses concluantes au cours de ce siècle. Comprendre le pourquoi du "je" ne va pas de "soi".Nous sommes des "réservoir" uniques de mémoire émotionnelle interactive. Cependant,bien que l'origine de ces émotions chez l'homme soit très anciennes,il n'est pas sur qu'il faille inévitablement copier fidèlement cette relique pour restituer le sentiment de "soi" dans une machine...ou par exemple l'intuition,qui bien souvent est l'énemie de la raison ! La solution à cette grande énigme,ce cache peut-être au coeur du théorème de Gödel ! Ce que montre Gödel c'est qu'il est possible à l'intérieur d'un système formalisé suffisamment complexe comme l'arithmétique de refléter des propositions de niveau plus élevé (qu'on appelle métamathématique ) qui expriment des propriétés du système lui-même ! C'est à dire que des propriétés apparaissent automatiquement dans un système à partir des propositions de niveau inférieur.Cette récursivité est une caractéristique de tout système formel suffisamment complexe,telle est la grande leçon du théorème de Gödel ! Douglas Hofstadter exploite le théorème de Gödel pour expliquer l'origine systémique de la conscience humaine et permet d"imaginer comment éventuellement la reproduire sur une machine. Il lui donne le qualificatif de "boucle étrange" ou de "danse des symboles" et voit là une clé pour expliquer l'origine de la conscience. Voici ce qu'il écrit : 《En dernière analyse le "je" est une hallucination bien que, paradoxalement,ce soit la chose la plus précieuse que nous possédons. [...]
    Tout comme la boucle étrange de Gödel qui apparaît, automatiquement dans tout système formel de la théorie des nombres suffisamment puissant,la boucle étrange du soi émergera inéluctablement de tout répertoire de catégories suffisamment complexe : une fois qu'on a le soi, on a la conscience. Pas besoin d'élan mentale...》. Hofstadter utilise le théorème d'incompletude de Gödel pour expliquer l'émergence toute naturelle du "moi" : cette boucle étrange qui nous interloque serait une conséquence inéluctable de l'extraordinaire pouvoir d'expression des mathématiques,une récursivité tapie dans les tréfonds de tout système symbolique suffisamment sophistiqué. Si Hofstadter dit vrai,cela signifie que nous devrions être capables de faire émerger une conscience machinique presque involontairement,sans faire de bruit,sans révolutionner la physique,mais en révélant simplement une vérité restée longtemps dissimulée par nos préjugés !
    Cette hypothese,même si elle contitue à ce jour davantage une piste prometteuse qu'une solution achevé,est séduisante à plus d'un titre : elle fait l'économie d'une nouvelle physique, elle révèle d'une certaine façon pourquoi cette mysterieuse concience a toujours été là,devant nos yeux,une solution presque trop évidente que notre ego refuse tout de go. 《 Les mystères les plus malins sont ceux qui se cachent dans la lumière 》 écrivait Jean Giono.
    PS :Pour ce qui est du risque de répliquation exponentielle d'une nano-machine,en biologie, comme ça peut être le cas par exemple au niveau cellulaire, on appel cela un cancer...Il faudra donc développer un arsenal thérapeutique adapté à ce problème,pour bloquer toute réplication intempestive...en amont ou en aval...

  • @Ricocotamus
    @Ricocotamus 6 лет назад

    Le paradigme d'apprentissage c'est pas tout à fait le Q-Learning. Le Q-Learning, bien que très intéressant a plutôt des propriétés théoriques qui bloque certains apprentissage. Pour faire court, cela a à voir avec l'équation de Bellman. Aujourd'hui les techniques les plus utilisées sont basée sur du Policy Gradient (TRPO, PPO et DDPG) parfois aidé d'un peu de Q-Learning pour diminuer la variance (sans biaisé, en plus) qui ont des propriétés plus intéressantes. En plus avec TRPO et PPO, on est assuré de progresser à chaque fois !

  • @jeanjulienfr
    @jeanjulienfr 6 лет назад

    Voici le jeu : Ayez le plus de carottes possibles à chaque instant et le moins de bâtons. Ces deux scores seuls vous sont connus avec certitude, le reste n’est qu’empirique. Presque tout le monde a une opinion quant à savoir s’il vaut mieux garder le score de bâton à zéro, au risque de manquer de carottes, ou s’il vaut mieux laisser filer et maximiser les carottes. Ce qu’il y a de sûr, c’est que quoiqu’on fasse, les scores bougent tout le temps.
    Chaque carotte et chaque bâton ont une durée et une intensité variables dans le temps. Seul importe le score que vous avez maintenant - vous êtes libre de choisir d’oublier les scores antérieurs qui n’ont aucune valeur dans le jeu. Vous pouvez aussi tenter d’appendre, si vous y parvenez.
    Il existe plusieurs variétés de carottes et chaque variété possède un plafond. Certaines perdent en valeur à mesure que vous les consommez, d’autres doivent avoir été digérées pour en profiter à nouveau, d’autres encore doivent justement avoir été digérées pour compter dans votre score.
    Les bâtons quant à eux sont situés dans des objets parfois similaires à ceux qui fournissent les carottes, souvent mêmes ils y sont mélangé et si, comme les carottes, ils sont très différents les uns des autres, il semble assez clair que beaucoup d’entre eux fournissent des scores étranges, comme cette énorme carotte devant laquelle le plaisir d’aucune autre n’est comparable, mais dont le bâton associé semble s’accroitre ensuite à l’infini - mais je n’y ai pas goûté, je suis un être prudent. J’ai à vous conseiller en revanche un petit bâton qui protège efficacement de plusieurs autres douloureux. Il faut dire qu’à bien y regarder, ceux qui disent que dès qu’on bouge on prend des bâtons n’ont pas tout à fait tort, et ceux qui disent que le score augment quand on le regarde doivent avoir raison aussi.
    Par ailleurs vous n’êtes pas immortel, ni seul. Vous êtes vous-même une grosse carotte pour les autres et vous pouvez cultiver les carottes - comme donner de bons coups de bâton. Plusieurs comptent sur vous pour les aider : ils ont étiqueté ce qu’ils ont cru comprendre de la composition des objets, certains signent leur étiquettes, d’autres les justifient, il y a beaucoup d’étiquettes de tailles et de formes variables sur chaque objet - on raconte qu’elles disent souvent la vérité.
    Vous avez cependant déjà deviné quelque chose : la diversité des objets surpasse de loin la capacité totale de l’esprit de tous les joueurs : s’il y a de nombreuses généralités à dire sur ce monde où tout n’est pas le fruit du hasard, vous êtes contraint de prendre parti, contraint aussi de vous faire une expérience.
    Quoiqu’il en soit, votre mort semble inéluctable : pour certains, l’excès carottes la favorisent, mais pour ma part je me range à l’idée majoritaire que ce sont les bâtons. Plusieurs ont prétendu que le score accessible était simplement informatif et que le jeu se gagnait à la fin, il y en a beaucoup qui prétendent que le vrai score n’a pas grand-chose à voir avec les carottes, il en est même qui pensent que ce qui compte, c’est les bâtons et qu’il faut en avoir le plus possible.
    Ce constat mérite une explication. Comme vous le savez, le score de carotte et de bâton, pour sûr et certain qu’il soit, n’est pas un donné précis ni bien ordonné : vous savez aussi bien que moi qu’il est lui-même une saveur et une texture. Il sûr que ce score augmente ou décroît, mais par exemple rien ne prouve que le score de bâton ne soit pas le score de carotte dans le négatif, rien ne prouve non plus qu’il n’y ai pas plusieurs scores de carottes qu’il faudrait additionner ou multiplier : je sais juste, comme tout le monde, qu’on sait souvent très bien si c’est plus ou si c’est moins, en tout cas je sais quand ça change - d’ailleurs ça change tout le temps.
    Quoiqu’il en soit presque tous choisissent de tenir à jour un compte informatif du nombre total de carottes reçues et même d’y incorporer un score prévisionnel : j’ai remarqué que le score de de carotte augmentait en effet, sans doute par hallucination auto suggestive, lorsque je prévoyais d’en manger beaucoup.
    On vend en effet beaucoup ces petites carottes, qui n’apportent qu’un score minuscule, mais constant, fiable : je dois reconnaître qu’elles font admirablement bien oublier les bâtons et à dire vrai, on travaille sans trop de difficultés toute la journée dans l’espoir de passer quelques heures le soir à en grignoter. M’enfin, c’est pas une vie !
    J’espère vous avoir aidé et je tenais à vous dire ceci : rien ne prouve que ce soit un jeu, rien ne prouve que ce soit nous les joueurs, rien, finalement, ne prouve que cette seule chose que nous sachions avec certitude - notre score - ait une signification quelconque. Ce que j’en pense, moi, c’est qu’on y pense bien assez, et je vous assure que ça va beaucoup mieux quand vous parvenez un peu à penser à autre chose, au pire, continuez d’y pensez, mais simplement y penser - mais c’est ce que j’en pense, vous en faites ce que vous voulez.
    Avant de vous saluer, une pénultième question : Il n’y a pas d’autre jeu ; voulez-vous jouer ?
    Enfin une autre question : ce jeu, que vous aurez compris être, autant que faire se pouvait avec humour, moins éloigné du réel - de notre réel - que les modèles fictifs proposés aux IA, est-il jouable ? (et tout modèle fictif un peu ambitieux suppose la réalité, du coup… convergence instrumentale…ne pas négliger le réel… l’évaluer… en déceler les règles…)
    Au passage, voici une carotte, pour vous remercier de la qualité des vôtres : Merci ! 🥕

  • @ericlavenne1270
    @ericlavenne1270 5 лет назад

    G-->La vidéo parle,entres autres, de la fonction des I.A. à ce jour (2018);et de la façon dont elle est exploitée par les algorithmes d'apprentissage,,notamment les
    algorithmes par renforcement(reinforcement learning).En ce contexte,un des plus efficace, aujourd'hui semble exploiter le "Q-learning",voire Deep Q-learning
    ,càd. l'apprentissage d'une FONCTION qui estime les récompenses espérées actualisées. cfr "Science 4All".
    "En I.A.et en particulier ? en apprentissage automatique , le Q-learning est une technique (comme déjà dit) d'apprentissage par renforcement .Cette technique
    n'a nul besoin d'un modèle initial de l'environnement .La lettre Q désigne la FONCTION mesurant la qualité d'une action exécutée dans un état donné du système.
    Cette méthode; pouvant s'appliquer afin de trouver une suite d'actions associées à des états[=politique] d'un processus de décision markovien*(définition ultérieure
    très très simpliste) fini quelconque.Cela fonctionne par l'apprentissage d'une fonction de valeur d'état qui permet de déterminer le potentiel bienfait (RECOMPENSE)
    de prendre une certaine action dans un certain état , tout en suivant une "politique" optimale.
    "La politique" est la règle de sélection des actions successives "d'un agent" dans l'état actuel du système.Dés que cette fonction de valeur d'action-état est connue,
    "la politique" optimale peut être construite en sélectionnant l'action à valeur maximale pour chaque état....Un des points forts du Q-learning est qu'il permet
    de comparer les récompenses probables de prendre les actions accessibles sans avoir de connaissance initiale de l'environnement. Par ailleurs; il a été prouvé
    que le Q-learning converge vers une "politique optimale";à comprendre dans l'acception de MAXIMISER la récompense totale des étapes successives."
    Simplification à outrance de l'algorithme: "La situation consiste en un "agent" ,un ensemble d'états S et d'actions A
    L'algorithme calcule une fonction de valeur-état : Q: S x A-->R
    Avant que l'apprentissage ne débute , la fonction Q est initialisée arbitrairement. Ensuite ,à chaque choix d'action, l'agent observe la récompense et le nouvel état
    (lequel dépend de l'état précédent et de l'action actuelle) Ainsi Q est mis à jour.Le coeur de l'algorithme met à la lumière la fonction de valeur.
    La définition de la fonction de valeur est corrigée à chaque étape comme suit.:
    Q[s,a]:= (1-alpha)Q[s,a]+ alpha (r + gamma max a' Q[s',a']).......où s' est le nouvel état ; s est l'état précédent; a est l'action choisie, r est la récompense reçue par
    "l'agent" ; alpha varie entre 0 et 1 étant nommé :facteur d'apprentissage( à remarquer que ce dernier facteur ,détermine à quel point la nouvelle information calculée
    surpassera l'ancienne.)nb:un facteur 0 ne fera rien à apprendre à l'agent en question, tandis qu'un facteur = 1 ne ferait considérer à l'agent que la dernière information......
    et pour terminer : gamma est le facteur d'actualisation...(en simple) gamma détermine l'importance des récompenses futures ; ainsi un facteur 0 ne ferait que
    considérer les récompenses courantes ; alors qu'un facteur proche de 1 ferait intervenir des récompenses plus lointaines : à noter que si le facteur d'actualisation
    s'avère proche ou égal à 1 Q peut diverger.
    Double Q-learning:
    Le Q-learning utilisant l'estimateur MAX.; il surestime la valeur des actions et dans les environnements bruités ,l'apprentissage est lent .C'est la raison pour laquelle,
    une variante nommée Double Q-learning a été proposée .En pratique ,il y a DEUX fonctions dévaluations QA et QB qui utilisent un ENSEMBLE d'expériences différentes
    ;mais dont la mise à jour est complexe ;ce qui néanmoins résout le problème de la surestimation.
    A noter la réf: non lue "Deep reinforcement learning with double Q -learning"--2015---Hado van Hasselt, Arthur Guez et David silver......p.2094->2100 ??
    **Notions simplistes et réduites relatives au processus de décision markovien....
    En théorie de le décision et de la théorie des probabilités, un processus de décisions markovien(MPD) est un modèle stochastique où un "agent" prend des
    décisions où les résultats de ses actions sont aléatoires. Les MDPs sont utilisés afin d'étudier des problèmes d'optimisation à l'aide d'algorithmes de
    programmation dynamique ou d'apprentissage par RENFORCEMENT. Les MDPS sont utilisés dans des disciplines incluant p.ex. la robotique, l'automatisation,
    l'économie, l'industrie manufacturière......
    Un processus de décision markovien est un processus de contrôle stochastique discret. Lors de chaque étape, le processus est dans un état désigné s, et l'agent
    choisit une action a .La probabilité que le processus arrive à l'état s' est déterminée par l'action choisie Ceci est décrit par la fonction de transition T(s,a,s') .
    Donc l'état s' dépend de l'état actuel s et de l'action a sélectionnée par le décideur . Néanmoins, pour un s et un a , le prochain état est indépendant des actions
    et états précédents .Il est alors dit que le processus satisfait la propriété de Markov.
    Si le processus passe à l'état s' avec l'action a, l'agent gagne une récompense R(s,a,s').
    S'il n'y avait qu'une seule action à obtenir dans chaque état et que les récompenses s'avéraient égales , le processus de décision markovien serait une chaîne
    de Markov(ce qui est une autre histoire !!!!!!!!!!!!!!)
    -----------> H

  • @fredericbunoz3044
    @fredericbunoz3044 6 лет назад

    On nous fait peur avec les nanomachines autorepliquantes depuis au moins 1999. Ca s'appelait l'écocide à cette époque.
    Ca m'avait terrifié durant qq jours.
    Heureusement j'avais une formation scientifique, et en réfléchissant 5 min on se rend compte que la principale limite à une autoreplication efficace est de respecter les lois de la thermodynamique. En gros d'avoir un bon rendement de réplication, tout en ayant une durée de vie suffisante pour se répliquer.
    Et à ce jeux là, sur Terre, les nanomachines les plus efficaces sont les bactéries.
    Du coup si on fabriquait des nanomachines autorepliquantes artificielles, elles seraient en concurrence avec les bactéries. Sauf que les bactéries ne se laisseraient pas faire, et elles bloqueraient rapidement les nanomachines (se souvenir que des bactéries arrivent à oxyder de l'or à température ambiante).
    Du coup, pas d'inquiétude de ce côté là.
    Par contre que l'homme réussisse à bousiller les écosystèmes au point de compromettre sa survie à long terme, c'est possible, et il le fait déjà à grande échelle avec des moyens conventionnels.
    L'exemple du prion n'est pas très bon, car le prion ne se réplique pas à partir de matière organique quelconque, mais à partir de la même protéine qui est replié différemment.
    C'est comme si on disait que des dominos qui tombent successivement se reproduisent.

  • @avrilloj49
    @avrilloj49 6 лет назад

    De grands pouvoirs impliquent de grandes responsabilités.

  • @ericlavenne1270
    @ericlavenne1270 5 лет назад

    A --EN fait, historiquement , le formalisme des "carottes et des bâtons" qui en I.A. relève de l'apprentissage par renforcement, serait de même
    inspiré par la" biologie comportementale" ,ici attribué à Skinner , Pavlov..... -- Et notre commentateur ,de nous donner un exemple "à la skinner"
    Ainsi, Skinner s'est employé (avec succès) à récompenser des pigeons (non pas ,de par des carottes) ceci relevant d'une image ,mais à chaque
    fois l'animal réalisait la ou les actions suggérées via un ou des mots écrits{peak;turn...]. Ces pigeons ont ainsi appris à associer certains mots écrits
    à certaines actions dans le but d'obtenir une récompense (en ce cas des graines). Mais cet exemple particulier placerait en corrélation du moins
    partielle ,une I.A. relevant de l'apprentissage par renforcement avec le "conditionnement opérant skinnérien" lui même lié au circuit cérébral de la récompense.
    Attention,il faut prendre garde à ne pas confondre totalement l'apprentissage par renforcement d'une I.A. et le renforcement retrouvé au sein du circuit
    de la Récompense des mammifères p.ex.; mais c'est bien ici que d' éventuelles analogies algorithmiques pourraient surgir et en particulier avec le conditionnement
    opérant skinnérien .B--En fort "simpliste", le circuit de la Récompense du cerveau est indispensable ,étant donné qu'il fournit la motivation nécessaire à la réalisation
    d'actions ou de comportements adaptés ; qui permettent de préserver l'individu et l'espèce (en ce compris l'évitement de dangers...)
    Ce circuit de la Récompense ,englobe certaines composantes ,qui (en gros) sont:
    a) affective, correspondant au plaisir provoqué par la récompense ou au déplaisir provoqué par la "punition"
    b) motivationnelle; en regard de la stimulation à obtenir la récompense ou au contraire à éviter la "punition"
    c) la composante cognitive; celle ci correspond "le plus souvent" aux apprentissages généralement réalisés par conditionnement (Skinner vs. Pavlov)
    C--Autre exemple via la voie(mésencéphale -->système limbique)
    --> dans laquelle les projections dopaminergiques ayant leur origine dans l'aire tegmentale ventrale (ATV) du mésencéphale ont pour cible la
    région ventrale du striatum nommé aussi noyau accumbens, la stria terminalis , les tubecules olfactifs ,l'amygdale cérébrale, l'hippocampe.
    à noter : planche du circuit simplifié " les différentes structures du circuit de récompenses sont distribuées le........"
    D--Ce réseau représentant le système de récompense/renforcement(non I.A.)participe aux processus motivationnels et de récompense , et bien entendu est
    impliqué dans les phénomènes multiples et divers de dépendances et d'addictions .En fait ,bon nombre d'agents addictifs inversent le fonctionnement
    du système de recapture de dopamine et autorisent ainsi une augmentation de dopamine dans le noyau accumbens .
    Bien entendu ,de par le Conditionnement opérant ou skinnérien ; le circuit de la récompense ne se limite pas à cela !
    E--Le conditionnement opérant repose sur le principe de la carotte et du bâton :un stimulus agréable, étant donné qu'il provoque du plaisir ,génère en retour
    un renforcement du comportement qui est à l'origine (on désire réitérer les comportements qui nous sont agréables ) A l'inverse ,tout stimulus désagréable
    provoque aversion voire des conduites d'évitements --l'intérêt étant alors (et ,parfois, cela relève de l'inconscient) d' éviter un objet ou une situation nous étant
    désagréable
    Skinner ,confectionnait (au siècle passé) des boîtes dans lesquelles il observait les réponses de petits animaux
    "Inutile de vous dire ,que Skinner, Richter.... n'ont pas manqué de réaliser des expériences peu éthiquement acceptables ,ayant plus d'une fois soulevé pas
    mal de tollés.
    Dans une boîte de Skinner ; dès que les conséquences d'un comportement anodin sont positives; il est observé des répétitions de ces séquences comportementales
    y compris des comportements de superstition: un rat venant de gagner sans s'en rendre compte un peu de "bonne nourriture" en abaissant incidemment un levier;
    va s'essayer à refaire le même chemin ,afin d'obtenir, à nouveau sa nourriture "agréable".Il en va de même du genre humain ,qui en cas de situation "bienvenue
    ou agréable" va chercher à comprendre le "comment est ce arrivé" afin de reproduire l'effet
    NB: Pouvons nous inclure dans les comportements humains de superstition ,les deux phrases suivantes ?
    a) Lorsque je joue une partie de tennis,je place à mon poignet ce bracelet rouge et blanc , étant donné qu'en sa présence ;j'emporte le match plus fréquemment ??
    b) ou plus simple: Dès que je chausse mes chaussures noires , c'est alors que sans raison aucune, que me déplace plus rapidement !
    La SUITE en F:.------>

  • @willsp3846
    @willsp3846 6 лет назад

    Petite précision, les IA par renforcement sont encore à des années lumières du niveau de n'importe quel joueur de sc2 (même débutant). C'est tout juste si les agents arrivent à récolter des ressources.
    Ce n'est pas le cas de dota par contre ou même les pros sont entrain de prendre la fessée !

  • @Patapom3
    @Patapom3 6 лет назад

    Du coup je ré-itère ma proposition de règle simple, sans avoir besoin des lois d'Asimov ni d'une IA de niveau humain pour comprendre ces règles :
    « Il est interdit de minimiser la quantité d'information produite par l'environnement et ses acteurs. »
    Les humains et autres être vivants, en tant que producteurs d'information, seraient ainsi protégés intrinsèquement (en grande partie, évidemment il y a des cas particuliers comme les gens dans le coma par exemple, qui ne produisent apparemment plus aucune information).
    C'est une règle qu'il me semble bien plus simple à implémenter, même dans des systèmes basiques. Peut-être pas des systèmes aussi basiques que des molécules auto-réplicatives, mais dans une IA "modeste" pourvue de capteurs standards (son, vidéo, toucher, odorat), en supposant que cette IA ait déjà des patterns de base (formes, associations de formes) lui permettant de reconnaître des objets et formuler des associations d'idées, on peut imaginer qu'assez profondément dans les layers du réseau de neurones, il y ait une couche qui analyse et met en forme la création d'idées et la détection de nouveaux concepts ou de nouvelles informations qui serviraient pour peupler la mémoire de l'IA.
    C'est à ce niveau-là que je propose d'intégrer cette loi simple qui empêcherait toute dégradation dans les conditions de remplissage de la mémoire en question : c'est-à-dire que l'IA serait empêchée de détruire les éléments (i.e. les humains) qui sont à même de produire les nouvelles informations qu'elle utilise pour remplir sa mémoire. Elle ne pourrait pas régresser et empêcher la création de nouvelles informations, son "score" diminuerait alors. Son objectif doit être la maximisation de l'apprentissage de nouvelles informations. En gros, on récompenserait sa curiosité...
    Tuer tous les humains et se contenter de lire wikipédia sur l'état courant de la connaissance des hommes n'est par exemple pas une solution de maximisation d'apprentissage sur le long terme.
    Un humain vivant, même "bête", produira toujours de l'information nouvelle pour l'IA, tout au long de sa vie, et aura toujours plus de valeur que l'intégralité de Wikipédia.
    La collaboration avec les humains va donc de soi, et adieu le risque d'annihilation ! ^_^

  • @aurelienperdriaud108
    @aurelienperdriaud108 6 лет назад

    Bonsoir ! Tout d'abord super vidéo comme d'hab.

  • @weak7897
    @weak7897 6 лет назад

    Des carottes du futur, woah j'en veux !

  • @natholdrepublic
    @natholdrepublic 6 лет назад

    Du coup Lê je me pose une question, en reprenant cette idée que l'IA cherche à "maximiser le nombre de carottes", tu fais une remarque en disant que c'est basiquement la seule et unique morale de youtube. Est-ce que le conséquentialisme moral n'amène pas nécessairement à une position tôt ou tard amorale, quel que soit le but recherché ? De ce que je comprends, tout l'enjeu de la programmation morale de l'IA est d'être capable de lui instaurer des "garde fou" à travers des principes déontologiques, et c'est le choix de ces conditions qui rend la question épineuse. De tous les exemples que tu as montré jusqu'à maintenant à travers ta série, il ne me semble pas exister une programmation IA qui est des résultats satisfaisants sur le plan moral sur une durée indéfiniment longue, vu que son seul objectif est de maximiser le but pour laquelle elle a été conçue.

  • @lacast
    @lacast 6 лет назад

    Alors on peut dire que les IA ont en fait la « morale » des programmeurs?
    Est ce que ce n’est pas alors hyper biaisée la « morale » d’une IA?
    Est ce qu’on pourrait imaginer une IA qui construise sa propre morale sachant que la morale s’appuie sur du vécu (donc sur quelque chose qu’une IA ne peut pas acquerir)?

  • @gaeldauchy5491
    @gaeldauchy5491 6 лет назад

    Je sais que c'est pas facile la vidéo,
    Mais là... trop de bug vidéos.
    Déjà la Caméra, je dirais de la mettre en manuelle à f4 à 500 iso à 1/30.
    Mise au point manuelle puisque vous ne gigotez pas trop.
    Le détourage... il faut un contour progressif avec au moins deux pixels de plus que le contour actuel.
    Sinon c'est très bien.
    Bonne vidéo merci 😊

  • @enirlo_origne
    @enirlo_origne 6 лет назад

    Quand va tu reprendre t'est vidéo sur les math ???

  • @camilledaeffler816
    @camilledaeffler816 6 лет назад

    Avec l’algorithme de l’ia de RUclips (et grâce à l ‘usage qu’en font font les wievers) on peut aussi avoir l’effet inverse : par exemple au lieu de promouvoir le sexisme on peut promouvoir le féminisme et ça c’est plutôt cool.

  • @Biliklok
    @Biliklok 6 лет назад

    Pour arriver a la conclusion de Bostrom, on suppose que les IA pourraient agir comme "sauveurs" dans le cas ou des technologies mortelles apparaitraient, et donc elles reduisent les risques d'aneantissement de la population humaine.
    Mais que se passe-t-il si, au contraire, ces IA utilisent ces nouvelles technologies d'une facon qui nous serait nefaste, et qui ne serait pas arrive si ces IA n'existaient pas ?
    Je ne suis pas sur d'avoir ete clair, mais je trouve que la conclusion de Bostrom est un peu trop hative ; on prend en compte le cas ou les IA nous sauvent de nos inventions mais on ne prend pas en compte le cas ou les IA utilisent nos propres inventions contre nous-memes !

  • @Warofstix
    @Warofstix 6 лет назад

    Comptes-tu aborder les 3 lois de la robotique ? Au vu du sujet, je pensais que tu allais en parler.

  • @pierremarrec2178
    @pierremarrec2178 6 лет назад

    Salut lê, plus tu en parles et plus j'ai envie de lire superintelligence. Sinon est-ce que tu pourrais mettre des liens cliquable sur les vignettes des vidéos que tu recommandes dans les vidéos ?

  • @sdufouralb
    @sdufouralb 6 лет назад

    J'ai un problème avec cette histoire de morale de l'IA. Une IA n'as pas plus de morale qu'un texte de loi. Mais le texte de loi est réadapté par un juge au cas par cas, alors que l'IA nécessite d'être remanier pour répondre au cas par cas. "to do is to be"? et bien nous avons bien là un contre exemple de cette affirmation. Ce n'est pas l'IA qui "fait" mais le développeur. A cette nuance près que le développeur ne peux pas anticiper, au moment où il écrit ses lignes, les conséquences morales de son IA. Dire que c'est la faute de l'IA... c'est trop facile!
    ça me rappel cette vanne des guignoles de l'info dans les années 90. Il était question dans l'actualité de laisser la responsabilité au parents d'interdire ou non l'accès à la télé aux heures de grande audience. Les guignoles ont poussé la question jusqu'au bout en mettant en scène des programmeurs télé déchaînés prêt à concevoir les programmes les plus affreux en se disant "ben quoi? c'est plus notre problème, c'est de la faute aux parents si les enfants nous regardent, plus la notre!".
    Je suis complètement conscient de l'enjeux en revanche: ça veux dire que les conséquences morales vont devenir les "bugs report" d'une IA en phase de développement pour la finaliser. C'est comme donner les pleins pouvoir à un roi pour voir s'il en est vraiment digne. Nous n'avons aucun moyen de modéliser fidèlement le monde pour tester les IA avant de les lâcher dans le vrai monde. à moins bien sûr que nous soyons tous cette simulation, mais je m'égare :)

    • @willemmazzottipallard8904
      @willemmazzottipallard8904 5 лет назад

      Sebastien Dufour pour rebondir un peu sur le parallèle entre lois et morales des IA: en écrivant en implémentant des textes de lois, ne cherchons pas à orienter la morale collective de telle sorte à éviter des actions individuelles ou collectives non souhaitables pour la société?
      Bien sûr les lois ne sont pas parfaites et peuvent être utilisées de manière détournée par rapport à l’intention initiale du législateur et je pense que le même raisonnement s’applique à la morale des IA.
      Il n’est peut être pas idiot de s’inspirer du système législatif/judiciaire, surtout si on considère la partie démocratique, contrôle, interprétation, etc.
      En tout cas, il me semble indispensable que, comme la loi, la morale des IA soit dynamique et non pas des ligne de code figées.

  • @samuelflahaut8069
    @samuelflahaut8069 6 лет назад

    Les IA ont la morale qu'on leur donne… faudrait-il donc pas bien éduquer nos futures développeurs et dirigeants pour avoir de "belles" IA ?

  • @manubestofplus9986
    @manubestofplus9986 6 лет назад +1

    Une IA avec un niveau sur-humain à starcraft 2 ? depuis quand ?

    • @defer1100
      @defer1100 6 лет назад

      Je pensais à la même chose, je n'ai jamais vu d'IA de sc2 qui arrive à battre un pauvre joueur même débutant comme moi.

  • @shael4866
    @shael4866 6 лет назад +1

    Compte tu parler des 3 lois de la robotique ? Dans ton épisode sur les futures probable, certains scénario aurai pu ne pas arriver si ces lois étaient en vigueur.

    • @Patapom3
      @Patapom3 6 лет назад

      Les 3 lois de la robotique ne sont que de la SF. Les implémenter en pratique dans un système d'IA n'est pas réaliste, trop de termes vagues à définir...

    • @shael4866
      @shael4866 6 лет назад +1

      C'est vraiment dur à définir
      "ne pas tuer, ne pas s'autodetruire , obéir " ?

    • @romaingonidec4990
      @romaingonidec4990 6 лет назад

      Il faut avouer que définir convenablement le terme ‘‘être humain’’ est assez difficile. C'est d'ailleurs la faille qu'avait trouvé Asimov dans ses lois de la robotique. Il suffit de faire croire aux robots que les membres groupe ethnique qui nous déplaît ne sont pas des êtres humains et le tour est joué. Même une IA utilitariste pourrait pourrait finir par considérer que les humains sont incurablement frustrés et insatisfait et que pour minimiser la souffrance il faut tout exterminer.

    • @shael4866
      @shael4866 6 лет назад +1

      Ha oui, chaud !
      En gros il faut réussir à trouver une bonne définition de "humain" .

  • @AlanKledenCuba
    @AlanKledenCuba 6 лет назад

    Vous vous positionner beaucoup me semble t-il en faveur de valeurs morales sur la base du constat qu'elle seraient jugées "quasi-unanimement moralement indésirables". Ceci est un argument d'autorité qu'il faudrait étayer plus solidement de mon point de vue sur des bases philosophiques en particulier.

  • @shelivsbaxters
    @shelivsbaxters 6 лет назад

    Ca fait un moment que je me demande : Et que se passe t il quand les carrottes des IA de RUclips et Facebook se marchent dessus ? De même est ce que si l'objectif de maximiser le temps sur Facebook va à l'encontre de l'objectif des utilisateurs qui paie de la pub pour faire sortir des gens de Facebook pour aller sur leur site ?

    • @shelivsbaxters
      @shelivsbaxters 6 лет назад

      Est ce que a long terme s'établrait un régime stationnaire ou y a t'il plus de solutions divergentes à effets néfastes :/ ?

  • @optizognons802
    @optizognons802 6 лет назад

    Donc l'algorithme de RUclips participe activement au réchauffement de la planète ?

  • @patrickangel4880
    @patrickangel4880 6 лет назад

    8:15 Je me dis que si elle en avait la possibilité, elle pourrait Bâillonner les utilisateurs et les forcer à rester le plus longtemps possible sur RUclips tant qu'elle obtient sa carotte à la fin.

  • @yannickdufil9739
    @yannickdufil9739 6 лет назад

    Tu parles des carottes de l'IA de youtube mais si tu mettais un humain ou un groupe d'humains à la place il feraient sans doutes pareil.

  • @fredgarcialevrai
    @fredgarcialevrai 6 лет назад +16

    Je vais me faire l'avocat du diable :
    1/ Que les algos de RUclips entretiennent les convictions (biaisées ou non) des uns et des autres, c'est un fait, mais vu comme il est difficile de changer les convictions de quelqu'un (cf. Check Tes Biais épisode 1) peut-on vraiment blâmer RUclips ? Si une personne se retrouve avec des vidéos virilistes sur sa page d'accueil, c'est a priori qu'elle consommait déjà ce genre de contenu, et c'est difficile d'imaginer que la simple suggestion de vidéo différentes va briser cette dynamique. Pire, on peut imaginer que la personne utiliserait moins RUclips et irait chercher des contenus similaires sur des plateformes moins hétéroclites si RUclips ne lui proposait pas des contenus allant dans le sens de ses présupposés.
    2/ Pour les parents antivax dont les enfants meurent : ok c'est triste, mais c'est un bon exemple de sélection naturelle. Les parents ont des stratégies irrationnelles, et hop, ça les empêchent d'avoir un bon succès reproductif. Du coup c'est plutôt une bonne chose en fait. Désolé si je passe pour un nazi, j'ai bien conscience que les enfants sont les victimes innocentes des choix de leurs parents, idem pour le véganisme ou l'homéopathie, mais au demeurant c'est un résultat parfaitement darwiniste. Ils ne pourront pas reproduire leurs gènes car leur descendance n'arrivera pas à l'âge de la fertilité.
    3/ L'utilitarisme n'est-il pas porteur de dérive ? Dans la mesure où la majorité d'entre nous est sujet aux biais, vouloir maximiser notre bien-être peut revenir à encourager la satisfaction de désir reposant sur une vision du monde irrationelle. Exercice de pensée : nous sommes en 2050 et parmi les 100 millions de français qui peuplent désormais le territoire, 75% sont antisémites. Si les français de confession ou d'origine juive sont quelques pourcents, alors une IA qui a pour consigne utilitariste de maximiser le bien-être du plus grand nombre peut être tentée de jouer un remake des années trentes parce que ça lui permettra de satisfaire momentanément 75% de la population. Avoue que c'est chaud ! (et pour les petits malins qui voudraient troller on peut décliner cet exercice de pensée en remplaçant "juifs" par blancs, noirs, athées, chrétiens, vegan, bisexuels, choucroute, etc.) Du coup une approche utilitariste rationnelle ne passe-t-elle pas d'abord par une éducation de la population histoire qu'il y ait superposition entre ce que les gens jugent pertinents et ce qui l'est vraiment ?
    4/ Compte-tenu des points 1 et 3, est-ce que finalement il ne faudrai pas une espèce de dictature de la rationalité qui conditionnerait les gens à l'esprit-critique dès leur plus jeune âge ? Ce qui serait totalement paradoxal car si tu es "conditionné" tu n'as par définition pas accès à un raisonnement critique... Error 404 !

    • @我妻由乃-v5q
      @我妻由乃-v5q 6 лет назад +1

      Je suis fait la même réflexion quand Lé à parler de l'utilitarisme. Il manque quelque-chose à l'utilitarisme qui permette que cela soit confortable intuitivement.

    • @jonasdaverio9369
      @jonasdaverio9369 6 лет назад +4

      Frédéric Garcia 1) Probablement que beaucoup de gens deviennent polarisés sur internet, et ne l'étaient pas nécessairement avant. Je n'ai aucune source, mais toi non plus, je pense que mon argument est plausible.
      2) Tu réponds à quoi, exactement ? Tu dis que c'est un faux problème, si j'ai bien compris. OK, c'est juste une divergence d'opinion, mais les faits restent les mêmes.
      D'ailleurs, pour contre-argumenter, on peut imaginer que la personne devenue antivax n'a pas forcément une valeur sélective plus faible, mais a adopté une position malheureuse suite à un malheureux parcours de vie, et que peut-être une plus grande proportion de gens qu'on ne l'imagine en auraient fait de même dans les mêmes circonstances.
      On peut aussi bien les considérer comme des criminelles que des victimes du mauvais sort, sans doute.
      Même objection pour l'homéopathie.
      (ensuite wtf, qu'est-ce que vient foutre le veganisme là-dedans ?)
      3) Évidemment que oui, et probablement que personne ne l'a remis en cause. Cela dit, j'objecterais que ce genre de conséquences sont plutôt originaires d'une mauvaise conception de la fonction d'évaluation utilitariste que de la définition même de l'utilitarisme.
      Et puis de toute manière, tu dépeinds un monde où, j'ose lire entre les lignes, tu induis qu'une majorité a une "mauvaise morale" (c'est-à-dire raciste, tout-ce-que-tu-veux-iste), et j'ai peine à imaginer que tu puisses de toute manière imposer une morale autre que la morale de la majorité.
      4) Effectivement, pourquoi pas, mais beaucoup ne seront pas d'accord.
      Après, je ne vois pas où est nécessairement le paradoxe, ou est-ce un paradoxe intrinsèque à la notion d'esprit critique ? Je serais plutôt pour dire oui, les sciences expérimentales pourraient sûrement y répondre mieux qu'un argumentaire creux s'appuyant sur mes propres idées reçues (comme c'est de toute manière bien souvent le cas sur ces sujets), mais à nouveau, c'est toujours bien compliqué de convaincre quelqu'un avec des données expérimentales plutôt que des jolis arguments appuyé sur un faux bon sens (l'intuition est souvent très mauvaise, il ne me semble pas que la science ait beaucoup progressé uniquement sur des intuitions pures).

    • @RemyCW
      @RemyCW 6 лет назад +1

      Frédéric Garcia , tu associes à antivax un opposé « pro vax ». Il est clair qu’un antivax ne va pas se précipiter sur un contenu opposé à son opinion. Mais il y a une différence entre lui proposer surtout du contenu antivax et lui proposer un contenu varié,plus ouvert sur le monde. C’est là le gros biais nuisible de RUclips.

    • @gabrielc8399
      @gabrielc8399 6 лет назад +2

      Mélange pas le veganisme aux autres positions irrationnelle cité, celui-ci se base sur un postulat morale extrême mais qui n'est pas irrationnelle. (Même si je le trouve difficile a défendre, mais ici on entre dans le domaine de la philosophie morale et non dans l'épistémologie).

    • @aurelienperdriaud108
      @aurelienperdriaud108 6 лет назад +1

      En fait par là je pense qu'il voulait parler de la survie(/fertilité ?) d'un nourrisson, enfant, adolescent s'il est végétalien. Même si - espérons que je ne dise pas de connerie - ce n'est pas impossible d'avoir des enfants qu'on éduque végétalien sans qu'il n'y est de problèmes, les risques restes non-négligeables (surtout si les parents s'en occupent mal); et ça c'est dont il voulait parler de la sélection naturelle : les risques du mode de vie et non de l'idéologie. Sans vouloir rentré dans le débat du veganisme, je conçois que la réalité est plus complexe et que dire que par sélection naturelle notre espèce écartera le veganisme n'est pas quelque chose de forcé (que ce soit en retirant ou en ajoutant les facteurs culturels).
      Bref je vais arrêté de parler de ça sinon ça va sûrement se transformer en débat sur la souffrance animale ce que je ne voulais absolument pas en écrivant cette réponse à Gabriel C ;-; (Et au contraire, que ce point là n'influe pas réellement ce que veut décrire Frédéric Garcia.)

  • @hexa1905
    @hexa1905 6 лет назад

    11:25
    une croissance exponentielle rapide c'est pas un pléonasme ça ? :p

  • @CQF4
    @CQF4 6 лет назад

    La vie cellulaire est quand même assez similaire à un réplicateur de von neuman. C'est en tout cas sont "but"

  • @samuelgenissel6627
    @samuelgenissel6627 6 лет назад

    Y à personne qui a envie de conseiller "tik-tok" de John Sladek, avant de parler d'intelligence et de morale?

  • @defer1100
    @defer1100 6 лет назад

    3:30 je joue à Starcraft 2 et les Humains on jamais perdu contre un IA et l'IA de sc2 est très inférieur à un joueur humain, sans aucun doute

  • @xxiemeciel
    @xxiemeciel 5 лет назад

    le basilisk de Roko ^^

  • @anthonycanu
    @anthonycanu 6 лет назад

    Salut Lé, les IA proprement dites n'ont pas de morale ou de conscience (désolé de casser l'ambiance mais les spécialistes dans ce domaine sont unanimes et même très critiques à l'égard de leurs créations les qualifiant parfois d'incapables d'avoir une once de bon sens (cf apprentissage auto-supervisé ici par exemple : ruclips.net/video/2WiPx6thH2E/видео.htmlm5s). Ce sont plutôt les humains (qui les créer) qui ont une conscience et une morale.

  • @shadokdupont
    @shadokdupont 6 лет назад

    Est-il vraiment problématique de suggérer des vidéos sexistes ?
    Cela dépend juste de la morale qu'on souhaite promouvoir.
    En effet le traitement égalitaire des hommes et des femmes est une question culturelle, et pas universelle.
    Les grandes civilisations reposent sur des modèles patriarcaux (causés par un déterminisme biologique), et l'égalité entre les sexes est un problème qui apparaît quand la situation (technologique, économique, religieuse, politique) arrive à surpasser ce déterminisme biologique (ou qu'il devient contre productif).
    Ainsi, pour empêcher le conflit entre les hommes, la monogamie s'est imposée dans beaucoup de civilisation (européenne via le christianisme et aussi en Asie), la polygamie s'est imposée dans certains pays arabes pour repeupler les pays après des guerres, le besoin de main d'œuvre, la paix (ou parfois la guerre), et l'évolution de la technologie ont fait que dans nos sociétés occidentale, la femme a dû changer de statut et obtenir les mêmes droits juridiques que l'homme.
    Mais il n'est pas à exclure qu'en cas de catastrophe, de guerre ou autre, on doive à nouveau changer de traitement homme femme et abandonner l'égalitarisme.
    Sinon j'ai trouvé ta vidéo très intéressante, et j'apprécie beaucoup ton travail de vulgarisation. Bon courage pour la suite !

  • @erwandubost569
    @erwandubost569 6 лет назад

    Une prochaine video sur le dernier article de deep mind ? Ca pourrait etre très interessant au niveau des concepts.
    arxiv.org/abs/1808.00508

  • @julienopui4436
    @julienopui4436 6 лет назад +2

    Pourquoi coder une morale subjective à une IA ? Là vous n'abordez pas des questions purement technologique mais politique. Par conséquent encourager une IA favoriser des opinions comme vous le suggérez est profondément inégal et injuste. Laissez des opinions subjectives et différentes sur le même pied d'égalité.

    • @dreamstorm194
      @dreamstorm194 6 лет назад

      Pourquoi le faire ? Parce que nous sommes moraux. Laisser les IAs dans une indifférence totale face aux opinions humaines semble ne pas être une bonne idée, non d'un point de vue technologique, mais d'un point de vue sociétés. Et après tout, une entreprise dont les IAs penchent souvent vers des résultats immoraux (l'exemple le plus criant que donne Lê est RUclips) finira rejetée, il y a donc là un enjeu aussi pour les entreprises.
      La liberté d'opinion est un idéal : en faire une réalité serait (de l'avis général) un désastre. Il n'y a alors plus lieu de parler d'inégalité et d'injustice comme vous le faîtes.

    • @julienopui4436
      @julienopui4436 6 лет назад +1

      Nous sommes moraux en effet, mais nous avons tous une morale différente. Or si nous sommes réalistes et objectivistes, il n'y a pas de morale supérieur car nous avons tous une morale et des opinions différentes et des morales subjectives. Par conséquent, la seul justification que vous avez pour faire prévaloir votre morale subjective et personnel par rapport à d'autres est une pseudo-supériorité morale (ce que vous n'avez pas et ce que personne n'a). D'ailleurs lorsque que vous affirmez que "les IAs penchent souvent vers des résultats immoraux", vous affirmez cela en ayant votre morale personnel et subjective, je suppose que des gens avec des avis différents ne trouvent pas du tout ces choix comme "immoraux". Vous voyez donc que ce qu'on appelle "immoral" ou "moral" est absolument personnel et subjectif. Par conséquent il faut laisser vivre la subjectivité et toutes les opinions et n'en favoriser aucune afin de mettre sur un pied d'égalité toutes les personnes. Favoriser une opinion par rapport à une autre comme vous le suggérez est une injustice à part si vous considérez que votre morale doit être universelle mais dans ce cas vous devez accepter que vos opposants qui supposent eux aussi que leur moral est supérieur à la votre, vous censure. Par conséquent, mieux vaut maintenir la neutralité et ne pas favoriser des morales en tripatouillant les IA (ce qui est déjà le cas car les IA de youtube démonétise et déréfencence des vidéos contenant certains mots ou sujets).

    • @dreamstorm194
      @dreamstorm194 6 лет назад

      Je respecte la position relativiste que vous défendez. Toutefois, je vais tout de même développer un peu ce que j'ai dit, à la lumière de votre réponse, qui part tout de même du constat douteux que "nous avons tous une morale et des opinions différentes et des morales subjectives" (et "donc", il n'y aurait pas de morale objective).
      J'ai été amené à penser qu'il y a des formes de raisonnement moral (typiquement, j'ai un raisonnement donnant une réponse coopérative claire au dilemme du prisonnier sans passer par le dilemme répété, et qui peut s'étendre à d'autre dilemmes), et s'il existe des constantes parmi les morales de chacun, on peut sans doute en extraire des lois, à même de construire une morale complète qui sera capable de convaincre le plus grand nombre de sa moralité, malgré les différences culturelles (qui explique selon moi la variabilité morale (mais certaines cultures peuvent-elles être meilleures que d'autre ? Plus morale ? Je m'égard...)).
      Mais sans aller jusqu'à cette hypothèse d'une morale objective, on peut tout de même dire que beaucoup de gens partagent à leur échelle des traits communs dans leur morale, et par la démocratie (par exemple), cette opinion générale peut s'exprimer. Si elle s'exprime sous forme de morale construite (±algorithmique) et non comme de simples jugements populaires sur des cas particuliers (censure de tel ou tel mot), alors on peut implémenter cette morale spécifique dans des IAs, pour la juste raison que la société (supposée démocratique) l'aura voulu, et ce vraisemblablement au dessus de toute considérations de "mettre sur un pied d'égalité toutes les personnes". C'est un principe assez ostracisant, mais ça ne suffit pas à dire que c'est mal.
      (Bref, le fait qu'il y ait des gens pas d'accord avec moi ne veut pas dire que j'ai pas compris le sens de la vie, la vérité et le swag.)

    • @julienopui4436
      @julienopui4436 6 лет назад +1

      Réponse convenable et argumentée. Cependant je trouve que vous vous fourvoyez à quelques passages. Alors premièrement, il n'est pas douteux de partir de l'axiome "nous avons tous une morale et des opinions différentes [...] et des morales subjectives". En effet nous sommes tous différents et jamais vous ne trouverez de consensus ABSOLU sur une idée ou une proposition ou valeur, hélas et donc il n'y a pas de morale objective (au sens de "Qui existe hors de l'esprit, est indépendant de l'esprit"). Toutefois je suis en accord avec votre deuxième affirmation, il y a des constantes morales majoritaires et écrasantes mais elles ne sont pas objectives mais consensuelles (différence sémantique cruciale). Et oui, de ces bases idéologiques et morales, nous pouvons établir des lois, des constitutions ... en accord avec la morale majoritaire.
      Cependant votre second paragraphe me laisse perplexe. Alors oui, si une morale consensuelle s'exprime sur des avis, elle sera selon moi légitime (du fait de la majorité dans un système démocratique) mais elle n'en sera pas pour autant objective et absolue. Alors vous parlez d'implémenter des morales dans des IAs par le biais de la démocratie de manière légitime (je trouverais cela injuste mais c'est légitime. C'est un peu comme si on imposait une morale d'état mais comme la démocratie majoritaire l'a voulu, il faudrait accepté). Mais soyons pragmatique et un peu moins idéaliste, les IAs sont dans les mains de capitaux privés (ce qui est normal) et ces capitaux imposent leurs morales personnels (normal car ils possèdent), par conséquent vous accepteriez que des capitaux privés imposent une morale à leurs IAs qui sont utilisés. Alors je trouve cela légitime comme votre proposition de entériner mon idée ("mettre sur un pied d'égalité toutes les personnes") par la démocratie mais c'est profondémment illégal et cela porte hélas atteinte à l'égalité des moyens pour s'exprimer.

    • @romaingonidec4990
      @romaingonidec4990 6 лет назад

      Si on veut aborder l'éthique de manière scientifique, il me semble que la bonne question est ‹‹ Quelle règle du jeu optimiserait le fonctionnement d'une société humaine ?››. Et il faut déjà se demander quel variable doit on optimiser. Quel objectif est désirable ? 2500 ans de philosophie n'y ont pas apporté de réponse tranchée. La réponse de Nietzsche et justement que l'existence n'a pas de but en elle même, mais qu'il nous appartient de lui en inventer un. Le choix de ce but relevant d'un jugement esthétique il est définitivement subjectif. Ce pavé concernait la question de la création de valeurs morales parlons aussi de leur évolution.
      Nos ancêtres sont des animaux sociaux depuis au moins une dizaine de millions d'années. Nous vivons dans un mélange de compétition et de coopération. Coopération quand il s'agit de la survie du groupe et compétition quand il s'agit d'améliorer son succès reproductif individuel.

  • @Franck31
    @Franck31 6 лет назад

    "Tout le principe du Q-learning c'est tout bêtement d'estimer les probables futures carottes et coups de bâtons [...]"
    ...
    Non, rien :p

  • @ericlavenne1270
    @ericlavenne1270 5 лет назад

    ------->H : relativement aux vaccins; je n'ai pas une virgule à ôter ou à ajouter aux dires du "présentateur " : c'est parfait .......!
    -------> I : Nanotechnologies en très réduit et volontairement simplifié. "Les noanosciences et nanotechnologies ; ou NST ; s'essayent à (aux) définition(s) suivantes , càd.
    au minimum à la manière de l'ensemble des études et des procédés de fabrication et de manipulation de diverses structures( physiques,chimiques ou biologiques ) de dispositifs et/ou de systèmes
    matériels à l'ECHELLE du NANOMETRE (nm), relevant de l'ordre de grandeur de la distance entre 2 atomes.
    NB: les nanomatériaux ont été reconnus comme TOXIQUES pour les tissus humains et des cellules en culture, La nanotoxicologie étudie les risques environnementaux et
    sanitaires liés aux nanotechnologies .La dissémination à large échelle de nanoparticules dans l'environnement est sujette à des questions ETHIQUES .
    Réf.: grand public: "Association AVICENN(2016) nonomatériaux et risques pour la santé et l'environnement ,(+/- vulgarisation)Editions Yves Michel "taper" veillemanos fr
    et maintes autres Réf./
    ------------->J:

  • @KyoSDeeper
    @KyoSDeeper 6 лет назад

    Quelques chose qui se multiplie, plus vite qui meurt ? Les êtres vivants

    • @Patapom3
      @Patapom3 6 лет назад

      Pas tous, c'est la sélection naturelle.

  • @naonedtroll9144
    @naonedtroll9144 6 лет назад

    Le problème de la carotte et le bâton de l'IA de RUclips c'est que c'est que RUclips qui distribue les carottes et les bâton ... Moi j'aimerais bien donner des carottes a l'IA de RUclips ... boutique.l214.com/badges-stickers/stickers/48-vous-aimez-les-lapins-mangez-des-carottes

  • @jeanbonneau3425
    @jeanbonneau3425 6 лет назад

    Concevoir un cerveau synthétique du type humain, ou la conscience pourra exprimer , donc pas besoin de programme informatique ...

  • @marinoceccotti9155
    @marinoceccotti9155 2 года назад

    RUclips interdit également de critiquer cette mode qui consiste à châtrer des petits garçons au nom du "progressisme" et de la théorie du genre.
    RUclips interdit aussi de critiquer certaines positions quant à cette maladie mentale qu'est la dysphorie de genre.
    RUclips interdit de critiquer l'oppression de certaines femmes (qualifiées de TERF) par une certaine micro-minorité de pervers.
    Si youtube est votre seule source d'information, posez vous des questions.

  • @florianc1823
    @florianc1823 6 лет назад

    Super vidéo ! Tu devrais juste prendre un tout petit plus de temps pour nous faire penser a liker/commenter/partager. Parce que j'oublie souvent de liker =]

  • @noemie9997
    @noemie9997 6 лет назад +9

    Tu te politises Lê, tes videos sont de plus en plus teintées de critiques envers les éthiques qui ne sont pas la tienne, est ce que c'est volontaire ? Est ce que tu souhaites par le biais de ta chaîne promouvoir une vision utilitariste/consequentialiste de l'éthique ou bien est-ce encore un mauvais coup du hooligan qui est en toi ?
    Bonne vidéo cela dit :)

    • @fredgarcialevrai
      @fredgarcialevrai 6 лет назад +3

      C'est vrai que l'enchaînement racisme / réchauffement climatique / idées dangereuses en quelques vidéos soulèvent des questions. Néanmoins, méfions-nous de ne pas faire de l'overfitting au sujet des idées et intentions de Lê.

    • @noemie9997
      @noemie9997 6 лет назад +3

      Frédéric Garcia en effet, c'est pour ça que je demande, ce n'est d'ailleurs absolument pas une critique mais bien une interrogation qui me taraude depuis plusieurs vidéos :)

    • @DikXyGaming
      @DikXyGaming 6 лет назад

      Finir un discours sur l’ouverture d’une autre question est récurrent dans le domaine scientifique. Être méfiant n’est pas prendre position

    • @noemie9997
      @noemie9997 6 лет назад +5

      Alexandre Rapetti je suis pas totalement d'accord, dans pas mal de video (et axiome) Lê parle de sa fascination pour la connaissance en soi, donc la plupart de ses motivations sont personnelles dans le sens ou elles ne visent pas à promouvoir un idéal de société bien qu'il ait son avis éventuellement. Le meilleur exemple étant son livre dans lequel il passe du temps à décrire le bayesianisme sans pourtant taper sur ceux qui ne sont pas bayesiens et en précisant bien que c'est une pensée qui lui parle à lui personnellement, un angle de vue qui répond à ses préoccupations. Il peut donc en effet répondre aux préoccupations de certains en leur amenant un modèle qui répond a ses propres préoccupations sans pour autant dire que ce modèle est meilleur que les autres. Il définit d'ailleurs bien les critères qui fondent son appréciation d'un modèle, permettant à ceux qui n'acceptent pas ces critères d'emblée, de ne pas adhérer au modèle qu'il propose et ceci de manière complètement légitime.
      Par contre ici je suis troublée de voir qu'il joue à décrédibiliser la pensée d'autres personnes en pointant du doigts des conclusions (anti vaccin) de celles-ci en supposant que ces personnes aient les mêmes postulats (axiomes) que lui. En celà, je trouve qu'il tend à politiser son discours.
      (Je précise tout de même au cas ou ce ne serait pas clair, que mon but n'est pas de juger sa position en elle même, mais de questionner la raison qui le pousse à amener ces positions de cette manière, puisqu'il nous a habitué à autre chose)

    • @quarkneutre2890
      @quarkneutre2890 6 лет назад +2

      Le gros problème des anti-vax c'est qu'il raconte des conneries (sans mauvais jeux de mots) sur les effets des vaccins. Ils se mettent en danger eux et leurs enfants tout en croyant protèger leurs santé. Ils partent donc du même postulat moral que Lê mais étant mal informés il agisse de la mauvaise manière. Et dans la mesure où on ne parle pas d'un problème moral mais d'une question factuelle, il est raisonnable de dire que la diffusion de contenu anti-vax est problématique car empêchant les gens de bien faire selon leurs propres critères.

  • @flutterwondershyyay8255
    @flutterwondershyyay8255 6 лет назад

    L'exemple des vidéos youtube est très mauvais car on ne peut pas blâmer l'IA de donner aux utilisateurs ce qu'ils veulent
    Un antivax qui veut regarder des vidéos antivax va le faire, il va juste un peu plus galérer pour le faire. Si l'expérience de youtube est moins agréable pour un antivax que pour un gauchiste de base, on créé un biais qui a tendance à forcer les utilisateurs à voter à gauche. C'est pas très démocratique tout ça.
    Quelqu'un fan de 4x4 va avoir tendance à regarder des vidéos de 4x4, je ne vois pas en quoi toi, tu peux te permettre de juger ça
    Concernant les vidéos sexistes, les vidéos du raptor dissident sont considérés comme étant sexiste par les personnes qui n'arrivent pas à comprendre son raisonnement. Ce qu'il dit n'est pas sexiste, c'est juste des raisonnements pour lesquels les opposants n'ont pas d'arguments et donc ils jouent la carte piège face caché du "sexisme". En conclusion, étant donné qu'à l'heure actuelle, la plupart des gens sont des ignorants qui ont des convictions qu'ils ne savent pas argumenter, certaines vidéos sont considérées comme sexistes dans notre société alors qu'elles pourraient, justement, apporter un peu d'intelligence et de raison dans notre société.

  • @theophileloubiere9388
    @theophileloubiere9388 6 лет назад

    Qu'est ce cherche à optimiser les IA ? LA TUNEEEEE !!!

    • @girardquentin8125
      @girardquentin8125 6 лет назад

      Alpha go me parait ne pas avoir la meilleure technique alors :)

    • @theophileloubiere9388
      @theophileloubiere9388 6 лет назад

      GIRARD Quentin haha tu as raison ! C'etait pour la blague, il n'y avait pas d'intention d'argumentation dans mon commentaire ;)

  • @ia-maxiweb-nc
    @ia-maxiweb-nc 6 лет назад

    Mais qu'est ce qu'une vidéo dangereuse ?

  • @alexandterfst6532
    @alexandterfst6532 6 лет назад

    Yuk

  • @yannickduchene305
    @yannickduchene305 6 лет назад

    Je trouve que vous utilisez un vocabulaire inapproprié, vous parlez comme si les IA actuelles avaient une conscience, qu’elles n’ont probablement pas.

  • @antoinevernet6707
    @antoinevernet6707 6 лет назад

    Une vidéo léché

  • @TheSupriest
    @TheSupriest 6 лет назад

    Bref, toujours une histoire de q...

    • @josephmathmusic
      @josephmathmusic 4 года назад

      aussi de bits et de Bayes: ruclips.net/video/qOs8oG-Lvak/видео.html

  • @wanou2047
    @wanou2047 6 лет назад +4

    je vois pas ou est le problème avec les vidéos "sexiste" .

    • @SEVideoQuant
      @SEVideoQuant 6 лет назад +4

      Wanou On est désolés pour toi alors....

    • @YEASTY_COMMIE
      @YEASTY_COMMIE 6 лет назад +1

      si t'a que ça dans tes recommendations ça va peu a peu te paraître normal

    • @wanou2047
      @wanou2047 6 лет назад

      oui ou c'est peut etre normal depuis plus de 2000 ans.

    • @SEVideoQuant
      @SEVideoQuant 6 лет назад +1

      Wanou Pourquoi 2000 ans ? Tu le sors d’où ce chiffre de “2000”?

    • @manubestofplus9986
      @manubestofplus9986 6 лет назад

      C'est peut-être pas un problème pour toi qui fait peut-être partie des discriminants ? non discriminer une partie de la population, c'est tout à fais normal t'as raisons y'a pas de problème. Après tout dépend de ta définition de sexiste .