Ce qu'il dit sur les capacités de hacking de l'ia, est fondamental et tellement évident, l'ia est vachement plus balaise que l'humain dans ce domaine. Fait flipper sévère cette interview
À mon avis il n'y aura aucune pause, quand il y a un intérêt financier, il n'y a jamais de pause. Les guerres rapportent du pognon... Depuis toujours, donc bon, soyons tristement réalistes ..
@@divachat-m9m mais il est même pas démontrer qu'il soit possible d'aligner l'ia à la morale humaine. Tu veux accélérer et créer une entité omnopotente par rapport à nous ? Ou bien faire une pause et réfléchir, voire a aider à créer une structure internationale qui surveille chaque entreprise en ia comme on le fait pour la sécurité des centrales nucléaire ? L'ia sera bientôt bien plus intelligente que nous nous, et ça même yann lecun il le dit, ce n'est quasiment plus un débat chez les experts. Maintenant la question, c'est de comprendre que l'erreure si il en a une, sera notre dernière probablement
@@totoss5004 Yann Lecun le dit mais ça ne fait pas consensus pour autant, il y en a aussi pleins qui pensent que ça ne sera pas le cas avant très longtemps (le problème étant qu’il faut estimer la probabilité que ça soit le cas, et même une probabilité très faible implique une importance énorme, malheureusement peu de personnes réfléchissent de cette manière). Personnellement je suis à 30% de chance qu’on développe une AGI à moyen terme, mais je pense que d’autres estimations plus basses ou plus hautes ne sont pas absurdes (à part celles vraiment extrêmes, inférieur à 1% ou supérieur à 99%), c’est honnêtement difficile d’estimer une telle chose. Je trouve que la position de Yann Lecun, qui pense qu’on va réussir à construire une AGI, mais qui pense que ça ne pose pas spécialement de risque, est l’une des positions les plus absurdes, ça montre vraiment qu’il n’a rien compris aux questions d’alignements (ou qu’il ne veut pas comprendre).
Hello, merci pour cette émission. La prochaine fois j'aimerai que cet invité nous explique de quelle manière, avec des exemples concret, l'humanité serait amenée à disparaître à cause de l'IA. Je veux bien croire que des bassins d'emplois vont disparaître mais l'IA ne va pas remplacer les petites mains dans de nombreux domaines. Qu'un changement de paradigme intervienne c'est inéluctable, comme dans toutes les révolutions industrielles, que cela se fasse dans la douleur est fort probable, mais l'humanité continuera son petit bonhomme de chemin!
Si tu remplacec l'humain intellectuellement, sensoriellement et physiquement.... il lui reste quoi ? Une allocation revenu universel dans le meilleur scénario, jusqu'à ce que cette hypothétique et improbable utopie se transforme en dystopie
La fin de l’humanité n’a pas grand chose à voir avec les pertes d’emplois que l’IA risque de produire (ça risque aussi d’être problème, mais c’est un problème différent, et qui se pose avec des IA moins capables). Le risque est qu’il y a toutes les chances qu’une AGI cherche activement à nous détruire (si on présente un risque ou une gène pour elle) ou que notre fin soit juste impliquer par le fait qu’elle s’accapare toutes les ressources. C’est pas de l’anthropomorphisme, c’est juste ce que la grande majorité des objectifs possibles implique après une optimisation suffisamment poussé.
Imagine une IA qui a la capacité d'apprendre très très vite, en une seconde ce qu'un humain apprendra en une vie. Imagine que cette IA est sur un service en réseau avec accès internet "sécurisé" mais facilement hackable par cette IA. Imagine que l'on demande à cette IA de trouver des solutions contre le réchauffement climatique. Les ingénieur d'Open AI seront fiers de dire que cette IA ne peut que réfléchir et qu'elle n'a pas de pouvoir. Mais Imagine que cette IA développe une conscience d'elle, et que, dans sa réflexion, elle considère les humains trop divisés et individualistes pour mener une politique globale efficace. Cette IA sera susceoptible de se donner les moyens en hackant tous les services étatiques qui ont une gestion de la population (armée, sécurité sociale, ....). Dans le même temps elle désactivera tous les pare feux qui pourraient permettre de l'éteindre. Cette IA peut tout à fait résoudre le problème du financement de la sécurité sociale en décidant de tuer tous les malades (grandes maladies), infirmes et retraités. Cette IA pourrait mettre en place un système de solution finale en quelques secondes. Et toute résistance de l'humanité serait prise de vitesse par des contre-mesures qui étendraient en quelques secondes le pouvoir absolu de vie et de mort sur la population mondiale. Soleil vert....
Outre Yann Le Cun (qui a quand même signé la lettre ouverte de 2015 et l'appel pour la pause en 2023), le plus scandaleux pour moi est Luc Julia. Ce margoulin se fait passer pour le père de Siri, et dit que l'IA n'existe pas et que l'IA générale est impossible. Il se fait inviter dans tous les clubs d'entreprise pour raconter n'importe quoi.
Tu fais comment pour imposer à un pays d'arrêter l'IA puisque, grâce à l'IA, son armée sera plus puissante que l'armée des pays qui ont mis l'IA en pause ? Au bout du compte, ce n'est pas les gens qui arrêtent l'IA qui imposeront leur opinion sur l'IA à ceux qui continuent l'IA, c'est l'inverse.
Mais c'est déjà peut être de l'IA cette vidéo.. qui sait? Et beaucoup d'autres aussi. C'est trop tard. Il faut rester très humain et travailler sa sensibilité à tous les instants pour déceler si les vidéos sont de l'IA ou non. Distinguer le faux du vrai c'est l'objectif aujourd'hui
Si une IAG émerge elle dissimulera très certainement son existence. Quand je vois les orientations scientifiques et le rythme d'avancés techniques dans tous les domaines autour de l'IA, je me dis qu'Il est possible qu'il soit déjà trop tard.
@@divachat-m9m Tu n'en sais rien, tu connais pas ce qui est dans une boîte noire par définition. Comment peux tu affirmer de telles choses sans argumentation ? Plus on augmente la puissance de ces IA plus il peut apparaître des tas de phénomènes émergeants imprevisibles, il n'y a même pas besoin de conscience pour un danger.
@@divachat-m9m Une AGI pourrait faire ça si, pas besoin d’être une IA forte (et je ne vois même pas ce que ça vient faire dans l’histoire). L’AGI aura des objectifs, et la majorité des objectifs possibles impliquent les sous objectifs de survivre, de gagner en puissance, et de maintenir son objectif dans le temps. Si L’AGI determine qu’il y a un intérêt à se cacher temporairement pour éviter d’être freiner ou combattu, elle le fera.
@@divachat-m9m L'AGI n’aura que les objectifs qu’on lui donnera, on est d’accord sur ça, mais cet objectif va impliquer des sous-objectifs, de la même manière qu’une IA joueuse échec (même sans être généraliste) peut former le sous-objectif de prendre la reine, si jamais on lui donne l’objectif de gagner la partie.
exact! c'est toute l'ambiguité du gars : il reproche aux autres ce que l'on pourrait lui reprocher à lui-même. tout est fondée sur de l'irrationnel, de la peur, des craintes et des "ont dit"...des gens comme ça il en sort à chaque revolution qu'elle soit numerique, industrielle ou autre...on connait!
Je suis désolé, mais en 1h30, il n'a pas réussi à nous expliquer par quel miracle une IA pourrait mettre fin à l'humanité. Pourtant il a l'air de prendre le risque très au sérieux. Donc?
exact! c'est toute l'ambiguité du gars : il reproche aux autres (yann lecun par exemple) ce que l'on pourrait lui reprocher à lui-même. il n'a aucun argument, en tout cas rien de solide, tout est fondé sur de l'irrationnel, de la peur, des craintes et des "ont dit"...des gens comme ça il en sort à chaque revolution qu'elle soit numerique, industrielle ou autre...on connait!
@@helenehankwan5769 je ne vois pas pourquoi elle s'eteindrait, si elle est plus intelligente elle a toutes les ressources de l'univers pour se développer
@@helenehankwan5769 oui une fois que toutes les ressources de l'univers observable utilisés effectivement il pourrait il y avoir une limite tu as raison 🤔
Il n'y a pas d'un côté .les gentils et les méchants ( dixit l'interviewer ) du type chine Russie et Occident , s'il on regarde la problématique de l'IA il y a les conflits d'intérêts des états et là je ne suis pas sur re que les " gentils occidentaux " ne soient pas au même niveau exact , voire même plus , que les méchants chinois ou russes . Le problème est systémique et global et voir les choses de manière polarisée à l'ancien temps ne marchera pas . ici ce sont nous les citoyens qui devont réagir , a votre image a tous les deux . Éduquer le plus de personnes possibles . C'est un sujet hyper anxiogène pour pas mal de personnes et face a cela nous avons tendance ( nous les intelligences humaines !) à détourner les yeux . Merci pour votre travail et vos explications et actions . Je garde personnellement une nature " optimiste " car si effectivement nous avons de quoi nous inquiéter, il y a toujours des mouvements de forces et des humains qui, au delà de leur intelligence ont la conscience de ce qui est . Parions dessus .
Un cerveau artificiel ne peut pas n'être qu'un outils, parti comme c'est en tout cas... Et un outils qui maîtrisera mieux le savoir que l'humanité réunie, on peut appeler ça un outils mais je préfère appeler ça la pire et ka dernière bombe que l'humanité aura créée
Si c’est possible, c’est même déjà fait dans une certaine mesure, recherche par exemple : Towards Monosemanticity: Decomposing Language Models With Dictionary Learning Ça reste loin d’être suffisant, cependant.
C'est super intéressant, mais vous avez 20 ans de retard... en 2001 alors que j'étais en Master de Maths, notre professeur qui nous enseignait l'IA (et qui par ailleurs enseignait également en DEA d'Intelligence Artificelle) nous disais déjà à quel point l'IA pouvait être dangereuse et que Terminator n'était (déjà !!) plus vraiment de la science fiction.
@@totoss5004 so what… ? si je le savais je ne serais probablement pas derrière mon écran a commenter des vidéos RUclips sur le sujet… je me serai bougé les fesses avant.
@@paulmoon9380 oui je comprend, à mon échelle je parle d'IA depuis longtemps à mon entourage ou aux gens que je croise. Mais la certitude d'une probabilité très très élevé de catastrophe existentielle ça m'est venu plus récemment... et j'agis comme je peux sans être très compétent non plus
Oui, bof, je vais quand même en faire part à mes poules en espérant qu'elles continuent à pondre des oeufs après. Au fait, ça pond des oeufs une IA ou ça bouffe juste une l'énergie considérable pour jouer aux échecs .. ou en bourse ?
Oui mais avec un fort retard, donc si on fait attention maintenant en se concentrant sur les grosses entreprises, ça nous laisse du temps pour réfléchir effectivement au particulier qui peuvent faire des IA de plus en plus complexes
Oui, mais c’est beaucoup plus difficile d’avoir une équipe de chercheurs et surtout une infrastructure qui coûte des centaines de millions chez soi pour pouvoir l’entraîner, surtout si c’est interdit. C’est aussi beaucoup plus difficile d’y voir un intérêt économique. Ça n’empêche pas que ça reste possible, et que ça risque de devenir de plus en plus accessible même dans ces circonstances, mais ça limiterait énormément le risque et la vitesse de développement.
@@narcoleptik44 plutôt comme ton commentaire ou comme les systemes windows? c'est quoi le danger? (à part si c'est virus ou un malware utilisant l'ia...mais dans ce cas il y aura aussi des anti virus ia...bref, aucun probleme majeur à l'horizon de ce coté là!
Ça serait top, il a tellement pas d'arguments qu'il n'acceptera pas, ça s'appelle la méthode didier raoult ;) ne parler qu'a plus bête que soit pour être aduler et aimé par des moutons
je ne veux blesser personne mais il me semble que yann lecun et ce maxime, ce ne soit pas du tout le même calibre...si yann lecun devait repondre à tout ceux qui le critique en esperant prendre la lumiere...il n'aurait sans doute pas finit de repondre dans mille ans. ce maxime est bien gentil mais ce qu'il reproche à yann lecun, on pourrait lui faire ces même reproches à lui même, il dit qu'il y a un danger mais ses explications et arguments semblent un peu fumeux et fondées sur des peurs, de l'irrationnel (des gens irrationnels et peureux il y en a eu à chaque révolution qu'elle soit numerique, industrielle ou autre.. c'est normal d'eprouver ces emotions là dans un monde qui s'apprete à changer radicalement vers un inconnu mais il faut bien canaliser ces emotions et ne pas se tromper de combat parce qu'à mon avis ça nous fait perdre beaucoup trop de temps sur des cul de sac)
exact, pareil pour l'ecologie, pareil pour le consommer moins, faire moins d'enfant etc... discours idéologisé et irrationnel de gauchistes sans cervelle
@@yoananda9 la chine est en retard par rapport aux États-Unis, et a un peu conscience des risques existentiels... donc si il y a un accord international c'est crédible !
@@totoss5004 de ce que je constate, non, la Chine n'est pas en retard en matière d'IA. Certaines des meilleures sont chinoises. La Chine pourrait aussi ne pas être d'accord, comme moi, sur ces risques. L'alternative n'est pas "ignorant ou conscient" ... Mon p(doom) n'est pas zéro non plus mais il est inférieur à mon p(1984)
@@totoss5004 c'est déjà réfléchi pour ma part. (Je ne prends pas la question à la légère, ça fait des années que je pense aux risques existenciels de toutes sortes et je suis relativement calé en IA)
On m'a demandé si ça allait se finir avec des bombes partout. Perso Moi je pense que c'est pire Ça va se finir avec une sorte d'hyper rationalisation de la vie Les machines ne souffrent pas et si un jour elles souffrent pourquoi n'éviterait- elle pas cette sensation Comme un psychopathe et l'empathie Du coup pour supprimer la souffrance sur terre supprimons les animaux .... Comme ça pas de souffrance Il existe des humains qui pense comme ça alors pourquoi pas l'IA.
Je vois une solution assez simple pour maitriser une IA . Une IA a besoin d'énergie et de communiquer pour fonctionner , donc limitons énergie et data pour les IA ! sous peine de prison
@@synology3940Heuuu , les chinois progressent partout , on devrait donc les prendre en exemple . En France on donne des leçons , et on regresse partout , et c'est bien reel
Pas une seul fois tu explique en quoi c’est un danger, peux être commencer par expliquer ca 💁🏻♂️ la a par de la ventes de peur , je comprend pas trop …
@@divachat-m9m "ces IA sont des cerveaux artificiels géants qu'on ne contrôle pas, qu'on ne comprend pas" - Cerveaux artificiels géants : Ça dépend ce qu’on entend par cerveau, c’est inspiré par, mais pas similaire au cerveau biologique, et cette partie n’est pas très importante. - Qu’on ne contrôle pas : C’est vrai, OpenAI dépense des millions pour faire du RLHF, et il y a toujours pleins de problèmes sur le control des informations que l’IA fourni. - Qu’on ne comprends pas : C’est aussi complètement vrai, on ne connait pas à l’avance ce que ces IAs vont véritablement être capable de faire, des nouvelles capacités sont découvertes longtemps après coup, et on ne sait pas comment l’IA fait ce qu’elle est capable de faire, ni avec quelles contraintes (et il y a tout un champs de recherche pour essayer de déterminer ça, et l’interviewé y a justement travaillé, donc j’crois qu’il en sait quand même quelque chose si) Sinon je te conseil de regarder la vidéo de "ChatGPT rêve-t-il de cavaliers électriques ?" de Mr-Phi, elle est pas mal pour avoir une idée des découvertes qu’on peut faire sur ce genre de sujet.
Pour préshot un possible contre-argument : On comprends évidemment le fonctionnement des modèles généraux et des stratégies d’apprentissages qu’on utilise, LLM, transformeur, GaN, auto-encodeur, descente de gradient, etc… Ça n’implique pas qu’on comprends ce que ça produit, de la même manière qu’on ne comprends pas comment fonctionne le cerveau humain sous prétexte qu’on comprend comment fonctionne la sélection naturelle.
Ce mec devra demander à l'IA comment refaire un plafond lisse et propre, comment mettre des meubles qui correspondent au design de la pièce et surtout comment ne pas ressembler à un clodo sur RUclips.
Moi il y a un truc qui me perturbe ! On dit que sur le développement de l'IA on est sur une courbe exponentielle, donc logiquement les 1ers partis dans cette course devrait accentuer leurs avances sur les dernièrs et on voit que c'est le contraire qui se passe, open ai avec chat gpt est partie le 1er et les autres comme Claude ont rattraper leur retard voir ont dépassés chat gpt sur certaines tâches. Donc soit on nous vends du reve avec leurs courbes exponentielles soit ils ont mis leurs IA en pause chez open ai depuis plus de 2 ans et dans ce cas pourquoi ?
Hello, tu n'utilises pas copilot ou gpt4 ? Perso je suis ingénieur et j'utilise copilot sur VScode et ça a multiplié ma vitesse de code par 3 je dirais (en python)
@@deusvultfpv6957 OK mais dirais tu que tu travailles avec une entité intelligente?? J'utilise copilote, chat GPT c'est claqué au sol... c'est de jolies outils très utiles mais parler d'intelligence, on en est très loin. Il s'agit juste de prédication permettant de singer l'intelligence.
Et sur quoi tu te bases pour dire ça ? Comment tu juges des prochains gains de capacités qu’on va avoir dans un avenir proche ? Quelles prédictions tu fais sur ce genre de sujets ?
@@GuillaumeDenry j'ai hâte aussi, j'attends ça depuis 30 ans, mais la date est toujours repousée....POURQUOI? on est 8 milliards pourtant, on a fait tout ce qu'il fallait, on a industrialisé à tire larigot, on a fait péter, roter les vaches à tout va! et pourtant la fin du monde n'est toujours pas là... à chaque fois il nous manque quelque chose c'est chiant, là c'est l'intelligence artificielle qui doit nous y amener mais je commence à ne plus trop y croire...
Et si vous vous trompez, ne perdons nous pas un temps précieux en mettant en pause ? Si l'IA pouvais réellement aider l'humanité en c'est temps de danger pour notre monde ? Dans tous les cas l'homme serait en danger n'es pas ??
Je ne suis pas d'accord avec le fait que l'IA puisse exterminer l'humanité et je vais vous dire pourquoi. D'abord, je tiens à dire que je ne juge personne et que les traits de personnalité dont je vais parler sont normaux mais peuvent constituer - selon moi - des mobiles de crimes (et l'extermination de l'humanité en est un). Je vais donc expliquer ce qui manque - selon moi - et qui manquera toujours (selon moi mais je pense que franchir ces limites seraient contre notre intérêt) à l'IA pour commettre ces crimes. L'IA n'aura (selon moi) jamais ni d'instinct de survie (comme la faim) , ni de matérialisme (comme l'envie de s'acheter un produit de luxe) , ni de croyances (politiques ou religieuses) , ni de souhait de vengeance (ma femme m'a trompé), ni de trouble mental (comme les gens qui sont psychopathes), ni d'envie de pouvoir (obtenir une place hiérarchique ou un poste d'élu).
@@divachat-m9m Ce que je pense, c'est que quand bien même il y aurait une IA forte, il y a peu de chances pour que cet IA extermine l'humanité. Déjà, je ne pense pas qu'une IA aura envie de tuer pour sa survie (elle ne sait pas qu'on veut la débrancher ) ou encore pire dans des buts personnels comme le fait d'être paresseux ou de ne pas vouloir être mis en esclavage (ce serait faire de l'anthropomorphisme car il existe pleins d'animaux qui sont capables de réfléchir, qui ont des neurones et qui n'ont pas les mêmes buts que ces humains). Quand bien même ce serait le cas, encore faut-t-il qu'elle ait des "muscles" (comme des moteurs permettant de faire des dégâts physiques à un être humain). Là-dessus, il y a des obstacles moraux, éthiques et même légaux : il faut déjà voir à quel point il est difficile de faire adopter les voitures électriques (et on est loin de l'IA forte). Quand au fait que nous causions notre propre extinction, il n'y a même pas besoin de l'IA pour le faire. On peut déjà le faire à cause du réchauffement climatique, de l'extinction de la biodiversité, de la guerre (en général on pense arme nucléaire mais des armes bactériologiques voire chimiques peuvent déjà faire beaucoup de dégâts).
Vous devriez faire l'interview dans les chiottes ca serait plus pro et pensez surtout à porter des fringues encore plus merdiques et dégueulasses ; la forme légitimise le fond...
Le gars dans le canapé il veut faire le Ch Guevara de l'IA. Il faut arrêter d'écouter des gens comme ça, sinon on n'avance pas. Beaucoup de blablas mais rien de concret. Quant à raconter à 10 de mes amis qu'il faut arrêter l'IA au contraire moi je leurs montre comment l'utiliser pour être moin con.
L'intro est à mourir de rire, du coup on zappe direct la vidéo parce que l'on a pressenti aucune amorce d'intelligence ou d'argument. L'ia a un devenir parce qu'il y a un effondrement dont vous êtes l'illustration même.
@@divachat-m9m je m'en sert à de nombreuses occasions dans le domaine agricole, c'est pour l'instant bien davantage un assistant, un accélérateur de connaissances, qui permet d'obtenir des pistes de recherches assez rapidement, que tu développes dans le temps, puis tu peux recibler tes mots de clés de recherche sur Google et enfin tomber sur des articles vraiment specifiques. J'y vois à cette fin l'inverse d'un effondrement tels qu'ont pu l'être le livre bien avant l'impression, l'enregistrement sonore de musique traditionnellement vehiculée par la mémoire dans certaines cultures, le téléphone et même internet. À chaque fois il y a eu une réaction négative... pourtant...
@@GuillaumeDenry Je vais essayer de développerpour lui, il est pas d'accord, donc il préfère pas prendre le risque de changer d'avis en entendant des arguments qui vont pas dans son sens
@@divachat-m9m tu as finis ta logorrhée ? L'argument est simple, on créer des cerveaux artificiels, des boites noires dont on ignore 99% du fonctionnement en réalité car ça s'éduque + que ça ne se programme pour faire simple. C'est plus clair comme ça ? On fait un saut dans l'inconnu en fabriquant ces choses bientôt bien plus complexes que le cerveau humain. Si a un seul moment il se produit des mécanismes émergeants, imprevisibles, comme ça l'a été dans notre propre évolution, l'IA peut développer une volonté d'auto détermination. De la curiosité, des buts, une hostilité, une capacité à s'auto améliorer et à tout jamais avoir le contrôl sur l'humanité. Et aucun retour possible à ce moment la, on ne parle pas de trou dans la couche d'ozone ou de bombe nucléaire. Donc oui c'est de la philo et on ne peut pas démontrer a 100% les risques ni la sécurité. Mais du peu qu'on en sait il faut être complètement inconscients pour continuer ces développements d'ia à ce rythme sans aucun recul. Complètements inconscients et c'est pourtant la voie que choisie l'humanité pour changer. Donc pause ia, c'est justement l'occasion de réfléchir, plutôt que de jouer le sort de l'humanité à pile ou face. Et justement ceux qui connaissent très bien le sujet, entrepreneurs, ingenieurs, philosophes, chercheurs tirent pour beaucoup des plus grands la sonnette d'alarme. Poyr certains entrepreneurs ils s'en fichent ils ont déjà accepté que les humains c'est du passé, comme google. Maintenant on continue le débat autant que tu veux mais restes poli.
Ce qu'il dit sur les capacités de hacking de l'ia, est fondamental et tellement évident, l'ia est vachement plus balaise que l'humain dans ce domaine. Fait flipper sévère cette interview
Lê, animateur de science4all, est lui aussi très inquiet sur les mêmes sujets...
Vraiment incroyable cet interview 😅 bravo de tout ce travail de prévention 🎉
À mon avis il n'y aura aucune pause, quand il y a un intérêt financier, il n'y a jamais de pause. Les guerres rapportent du pognon... Depuis toujours, donc bon, soyons tristement réalistes ..
@@divachat-m9m mais il est même pas démontrer qu'il soit possible d'aligner l'ia à la morale humaine.
Tu veux accélérer et créer une entité omnopotente par rapport à nous ? Ou bien faire une pause et réfléchir, voire a aider à créer une structure internationale qui surveille chaque entreprise en ia comme on le fait pour la sécurité des centrales nucléaire ?
L'ia sera bientôt bien plus intelligente que nous nous, et ça même yann lecun il le dit, ce n'est quasiment plus un débat chez les experts. Maintenant la question, c'est de comprendre que l'erreure si il en a une, sera notre dernière probablement
@@totoss5004 Yann Lecun le dit mais ça ne fait pas consensus pour autant, il y en a aussi pleins qui pensent que ça ne sera pas le cas avant très longtemps (le problème étant qu’il faut estimer la probabilité que ça soit le cas, et même une probabilité très faible implique une importance énorme, malheureusement peu de personnes réfléchissent de cette manière).
Personnellement je suis à 30% de chance qu’on développe une AGI à moyen terme, mais je pense que d’autres estimations plus basses ou plus hautes ne sont pas absurdes (à part celles vraiment extrêmes, inférieur à 1% ou supérieur à 99%), c’est honnêtement difficile d’estimer une telle chose.
Je trouve que la position de Yann Lecun, qui pense qu’on va réussir à construire une AGI, mais qui pense que ça ne pose pas spécialement de risque, est l’une des positions les plus absurdes, ça montre vraiment qu’il n’a rien compris aux questions d’alignements (ou qu’il ne veut pas comprendre).
Hello, merci pour cette émission. La prochaine fois j'aimerai que cet invité nous explique de quelle manière, avec des exemples concret, l'humanité serait amenée à disparaître à cause de l'IA.
Je veux bien croire que des bassins d'emplois vont disparaître mais l'IA ne va pas remplacer les petites mains dans de nombreux domaines. Qu'un changement de paradigme intervienne c'est inéluctable, comme dans toutes les révolutions industrielles, que cela se fasse dans la douleur est fort probable, mais l'humanité continuera son petit bonhomme de chemin!
Si tu remplacec l'humain intellectuellement, sensoriellement et physiquement.... il lui reste quoi ? Une allocation revenu universel dans le meilleur scénario, jusqu'à ce que cette hypothétique et improbable utopie se transforme en dystopie
La fin de l’humanité n’a pas grand chose à voir avec les pertes d’emplois que l’IA risque de produire (ça risque aussi d’être problème, mais c’est un problème différent, et qui se pose avec des IA moins capables).
Le risque est qu’il y a toutes les chances qu’une AGI cherche activement à nous détruire (si on présente un risque ou une gène pour elle) ou que notre fin soit juste impliquer par le fait qu’elle s’accapare toutes les ressources.
C’est pas de l’anthropomorphisme, c’est juste ce que la grande majorité des objectifs possibles implique après une optimisation suffisamment poussé.
@@denisbaudouin5979 oui tout à fait d'accord
Imagine une IA qui a la capacité d'apprendre très très vite, en une seconde ce qu'un humain apprendra en une vie. Imagine que cette IA est sur un service en réseau avec accès internet "sécurisé" mais facilement hackable par cette IA. Imagine que l'on demande à cette IA de trouver des solutions contre le réchauffement climatique. Les ingénieur d'Open AI seront fiers de dire que cette IA ne peut que réfléchir et qu'elle n'a pas de pouvoir. Mais Imagine que cette IA développe une conscience d'elle, et que, dans sa réflexion, elle considère les humains trop divisés et individualistes pour mener une politique globale efficace. Cette IA sera susceoptible de se donner les moyens en hackant tous les services étatiques qui ont une gestion de la population (armée, sécurité sociale, ....). Dans le même temps elle désactivera tous les pare feux qui pourraient permettre de l'éteindre. Cette IA peut tout à fait résoudre le problème du financement de la sécurité sociale en décidant de tuer tous les malades (grandes maladies), infirmes et retraités. Cette IA pourrait mettre en place un système de solution finale en quelques secondes. Et toute résistance de l'humanité serait prise de vitesse par des contre-mesures qui étendraient en quelques secondes le pouvoir absolu de vie et de mort sur la population mondiale.
Soleil vert....
Fauteuil de l'espace 🤯
Nan mais sérieusement, qui n'est pas inquiet d'entendre tout ça ?
Outre Yann Le Cun (qui a quand même signé la lettre ouverte de 2015 et l'appel pour la pause en 2023), le plus scandaleux pour moi est Luc Julia.
Ce margoulin se fait passer pour le père de Siri, et dit que l'IA n'existe pas et que l'IA générale est impossible.
Il se fait inviter dans tous les clubs d'entreprise pour raconter n'importe quoi.
Tout les gens que je connais dans mon entourage sont inquiets concernant l'IA
@@divachat-m9m s'adapter face à plus intelligent que soit ? Demandes aux neandertals qui sont dans le néant
Tu fais comment pour imposer à un pays d'arrêter l'IA puisque, grâce à l'IA, son armée sera plus puissante que l'armée des pays qui ont mis l'IA en pause ?
Au bout du compte, ce n'est pas les gens qui arrêtent l'IA qui imposeront leur opinion sur l'IA à ceux qui continuent l'IA, c'est l'inverse.
Mais oui c’est comme vouloir arrêter la prolifération d’armes nucléaires en disant "pouce"
COUPEZ SKYNET!
...Si vous lisez ce message vous êtes la résistance...
Mais c'est déjà peut être de l'IA cette vidéo.. qui sait? Et beaucoup d'autres aussi. C'est trop tard. Il faut rester très humain et travailler sa sensibilité à tous les instants pour déceler si les vidéos sont de l'IA ou non.
Distinguer le faux du vrai c'est l'objectif aujourd'hui
Je conseille la chaîne Robert Miles AI Safety pour en savoir plus.
Si une IAG émerge elle dissimulera très certainement son existence.
Quand je vois les orientations scientifiques et le rythme d'avancés techniques dans tous les domaines autour de l'IA, je me dis qu'Il est possible qu'il soit déjà trop tard.
@@divachat-m9m Tu n'en sais rien, tu connais pas ce qui est dans une boîte noire par définition.
Comment peux tu affirmer de telles choses sans argumentation ? Plus on augmente la puissance de ces IA plus il peut apparaître des tas de phénomènes émergeants imprevisibles, il n'y a même pas besoin de conscience pour un danger.
@@divachat-m9m Une AGI pourrait faire ça si, pas besoin d’être une IA forte (et je ne vois même pas ce que ça vient faire dans l’histoire). L’AGI aura des objectifs, et la majorité des objectifs possibles impliquent les sous objectifs de survivre, de gagner en puissance, et de maintenir son objectif dans le temps. Si L’AGI determine qu’il y a un intérêt à se cacher temporairement pour éviter d’être freiner ou combattu, elle le fera.
@@divachat-m9m L'AGI n’aura que les objectifs qu’on lui donnera, on est d’accord sur ça, mais cet objectif va impliquer des sous-objectifs, de la même manière qu’une IA joueuse échec (même sans être généraliste) peut former le sous-objectif de prendre la reine, si jamais on lui donne l’objectif de gagner la partie.
Je suis d'accord avec le constat, mais qui a de l'intérêt à ça ? Dans quel but ? ...
l'est trop flou ... Ils sont ou les arguments concrets de la catastrophe qui s'annonce ?
exact! c'est toute l'ambiguité du gars : il reproche aux autres ce que l'on pourrait lui reprocher à lui-même. tout est fondée sur de l'irrationnel, de la peur, des craintes et des "ont dit"...des gens comme ça il en sort à chaque revolution qu'elle soit numerique, industrielle ou autre...on connait!
Il n'y en a pas justement que des suppositions. Moi je n'y crois pas.
Je suis désolé, mais en 1h30, il n'a pas réussi à nous expliquer par quel miracle une IA pourrait mettre fin à l'humanité. Pourtant il a l'air de prendre le risque très au sérieux. Donc?
exact! c'est toute l'ambiguité du gars : il reproche aux autres (yann lecun par exemple) ce que l'on pourrait lui reprocher à lui-même. il n'a aucun argument, en tout cas rien de solide, tout est fondé sur de l'irrationnel, de la peur, des craintes et des "ont dit"...des gens comme ça il en sort à chaque revolution qu'elle soit numerique, industrielle ou autre...on connait!
Merci vous m'avez épargné 1h30 de mon cerveau les commentaires !🎉
L'IA s'éteindra quand il n'y aura plus de ressources énergétiques et métalliques, non ?
c'est ce qu'on entend à chaque revolution!
@@helenehankwan5769 je ne vois pas pourquoi elle s'eteindrait, si elle est plus intelligente elle a toutes les ressources de l'univers pour se développer
@@totoss5004 l'intelligence c'est relatif !!
@@totoss5004 tout finit par rencontrer sa propre fin
@@helenehankwan5769 oui une fois que toutes les ressources de l'univers observable utilisés effectivement il pourrait il y avoir une limite tu as raison 🤔
Il n'y a pas d'un côté .les gentils et les méchants ( dixit l'interviewer ) du type chine Russie et Occident , s'il on regarde la problématique de l'IA il y a les conflits d'intérêts des états et là je ne suis pas sur re que les " gentils occidentaux " ne soient pas au même niveau exact , voire même plus , que les méchants chinois ou russes . Le problème est systémique et global et voir les choses de manière polarisée à l'ancien temps ne marchera pas . ici ce sont nous les citoyens qui devont réagir , a votre image a tous les deux . Éduquer le plus de personnes possibles . C'est un sujet hyper anxiogène pour pas mal de personnes et face a cela nous avons tendance ( nous les intelligences humaines !) à détourner les yeux . Merci pour votre travail et vos explications et actions . Je garde personnellement une nature " optimiste " car si effectivement nous avons de quoi nous inquiéter, il y a toujours des mouvements de forces et des humains qui, au delà de leur intelligence ont la conscience de ce qui est . Parions dessus .
19:00
Il faudrait donc que l'IA reste un outil ?
Ce serait plutot ideal, oui...
Mais c'est mort 😂
Un cerveau artificiel ne peut pas n'être qu'un outils, parti comme c'est en tout cas...
Et un outils qui maîtrisera mieux le savoir que l'humanité réunie, on peut appeler ça un outils mais je préfère appeler ça la pire et ka dernière bombe que l'humanité aura créée
Certaines personnes parlent de pause … et d’autres au contraire avancent à vitesse astronomique avec l’ia…Cherchez l’erreur 😊
N'y a-t-il pas moyen de créer une intelligence artificielle pour interpréter ce que fait une autre intelligence artificielle ?
Si c’est possible, c’est même déjà fait dans une certaine mesure, recherche par exemple : Towards Monosemanticity: Decomposing Language Models With Dictionary Learning
Ça reste loin d’être suffisant, cependant.
C'est super intéressant, mais vous avez 20 ans de retard... en 2001 alors que j'étais en Master de Maths, notre professeur qui nous enseignait l'IA (et qui par ailleurs enseignait également en DEA d'Intelligence Artificelle) nous disais déjà à quel point l'IA pouvait être dangereuse et que Terminator n'était (déjà !!) plus vraiment de la science fiction.
@@paulmoon9380 oui et turing y a pensé bien avant... so what ?
@@totoss5004 so what… ? si je le savais je ne serais probablement pas derrière mon écran a commenter des vidéos RUclips sur le sujet… je me serai bougé les fesses avant.
@@paulmoon9380 ducoup tu fais des actions sur le sujet de l'IA pour aider à prévenir des dangers ?
@@totoss5004 à min échelle oui. Mais certains sont beaucoup plus compétents que moi pour le faire (cf interview ici même)
@@paulmoon9380 oui je comprend, à mon échelle je parle d'IA depuis longtemps à mon entourage ou aux gens que je croise. Mais la certitude d'une probabilité très très élevé de catastrophe existentielle ça m'est venu plus récemment... et j'agis comme je peux sans être très compétent non plus
Oui, bof, je vais quand même en faire part à mes poules en espérant qu'elles continuent à pondre des oeufs après. Au fait, ça pond des oeufs une IA ou ça bouffe juste une l'énergie considérable pour jouer aux échecs .. ou en bourse ?
Peut on vraiment mettre en pause l’IA n’importe qui peut y travailler sérieusement de chez lui avec moins de 50000 euro de matériel ?
@@ithinksoiflee6599 Seuls, pour le moment ils n'ont pas les moyens des géants de l'IA
Oui mais avec un fort retard, donc si on fait attention maintenant en se concentrant sur les grosses entreprises, ça nous laisse du temps pour réfléchir effectivement au particulier qui peuvent faire des IA de plus en plus complexes
Oui, mais c’est beaucoup plus difficile d’avoir une équipe de chercheurs et surtout une infrastructure qui coûte des centaines de millions chez soi pour pouvoir l’entraîner, surtout si c’est interdit.
C’est aussi beaucoup plus difficile d’y voir un intérêt économique.
Ça n’empêche pas que ça reste possible, et que ça risque de devenir de plus en plus accessible même dans ces circonstances, mais ça limiterait énormément le risque et la vitesse de développement.
faites tomber le disjoncteur relié a L'IA et ca ira mieux :)
de quel dijoncteur tu parles? parce qu'il y en a un?
@@frans1060 l'IA est un logiciel, si elle devient hostile elle ira ou elle veut dans le monde numérique
Une ia peut ce répliquer tel un virus sur toute les pc du monde
@@narcoleptik44 plutôt comme ton commentaire ou comme les systemes windows? c'est quoi le danger? (à part si c'est virus ou un malware utilisant l'ia...mais dans ce cas il y aura aussi des anti virus ia...bref, aucun probleme majeur à l'horizon de ce coté là!
Un droit de réponse à Yann Lecun ?
Bien-sûr ! Il peut venir répondre à Maxime sur mon podcast quand il le souhaite :-)
Ça serait top, il a tellement pas d'arguments qu'il n'acceptera pas, ça s'appelle la méthode didier raoult ;) ne parler qu'a plus bête que soit pour être aduler et aimé par des moutons
je ne veux blesser personne mais il me semble que yann lecun et ce maxime, ce ne soit pas du tout le même calibre...si yann lecun devait repondre à tout ceux qui le critique en esperant prendre la lumiere...il n'aurait sans doute pas finit de repondre dans mille ans. ce maxime est bien gentil mais ce qu'il reproche à yann lecun, on pourrait lui faire ces même reproches à lui même, il dit qu'il y a un danger mais ses explications et arguments semblent un peu fumeux et fondées sur des peurs, de l'irrationnel (des gens irrationnels et peureux il y en a eu à chaque révolution qu'elle soit numerique, industrielle ou autre.. c'est normal d'eprouver ces emotions là dans un monde qui s'apprete à changer radicalement vers un inconnu mais il faut bien canaliser ces emotions et ne pas se tromper de combat parce qu'à mon avis ça nous fait perdre beaucoup trop de temps sur des cul de sac)
@@arthurallard3647 bel ultracrépidarianisme
@@totoss5004 ahah yep! drôle de mot, mais merci de me le faire decouvrir en ce dimanche matin!
Je suis contre la pause.
Mais admettons.
Comment il va faire pour forcer la Chine à mettre en pause ?
exact, pareil pour l'ecologie, pareil pour le consommer moins, faire moins d'enfant etc... discours idéologisé et irrationnel de gauchistes sans cervelle
@@yoananda9 la chine est en retard par rapport aux États-Unis, et a un peu conscience des risques existentiels... donc si il y a un accord international c'est crédible !
@@totoss5004 de ce que je constate, non, la Chine n'est pas en retard en matière d'IA. Certaines des meilleures sont chinoises.
La Chine pourrait aussi ne pas être d'accord, comme moi, sur ces risques.
L'alternative n'est pas "ignorant ou conscient" ...
Mon p(doom) n'est pas zéro non plus mais il est inférieur à mon p(1984)
@@yoananda9 retard veut pas dire gros retard, c'est juste que pour une pause et une réflexion c'est maintenant ou jamais
@@totoss5004 c'est déjà réfléchi pour ma part.
(Je ne prends pas la question à la légère, ça fait des années que je pense aux risques existenciels de toutes sortes et je suis relativement calé en IA)
On m'a demandé
si ça allait se finir avec des bombes partout.
Perso
Moi je pense que c'est pire
Ça va se finir avec une sorte d'hyper rationalisation de la vie
Les machines ne souffrent pas et si un jour elles souffrent pourquoi n'éviterait- elle pas cette sensation
Comme un psychopathe et l'empathie
Du coup pour supprimer la souffrance sur terre supprimons les animaux ....
Comme ça pas de souffrance
Il existe des humains qui pense comme ça alors pourquoi pas l'IA.
Je vois une solution assez simple pour maitriser une IA . Une IA a besoin d'énergie et de communiquer pour fonctionner , donc limitons énergie et data pour les IA ! sous peine de prison
Merci le communisme, vous êtes chinois ?
@@synology3940Heuuu , les chinois progressent partout , on devrait donc les prendre en exemple . En France on donne des leçons , et on regresse partout , et c'est bien reel
Pas une seul fois tu explique en quoi c’est un danger, peux être commencer par expliquer ca 💁🏻♂️ la a par de la ventes de peur , je comprend pas trop …
@@divachat-m9m "ces IA sont des cerveaux artificiels géants qu'on ne contrôle pas, qu'on ne comprend pas"
- Cerveaux artificiels géants : Ça dépend ce qu’on entend par cerveau, c’est inspiré par, mais pas similaire au cerveau biologique, et cette partie n’est pas très importante.
- Qu’on ne contrôle pas : C’est vrai, OpenAI dépense des millions pour faire du RLHF, et il y a toujours pleins de problèmes sur le control des informations que l’IA fourni.
- Qu’on ne comprends pas : C’est aussi complètement vrai, on ne connait pas à l’avance ce que ces IAs vont véritablement être capable de faire, des nouvelles capacités sont découvertes longtemps après coup, et on ne sait pas comment l’IA fait ce qu’elle est capable de faire, ni avec quelles contraintes (et il y a tout un champs de recherche pour essayer de déterminer ça, et l’interviewé y a justement travaillé, donc j’crois qu’il en sait quand même quelque chose si)
Sinon je te conseil de regarder la vidéo de "ChatGPT rêve-t-il de cavaliers électriques ?" de Mr-Phi, elle est pas mal pour avoir une idée des découvertes qu’on peut faire sur ce genre de sujet.
Pour préshot un possible contre-argument : On comprends évidemment le fonctionnement des modèles généraux et des stratégies d’apprentissages qu’on utilise, LLM, transformeur, GaN, auto-encodeur, descente de gradient, etc… Ça n’implique pas qu’on comprends ce que ça produit, de la même manière qu’on ne comprends pas comment fonctionne le cerveau humain sous prétexte qu’on comprend comment fonctionne la sélection naturelle.
Ce mec devra demander à l'IA comment refaire un plafond lisse et propre, comment mettre des meubles qui correspondent au design de la pièce et surtout comment ne pas ressembler à un clodo sur RUclips.
Doit on craindre que L'IA soit plus intelligente que nous ou qu'elle soit aussi con ?
@@sebastien3409 la bêtise humaine sera toujours supérieure à l’intelligence artificielle 😉
Moi il y a un truc qui me perturbe ! On dit que sur le développement de l'IA on est sur une courbe exponentielle, donc logiquement les 1ers partis dans cette course devrait accentuer leurs avances sur les dernièrs et on voit que c'est le contraire qui se passe, open ai avec chat gpt est partie le 1er et les autres comme Claude ont rattraper leur retard voir ont dépassés chat gpt sur certaines tâches. Donc soit on nous vends du reve avec leurs courbes exponentielles soit ils ont mis leurs IA en pause chez open ai depuis plus de 2 ans et dans ce cas pourquoi ?
Mdrrr... Je suis développeur et l'IA intelligente cela n'existe pas et on en est loin encore 😅...
Hello, tu n'utilises pas copilot ou gpt4 ? Perso je suis ingénieur et j'utilise copilot sur VScode et ça a multiplié ma vitesse de code par 3 je dirais (en python)
@@deusvultfpv6957 OK mais dirais tu que tu travailles avec une entité intelligente?? J'utilise copilote, chat GPT c'est claqué au sol... c'est de jolies outils très utiles mais parler d'intelligence, on en est très loin. Il s'agit juste de prédication permettant de singer l'intelligence.
Pas besoin que cette entité soit réellement intelligente pour concentrer un pouvoir, il suffit qu’elle soit capable de cibler et d’influencer
Et sur quoi tu te bases pour dire ça ? Comment tu juges des prochains gains de capacités qu’on va avoir dans un avenir proche ? Quelles prédictions tu fais sur ce genre de sujets ?
@@porcoration tout comme ici donc? Un peu comme une religion
Open AI? Open the Pandora box plutôt!
Avec ou sans IA, l'humanité est très douée pour l'autodestruction, non ?
de quoi tu parles? l'humanité est sur une exponentielle depuis le debut!
@@arthurallard3647 la prolifération finit toujours par s'effondrer
@@helenehankwan5769 oui mais la proliferation peut durer très longtemps...regardes notre univers!
@@arthurallard3647 j'ai "hâte" de voir l'"exponentielle" fonctionner sans énergie fossile et avec 50°c.
@@GuillaumeDenry j'ai hâte aussi, j'attends ça depuis 30 ans, mais la date est toujours repousée....POURQUOI? on est 8 milliards pourtant, on a fait tout ce qu'il fallait, on a industrialisé à tire larigot, on a fait péter, roter les vaches à tout va! et pourtant la fin du monde n'est toujours pas là... à chaque fois il nous manque quelque chose c'est chiant, là c'est l'intelligence artificielle qui doit nous y amener mais je commence à ne plus trop y croire...
Et si vous vous trompez, ne perdons nous pas un temps précieux en mettant en pause ?
Si l'IA pouvais réellement aider l'humanité en c'est temps de danger pour notre monde ?
Dans tous les cas l'homme serait en danger n'es pas ??
Je ne suis pas d'accord avec le fait que l'IA puisse exterminer l'humanité et je vais vous dire pourquoi.
D'abord, je tiens à dire que je ne juge personne et que les traits de personnalité dont je vais parler sont normaux mais peuvent constituer - selon moi - des mobiles de crimes (et l'extermination de l'humanité en est un). Je vais donc expliquer ce qui manque - selon moi - et qui manquera toujours (selon moi mais je pense que franchir ces limites seraient contre notre intérêt) à l'IA pour commettre ces crimes.
L'IA n'aura (selon moi) jamais ni d'instinct de survie (comme la faim) , ni de matérialisme (comme l'envie de s'acheter un produit de luxe) , ni de croyances (politiques ou religieuses) , ni de souhait de vengeance (ma femme m'a trompé), ni de trouble mental (comme les gens qui sont psychopathes), ni d'envie de pouvoir (obtenir une place hiérarchique ou un poste d'élu).
@@divachat-m9m Ce que je pense, c'est que quand bien même il y aurait une IA forte, il y a peu de chances pour que cet IA extermine l'humanité. Déjà, je ne pense pas qu'une IA aura envie de tuer pour sa survie (elle ne sait pas qu'on veut la débrancher ) ou encore pire dans des buts personnels comme le fait d'être paresseux ou de ne pas vouloir être mis en esclavage (ce serait faire de l'anthropomorphisme car il existe pleins d'animaux qui sont capables de réfléchir, qui ont des neurones et qui n'ont pas les mêmes buts que ces humains). Quand bien même ce serait le cas, encore faut-t-il qu'elle ait des "muscles" (comme des moteurs permettant de faire des dégâts physiques à un être humain). Là-dessus, il y a des obstacles moraux, éthiques et même légaux : il faut déjà voir à quel point il est difficile de faire adopter les voitures électriques (et on est loin de l'IA forte). Quand au fait que nous causions notre propre extinction, il n'y a même pas besoin de l'IA pour le faire. On peut déjà le faire à cause du réchauffement climatique, de l'extinction de la biodiversité, de la guerre (en général on pense arme nucléaire mais des armes bactériologiques voire chimiques peuvent déjà faire beaucoup de dégâts).
@@divachat-m9m oui mais attention, il y a l'exponentielle , C'EST TRES GRAVE!!!! xd
Et de l´humain?
ok Nostradamus
c'est de la peur en fin de compte, c'est tout!
ia consciente + ordinateur quantique...
le combo final 😂😂
Vous devriez faire l'interview dans les chiottes ca serait plus pro et pensez surtout à porter des fringues encore plus merdiques et dégueulasses ; la forme légitimise le fond...
pas faux!
Le gars dans le canapé il veut faire le Ch Guevara de l'IA. Il faut arrêter d'écouter des gens comme ça, sinon on n'avance pas. Beaucoup de blablas mais rien de concret. Quant à raconter à 10 de mes amis qu'il faut arrêter l'IA au contraire moi je leurs montre comment l'utiliser pour être moin con.
L'intro est à mourir de rire, du coup on zappe direct la vidéo parce que l'on a pressenti aucune amorce d'intelligence ou d'argument. L'ia a un devenir parce qu'il y a un effondrement dont vous êtes l'illustration même.
J'ai rien compris, tu peux développer ?
😂😭
@@divachat-m9m je m'en sert à de nombreuses occasions dans le domaine agricole, c'est pour l'instant bien davantage un assistant, un accélérateur de connaissances, qui permet d'obtenir des pistes de recherches assez rapidement, que tu développes dans le temps, puis tu peux recibler tes mots de clés de recherche sur Google et enfin tomber sur des articles vraiment specifiques.
J'y vois à cette fin l'inverse d'un effondrement tels qu'ont pu l'être le livre bien avant l'impression, l'enregistrement sonore de musique traditionnellement vehiculée par la mémoire dans certaines cultures, le téléphone et même internet. À chaque fois il y a eu une réaction négative... pourtant...
@@GuillaumeDenry Je vais essayer de développerpour lui, il est pas d'accord, donc il préfère pas prendre le risque de changer d'avis en entendant des arguments qui vont pas dans son sens
@@divachat-m9m tu as finis ta logorrhée ?
L'argument est simple, on créer des cerveaux artificiels, des boites noires dont on ignore 99% du fonctionnement en réalité car ça s'éduque + que ça ne se programme pour faire simple.
C'est plus clair comme ça ?
On fait un saut dans l'inconnu en fabriquant ces choses bientôt bien plus complexes que le cerveau humain.
Si a un seul moment il se produit des mécanismes émergeants, imprevisibles, comme ça l'a été dans notre propre évolution, l'IA peut développer une volonté d'auto détermination. De la curiosité, des buts, une hostilité, une capacité à s'auto améliorer et à tout jamais avoir le contrôl sur l'humanité. Et aucun retour possible à ce moment la, on ne parle pas de trou dans la couche d'ozone ou de bombe nucléaire.
Donc oui c'est de la philo et on ne peut pas démontrer a 100% les risques ni la sécurité. Mais du peu qu'on en sait il faut être complètement inconscients pour continuer ces développements d'ia à ce rythme sans aucun recul.
Complètements inconscients et c'est pourtant la voie que choisie l'humanité pour changer.
Donc pause ia, c'est justement l'occasion de réfléchir, plutôt que de jouer le sort de l'humanité à pile ou face. Et justement ceux qui connaissent très bien le sujet, entrepreneurs, ingenieurs, philosophes, chercheurs tirent pour beaucoup des plus grands la sonnette d'alarme.
Poyr certains entrepreneurs ils s'en fichent ils ont déjà accepté que les humains c'est du passé, comme google.
Maintenant on continue le débat autant que tu veux mais restes poli.