Plusieurs semblent demander pourquoi les algorithmes de langage favoriseraient plus les attaquants que les défenseurs. Une réponse est financière : le cybercrime peut dépenser des milliers de milliards de dollars pour attaquer, alors que la plupart des entreprises ont à peine un employé qui s'y connait en sécurité, et alors que la plupart des employés sont très ignorants des risques que leurs habitudes numériques impliquent pour toutes leurs entreprises. Une autre réponse réside dans les habitudes de travail à venir : avec des algorithmes de langage, il est beaucoup plus facile de "pisser du code spectaculaire" et non sécurisé. Le coût de la sécurité pourrait alors être x100 le coût d'un code qui semble faire l'affaire. Beaucoup d'entreprises risqueront de préférer ne pas payer le x100 en développement logiciel...
Les algorithmes de langage ne serviraient pas que pour la défense, mais aussi pour beaucoup d'autres choses dans l'entreprise (recrutement, SAV, création, publicité individualisée, ...). Si tu veux comparer les bénéfices aux coûts, il faut prendre en compte toutes les utilisations de cette innovation, pas une seule. Et ça serait différent pour chaque entreprise. Donc le calcul est-il faisable ? C'est sympa de nous prévenir des risques des nouvelles technologies, mais prétendre connaître le résultat d'un calcul impossible et vouloir l'imposer aux entreprises, aux utilisateurs (tu as parlé d'interdiction), n'est-ce pas un peu totalitaire ? ("je sais mieux que vous ce qui est mauvais pour vous") Le conséquentialisme ne marche que si - on n'a pas une tâche aveugle nous empêchant de prendre conscience de certaines conséquences (par exemple réguler la vie des gens pour leur bien peut avoir pour conséquence une forte oppression sur ces gens, mais celui qui produit cette régulation va avoir tendance à ne pas prendre conscience de cette conséquence, donc il ne sera pas vraiment conséquentialiste, mais il croira dur comme fer qu'il l'est), - on est omniscient.
@@3emeType Ne retenir que l'interdiction c'est un peu avoir zappé les 2/3 de ce qu'il raconte. Je ne me souvenais même pas qu'il parlait d'interdiction alors je suis allé voir la transcription: "ces technologies dans le contexte actuel ou le cybercrim domine ces algorithmes sont extrêmement dangereux il faudrait urgemment investir beaucoup plus dans leur régulation leur audit voire leur interdiction." C'est quand même bien plus nuancé. De plus les bénéfices on en a actuellement aucune idée tangible. Ces technos sont totalement faillibles. Elles comprennent plutôt bien ce que l'utilisateur demande, mais ne savent absolument pas de quoi elles parlent. Si quelqu'un utilise un système d'auto complétion de texte pour son travail, et qu'il se retrouve à faire une connerie grave, qui va devoir porter le chapeau? Je trouve aussi que la communication de OpenAI est vraiment trompeuse. Ils disent clairement que "parfois le bot se trompe", alors que dans mes cas d'utilisation, il se trompait la moitié du temps. Et quand on sait comment fonctionne ce genre de bot, je trouve ça déjà incroyable qu'il ne raconte pas des conneries 100% du temps.
C'est très biaisé ce que tu dis. En vrai y a de fortes chances que ces IA génèrent des codes beaucoup plus qualitatif ,sécurisé et maintenable que ce que font déjà beaucoup de devs humains payés au lance pierre sans audit qualité. Tu ne sembles pas bien au courant des réalités du monde du dev en dehors du milieu académique
@@oni2ink "C'est quand même bien plus nuancé." Une régulation est l'interdiction d'une pratique. Donc il dit bien qu'il faut urgemment interdire quelque chose. "les bénéfices on en a actuellement aucune idée tangible" Qui est "on" ? Peut-être que certaines personnes ont de très bonnes idées des bénéfices que ça peut leur apporter. Pourquoi se placer en tant que "plus savant que les autres" et décréter que les bénéfices apportés par X ne peuvent pas dépasser Y alors qu'on n'en sait rien ? "Si quelqu'un utilise un système d'auto complétion de texte pour son travail, et qu'il se retrouve à faire une connerie grave, qui va devoir porter le chapeau?" Ça se négocie dans le contrat. Il y a plusieurs façons de gérer ce cas. Et si on laissait ces différentes stratégies exister au lieu d'en imposer une seule à tout le monde ?
Cette vidéo est une extension de ton passage à France culture (que vous pouvez toujours réécouter). Vraiment cool comme d'hab tu donnes pleins de trucs à aller creuser. Merci à toi !
ChatGpt a une "opinion" sur le sujet, notamment sur le fait que la sécurité est à présent gérée par des instances gouvernementales, comme le JAIC (Joint Artificial Intelligence Center) du département de la défense des états-unis. Un autre point : pourquoi des privés s'empareraient de telles technologies sachant qu'elles sont possédés par des entreprises ? Étant donnés qu'ils ne possèdent ni le code source protégé (chatGPT "m'a parlé" de la sécurisation des IA contre les cyberattaques) ni les machines capables de faire tourner ces programmes, ils devront faire appels, comme les utilisateurs bienveillants, à des API. Hors, c'est là que la régulation pourra être faite. Des programmes antivirus déployés par les entreprises pourraient détécter et bannir les utilisateurs qui tenteraient d'utiliser ces IA pour écrire du code malveillant (surtout si c'est des vielles arnaques avec du code bidon facilement détéctable). Juste ici un dossier drive commentable par tout le monde contenant "l'interview" de chatGPT: drive.google.com/drive/folders/1eUGKwZOEssyeSz7Xewttn6J_BWFpDUC5 (désolé pour ce moyen du bord mais je suis sur Android)
C'est juste terrifiant : se dire que chaque nouvelle idée, chaque nouvelle invention peut être si facilement détourner par des criminels, et de plus en plus, et avec de plus en plus de dégâts à la clé. Je dis ça parce qu'hier, justement, je regardais une vidéo RUclips qui faisait des démonstrations de ce qu'on pouvait faire avec ChatGPT, et notamment lui demander de créer un script en Python pour le logiciel 3D Blender. Là où je trouvais ça formidable, me disant que j'allais peut-être pouvoir faire des contenus hyper cool grâce à ça, d'autres vont évidemment (parce que je pense que vous avez raison) s'en servir à des fins malveillantes. Le pire, c'est que la nature humaine est telle qu'il suffit d'une poignée d'individus pour ficher en l'air tout le merveilleux de ce type de programmes. Bref, tout ça fait froid dans le dos.
Petite correction : BLOOM n'est pas open source, la licence du modèle viole la définition de l'open source en imposant des limitations à l'utilisation du modèle (par exemple dans le domaine médical).
Bonjour Lê, comme il y a bcp d'information dans toutes tes vidéos, ce serait bien si tu pouvais afficher les données complexes et chiffrés à l'écran (genre 1 ou 2 diapos avec chiffres et graphiques) et que tu commentes en voix off derrière, ce serait plus facile à suivre et à comprendre pour ceux comme moi qui n'y connaissent quasi rien à tout ce qui est cyber sécurité.
Et encore ChatGPT est une IA "gentille". On attends tous une IA qui n'ait pas ses limitations. L'industrie du crime pourrait financer sa propre IA sans ces considerations ethiques par exemple. J'ai tout de meme reussi a faire ecrire un reverse shell malgres les blocages. En fait, j'ai reussi a aller bcp plus loin qu'un reverse shell. Et je ne suis pas le meilleur programmeur du coin.
Certes mais la difference avec une personbe lambda cest que tu savais ou chercher et quoi lui demander pour parvenir a ton resultat. Si je le met dans les mains de ma mère par exemple il n'y a pas la moindre risque qu'elle ponde un malware fonctionnel
Vidéo absolument nécessaire. La presse et le public préfèrent se questionner sur des formulations jugées sexistes et attribuer à ChatGPT une forme de conscience, plutôt que prendre la mesure des réels danger qui nous guettent.
Les gens semble ne même pas se rendre compte des danger qui nous gete. Les gens se disent que c'est un outil alors que cela va juste provoquer cataclysme sur le marché de l'emploie. Les IA qui generent des images comme midjourey perturbent déjà les artistes. Si nous ne prenons garde, les conséquences risquent d'être violentes.
Tu as totalement raison, beaucoup ne s'intéresse qu'aux questions moralement ou plutôt politiquement non correcte de notre époque qu'à l'intelligence artificielle. Mais je me permet de te dire une chose si tu l'as pas encore remarqué, la seule chose qui va changer la boussole des questions est le fait de subir une attaque avec un cataclysme très puissant. Jusqu'à ce que ce jour arrive, rien ne changera. Et ne sous estimez pas les êtres humains, tout cela ne m'inquiète pas du tt, c'est la marche de l'histoire, un jour viendra, ou toutes ces questions seront de l'ordre d'évidence, et ce combat a déjà commencé
Je n'aime pas l'argumentaire de cet vidéo qui se résume a : Il y a un gros loup là bas, passons des lois pour qu'il y ai très peu de personnes au courant. La technologie est présente et empêcher sa démocratisation ne la fera pas disparaître. L'histoire de France est un cimetière de technologies avortées sur l'autel de la régulation.
Excellent panorama..tant d'un point de vue scientifique ( vous nous avez parfaitement expliqué en quoi, et pour quelles raisons, Google n'est pas devancé par OpenAI); que d'un point de vue societal et surtout les risques liés au cybercrime. Ce dernier volet, pourtant fondamental, n'ayant pas du tout été développé, et ce à tort, dans tous les articles laudateurs ou " ébahis" que j ai lu dans les grands magazines ou quotidiens français dits de référence. Encore Merci!
Excellente vidéo merci ! Il serait vraiment intéressant de vous voir participer à des conférences sur les risques posés par chat GPT et les questions de sécurité que cela pose. Et en lien avec les IA en général, il y a clairement un parallèle à faire avec la question de vérification des sources et des fakes news. Avez-vous des interventions prévues sur ces sujets aux Rencontres de l'Esprit critique de Toulouse ?
Bonsoir, et merci pour ton travail très instructif ! Une question me trotte dans la tête, si ChatGPT n'est pas du "dernier cri", est-ce que les professionnels du cyber-crime ne sont pas; si ce n'est mieux équipés; au moins déjà utilisateurs d'IA du langage aussi performantes ? Et, y a t'il des moyens accessibles pour les particuliers de se protéger des techniques de reconnaissance de frappe (autre que la prévention des populations à l'esprit critique)?
Les criminels n'ont pas à être beaucoup mieux équipés que leurs cibles. Tant qu'on ne peut pas détecter une arnaque crée avec une IA publique, ils n'ont pas à développer de meilleurs mécanismes. Contre la reconnaissance de frappe sur smartphone, il faut désactiver le partage des données depuis le clavier ou utiliser un clavier sans cette fonctionalité.
Merci pour la vidéo. Il est certain que les hackers ont déjà un niveau de veille très élevé, donc ils n'ont pas attendu ChatGPT pour se lancer là dedans. En revanche sa démocratisation entraînera comme tu le dis une utilisation plus facilitée (à l'instar des blackhole kits), et donc répandue. Le point sur la publicité est majeur en effet, contrairement à ce qu'on pourrait en penser de prime abord. Sinon, chez TEHTRIS on utilise l'IA pour contrer ces méthodes (une course du quotidien). On saura vous conseiller si les chiffres sur les PME vous alarment. Merci pour le contenu (P.S : j'ai kiffé ton livre sur ton voyage Bayésien)
Beaucoup d'émotion dans cette vidéo. Je n'aime pas lorsqu'on tente de me transmettre une peur et je ne suis pas d'accord avec la régulation. Cela dit, c'est important d'ouvrir les yeux sur ces risques dont je n'ai entendu parler nulle part ailleurs. Merci de m'avoir apporté cela.
Merci pour cette vidéo. Le soucis est que parler de régulation sans parler de frontière c'est donner une solution de math sans avoir précisé le domaine de définition.
La vidéo est intéressante mais malheureusement je ne crois tellement pas en une régulation préventive, actuellement on est vraiment dans une logique ordolibérale avec l'idée que les entreprises sont innovatrices et régulatrices, loin d'une régulation étatique. En plus internet n'a pas de frontières, faire des lois juste sur notre territoire ne va pas suffire d'autant que, à mon sens, ce problème doit plus être pris sous l'angle technique préventif avec un financement d'organismes qui vont développer la sécurité alors que la loi c'est souvent pour punir un fait tenté ou réalisé et/ou indemniser donc souvent la loi arrive quand c'est trop tard... Ça impliquerait alors un fort financement sur un risque éventuel en France voir en UE avec la promulgation de lois qui entourent les pratiques où là il faudrait au moins une régulation au niveau de l'UE... Ça ne va pas arriver demain et je pense que ça arrivera trop tard lorsque qu'une grosse entité sera attaquée et que les retombées seront conséquentes. Ça fait des années qu'il y a une sonnette d'alarme sur le dérèglement climatique, les réactions des états sont lentes voir inexistantes, alors une problématique apparue récemment n'a, à mon sens, que peu de chance d'être prise au sérieux.
Tout à fait d'accord. On commencera réellement à se poser la question quand il sera trop tard. Mais cette vidéo est tout de même rafraîchissante, au milieu de cette "hype" à l'IA sans aucun recul. On sera tous affectés tôt ou tard (pas forcement que par la cybercriminalité) et y réfléchir maintenant nous permettra au moins de nous préparer un peu.
C'est effrayant. Quand on cumule tous les dysfonctionnements, ça, l'écologie, les problèmes énergétiques, le rejet de la science, le rejet de la société, tout ça constitue un faisceau de présomptions qui annonce une fin brutale et proche de notre civilisation.
L'arrivée de ChatGPT c'est comme filer du jour au lendemain un fusil pour tous les foyers français, il serait facile d'imaginer le chaos que cela créait dans une nation où les armes à feu sont relativement peu étendues. Mais c'est très motivant pour tout chercheur touchant de près aux problématiques de sécurité/privacy(/robustesse ?) des IA.
@@louisxiv736 Je sais ce que tu vas me répondre, épargne-moi ça. Moi je te parle de foyers du grand public. D'avoir tous les citadins de Paris équipé d'un fusil, c'est ce dont je parle.
Comme bonne utilisation de l'IA, enfin du moins des réseaux de neurone, on a eu AlphaFold2 dans le domaine de la biochimie. Il est d'ailleurs dispo sur Foldit, avec un nouvel outil "Neural Net Mutate", qui depuis quelques mois, fait un peu l'inverse d'AlphaFold : générer des acides aminés. Surement que toutes IA de texte ou d'image peuvent aider indirectement l'évolution des avancées scientifiques dans les protéines. Ces nouvelles IA provoquant un tel engouement, car c'est cool de générer des images ou du texte (bien plus que des protéines), les gens sont plus investis pour faire évoluer les techniques.
L'attaquant paralyse le système car le système contient des failles -> Le système est paralysé. -> Incentive énorme à être plus robuste -> Le système investit pour être plus robuste et pouvoir faire face à une attaque similaire. L'autre possibilité c'est de mettre 100% des efforts pour que l'attaquant n'ai jamais accès à l'attaque. Or cette dernière option est, selon moi, de plus en plus irréaliste surtout quand tu vois que les états eux même sont parfois les attaquants et que les outils se sont déja pas mal démocratisés.. Enfaite, c'est comme si tu voyais un tsunami et que tu voulais stopper la vague, alors qu'il est surement plus réaliste de prévoir la reconstruction. Je sais pas si m'exprime bien. Aussi, je te souhaite d'aller bien. Car tu as l'air de moins en moins bien... Prends soin de toi stp.
Merci Lê pour cette excellente vidéo. Il y aurait beaucoup à dire sur l'intelligence artificielle au niveau éthique, le budget de la recherche en France, les chercheurs français qui préfèrent partir dans un autre pays car ils vont mieux gagner leur vie, ...
Petite précision sur les gros modèles de langue de Google : Lê parle de Lambda et Palm en disant que Google ne les a pas rendus accessibles au grand public pour des raisons d'image. Mais c'est oublier que le fameux article de Google qui introduisait les transformers ("Attention is all you need") en 2017 s'accompagnait déjà du modèle BERT qui était lui aussi assez musclé. Or, BERT est tellement facile d'accès que dans les dernières années, la recherche sur les gros modèle de langue s'est beaucoup concentrée sur BERT. Là tout de suite, vous pouvez télécharger BERT et tout un tas d'autres gros modèles de langue et même les customiser pour qu'ils fassent ce que vous voulez
Bof bof. Le biais de Monsieur Nguyen est fort quand même. L'analogie du couteau est quand même très pertinente. Quant à l'interdiction, elle n'implique pas la suppression ou la disparition... Cf. la prohibition. Là où on se rejoint c'est sur le point de la cybersécurité. Il en faut bcp (bcp bcp bcp bcp) plus. Mais on en reviendra toujours au principe de réalité : les gens sont pas assez éduqués.
Merci pour cette analyse toujours très pertinente pour nous faire mieux réflechir sur ce sujet. Tu me convainc toujours avec tes arguments très solides.
L'homme court à sa perte. Chaque ordinateur (connecté) sait plus de trucs que son propriétaire, ils savent tout sur tout le monde. Terminator était visionnaire mais il s'est planté dans les dates. C'est maintenant.
Beaucoup de blabla et de critiques qui tournent en rond pendant 20 minutes sans aucune référence solide ! Félicitations pour votre facilité à tenir si longtemps sans vraiment susciter un intérêt quelconque à des propos plutôt creux.
J'en suis à 2:44 mais la doctrine installée qui fait un lien direct ChatGPT === Criminalité augmentée et par généralisation IA === Criminalité augmentée, je grince des dents... Oui, il y a ces risques ! Mais aujourd'hui sans IA, le risque est déjà là. On va voir la suite de l'argumentaire.
L'automatisation. Chaque cybercriminel utilisant ces outils va potentiellement gagner un facteur 100 ou plus en efficacité. Il ne faut jamais avoir utilisé de tels outils pour ne pas se rendre compte des gains de temps possibles.
@@oni2ink Oui, c'est certain et tu crois que les brouteurs avec toutes les fautes qu'ils font et le blé qu'ils se font déjà attendent chatGPT ? Il est vraiment pas là le problème.
@@PresteusSparkling Quel est donc le problème alors? De ce que je vois il n'y a deux facteurs qui font que les arnaques du genre sont relativement limitées actuellement (vu qu'on parle des brouteurs): - Cela demande du temps humain, et pas qu'un peu - Il faut donc vivre dans un pays ou le coût de la vie est très faible, pour que ça devienne vraiment rentable Si la tâche devient automatisable, ça devient par conséquent bien plus rentable/accessible, et de facto ce ne sera plus une motivation que dans les pays sous développés.
A mon époque on appelait ça simplement un pet de foune... Et il n'y avait pas besoin d'artifice ni d'intelligence pour le faire fonctionner. Contrairement à ce ChatGPT... Mais où va-t-on ? Quelle époque ! C'était mieux avant...^^ PS : courage pour le chauffage ! On aimerait bien en savoir un peu plus sur ce pourquoi...
Tout pouvait être prévu à l'avance. Je ne comprend même pas comment on a manquer le fait que les gens sont aussi de nature curieux, surtout quand on détient un pouvoir qui enivre suffisamment
C'est pas une histoire de nouveau couteau maintenant, fais la comparaison entre le premier bon couteau vs de la pierre taillée lacée sur un baton, là on a les premières très bonnes IA qui ont des capacités inédites, ChatGPT est par exemple très bon en traduction, meilleur que tout ce qu'on connaît, de google trad à DeepL. Il m'a traduit du grec ancien en français parfaitement, avec les subtilités que j'avais jamais vues avant, tout le sous-texte. Tout en me disant que c'était pas la langue dans laquelle il était meilleur car il a très peu de grec ancien dans sa base donc qu'il fallait prendre sa traduction avec des pincettes.
Bloom a été entraîné sur la machine Jean Zay de l'Idris (Paris). Cette machine est un supercalculateur français, tout comme Adastra au Cines et Julio Curie au TGCC (CEA). Adastra est x3 plus puissant de Jean Zay, il y aura probablement de gros models entraînés dessus.
Et du coup, pour faire echo à ce moment 17:37 , avec des machines comme Lumi en suede, Juwels en Allemagne et Leonardo en Italie, il est possible que ce type de modèle soit déjà en court d’entrainement. Bien sur, les états ont leurs propres machines. #piscine
Bon bon bon. J'ai l'impression d'entendre green peace parler de nucléaire. On prend une technologie, on l'applique la ou elle aura les effets potentiels les plus importants et on fait comme s'il n'y avait que ça indépendamment de si c'est probable ou pas et de si les bénéfices ne serait pas plus grand. Oui l'"IA" a sûrement beaucoup de chose de critiquables pour de bonne raison mais limité le développement des IA n'aura absolument aucun impact sur la cyber criminalité actuelle et je pense qu'on aurait même tout intérêt à essayer de régler le problème de la cyber criminalité pour atténuer les effets négatif de l'"IA" et des autres technos. L'argument de couteau ne tient peut être pas mais il n'y a aucun argument qui montre que l'IA est ou sera majoritairement utilisé par le cyber crime, ni qu'elle serait son impact en dehors de la standardisation et massification du phising et diffusion de fausse information. Qui augmentera en nombre mais dont les effets ne feront que diminuer avec le temps a priori. Aujourd'hui tout le monde trouve l'arnaque du prince Nigerian ridicule, ce n'était pas le cas il y a 20 ans. Pourtant rien n'a changer niveau sécurité si ce n'est de la détection de spam un peu plus efficace. La seule vrai avancé est venu de l'éducation. Peu être qu'il sera plus difficile de se prémunir individuellement de l'IA mais un patch de sécurité ne viendra jamais corriger une faille psychologique. Enfin il serait plus sage de comparer l'IA a l'imprimerie, l'ordinateur, internet, ou le téléphone. On a un outils qui va simplifier, automatisée, massifier nos capacités d'échanges d'informations positivement ou négativement et niveau développement de la cyber criminalité ces technos tiennent un bon bout je crois (sauf l'imprimerie que j'ai rajouter à la fin). Sans parler de la facilité avec lesquels ces technos peuvent participer directement à lâcher des bombes, comenditer des assassinat, falcifier des informations en périodes ou la vérification s'avère difficile... De plus et ça me titille depuis un moment mais même si les algo de recommandations on un impact important et potentiellement négatif, voir dramatique et condamnable. Il ne faut pas oublier que ce n'est pas toujours le cas. Et ensuite on ne s'enferme dans une bulle à cause de l'algo, on l'a façone grâce/à cause de lui. Si les jeux départs est pourri racisme, incitation a la haine... L'algo, l'IA le sera tout autant et le problème ne pourra pas se régler mathématiquement (comme ça a l'air suggérer en fin de vidéo même si je me doute que ce n'était l'objectif de la phrase). Des projets comme tournesol peuvent aider mais plus celui-ci, ou d'autres auront de l'importance. Plus la quantité de données à évaluer sera importante plus il sera pertinent mais plus de bulles centré sur les incentives individuelles se créeront qu'elles soient louables ou non. Tournesol n'a peu être qu'un développeur mais je suis certain que le ratio taille de la base de données sur nombre de dev de tournesol est largement supérieur à celui de chatgpt, Facebook, RUclips... Donc ça ne sera pas là solution miracle non plus, l'intelligence collective c'est bien mais parfois les gens sont cons et plus encore en groupe.
Il ne s'agit pas vraiment de limiter le développement de l'IA, mais de ne pas oublier l'aspect sécurité. Chose qui comme il le disait dans une vidéo précédente est totalement étouffé. Je suis persuadé que la majorité des développeurs dans le domaine veulent faire de leur mieux, mais n'ont peut être jamais entendu parler de ces aspects. C'est sur, ça fait un peu rabat joie. Mais c'est en prenant en compte ce genre de problématiques dès le début qu'on limite la casse ensuite. Actuellement, quand on entends parler d'IA, c'est toujours de deux façons: - tout l'aspect incroyable et ce "cool washing" - ou encore "les IA vont voler notre travail" Je n'avais jamais entendu parler de l’aspect sécurité ailleurs. Pourtant c'est quelque chose qui me tracasse depuis un moment, et je suis des chaînes comme Two minute papers depuis leurs débuts. Comme quoi...
@@JohnArktor Oui, encore si le système était open source (ou ils ont cru que OpenAI faisaient vraiment quelque chose pour l'humanité... lol?) et collaboratif, la question serait un peu plus complexe. Mais la on parle d'une grosse corpo qui se fait mousser en nous faisant participer a leur coup de pub sur une techno qu'ils n'ont même pas inventé. C'est beau quand même.
Ça fait plaisir de voir un peu de polarisation au sujet de cette IA dans le monde scientifique. C'est une prouesse technologique et c'est incontestable, mais les IA de langage et les IA sont beaucoup plus critiquables qu'on n'essaye de nous le faire penser. Le buzz médiatique quand au fait que LmBDA aurait été consciente (suivi de l'action en justice pour prouver cette conscience) est flippant: si des juridictions reconnaissent la conscience des IA, on ouvre la porte à des boucs émissaires gratuits pour toutes les pires merdes que les entreprises peuvent se permettre de faire Les IA sont aussi une catastrophe pour la résilience de l'humanité face au défaillances de la tech. A tout vouloir faire reposer dessus et a remplacer des enseignement d'informatique par des enseignement sur les IA, on creuse notre tombe pour quand dans 50-100 ans on aura des soucis énergétiques et d'approvisionnement en matières premières. C'est voué à arriver. Si on a de la tech illimitée entre nos mains et chez nous, c'est au dépens de pays en développement, qui ou bien commenceront à être plus stricts sur les exports, ou bien seront complètement pillés. Je dis pas que les IA sont 100% mauvaises, mais aujourd'hui notre société marche comme si on pouvait se permettre de fonctionner comme ça pendant les 100 prochaines années alors que c'est complètement faux. Les IAs font partie pour moi de ces choses qui n'ont rien de durable.
Je parlais récemment avec des amis de ce sujet de coolwashing et de développement bien trop rapide de nouvelles IA, et en suggérant qu'on devrait clairement ralentir le rythme de développement de telles technologies, j'ai eu la réponse : "oui mais même si nous on les développes pas, les autres vont le faire, et donc le seul résultat c'est que ça va nous affaiblir géopolitiquement". J'avoue que je ne savais pas trop quoi répondre...
Il faudrait une réponse à l'échelle européenne, et pousser des normes ambitieuses mondiales en passant par l'ONU. Pas facile, hein. Cela dit, le gain n'est pas si évident que cela, puisque la conception massive de code mal sécurisé pourrait coûter très cher aux entreprises.
Si on est complément réaliste, imposer des normes mondiales sur le sujet est impossible. L'ONU arrive même pas à dire à la Russie de pas envahir l'Ukraine, ils vont pas réussir à imposer un arrêt des développement de ces technologies 😅 (d'autant plus qu'un acteur majeur dans le domaine c'est Chine, qui a un droit de véto)
Je suis d'accorc avec les différentes réponses. Il y a un côté course à l'armement plus ou moins inévitable. - Cela dit, les gouvernements ont bien réussi à bannir presque entièremment des choses de la planète comme les armes biologiques (moins de 5 pays ont trahi la convention) ou la prolifération d'armes nucléaires. - Ce n'est pas parce que c'est politique que c'est forcément subjectif. On retrouve bien une loi qui interdit le meurtre dans tous les pays, et pourtant cela relève bien de la morale. Oui, ca n'empêche pas les meurtres, mais contrairement à un logiciel que tu peux faire fermer en un appel chez Google, le meurtre est difficilement stoppable physiquement. - Au final, ne rien faire est juste un aveux de faiblesse, ce serait la preuve ultime que les politiciens et les Etats ne servent à rien. Je refuse de croire qu'Internet ne peut être normé, la preuve, la CHine xd
Question innocente : ne pourrait-on pas remplacer "IA" par "internet" (ou d'autres technologies) dans le discours et avoir les mêmes craintes au moment de l'arrivée de cette technologie ?
je vous suggère de pousser votre raisonnement à fond et de mener vos propres investigations quant à la différence entre ces deux technologies. Les implications sont différentes. Le mot clé est "discernement".
Internet est le réseau entre utilisateurs. Alors que l'IA est plutôt un multi-utilisateur, qui communique avec plusieurs (millions ou milliard) personnes, en même temps. L'ennui est que ça favorise la pub sauvage sur le réseau, vu que l'IA va s'adapter aux utilisateur humains, pour les persuader de cliquer. Et sur le net, cliquer c'est acheter, ou être acheté.
La question innocente de @Lou ne peut pas être évacué avec autant de condescendance @Anne Onym un peu discernement et de charité intellectuelle. @chnoot : La technologie est au service de la productivité. Nous faisons tout plus vite que précédemment. Cette productivité permet une réduction des coûts et donc une démocratisation. Le deep-learing est juste un pas de plus dans cette recherche de productivité. Je ne vois pas de rupture mais une accélération de l'ère informationnel : le deep-learning est une base de donnée compressé de milliard de documents avec un système de requêtage avancé (je pense à ChatGPT ou Stable-Diffusion). Mais c'est vrai pour tous les NNs en vrai. La démocratisation de taches réservés autre fois à une élite/professionnel effraye immanquablement. Et immanquablement le monde c'est adapté (incluant des souffrances et des joies). On pourrait avoir tous les raisonnements sur science4all avec "l'imprimante" : Imaginez le pouvoir de diffuser du savoir accaparé par les riches qui peuvent se payer cette machine couteuse, il pourrait manipuler l'opinion. Les arnaqueurs pourraient imprimer de faux documents en masse pour tromper en masse! Nous aurions des publicités qui pousse à la consommation (etc). Alors oui, dans le monde "idéalisé" de Science4All le productivisme au service du consumérisme n'est pas une bonne nouvelle. Industrialiser et démocratiser toujours plus d'outils effraye.. je comprend! Avant cibler c'était accessible uniquement aux dictateurs, et maintenant il suffit de faire une campagne pub sur Facebook pour quelques euros.
Je mets pause à la vidéo, car ça me titille, mais peu importe les moyens informatiques, si les gens n'ont pas les bons réflexes, les hackeurs y arriveront toujours. ChatGPT permet d'automatiser ce genre d'arnaque, mais je ne pense pas que ce soit la peine de le diaboliser pour autant. Le feu ça brule, pourtant il nous a permis d'aller loin.
C'est pas une comparaison au feu qu'il faut faire la, mais plus aux incendies qu'il y a eu en Australie dernièrement :') La plupart des conséquences de ce genre de technologies sur le long terme n'ont probablement pas été imaginées ou envisagées, alors quand on voit déjà le listing de tout qu'il est possible de faire en mal... nier les danger sous prétexte que "c'est un outil" c'est être complètement insouciant. Et d'ailleurs, j'aimerais bien avoir une liste des incroyables bénéfices d'algorithmes comme ChatGPT. Car pour l'instant ce que j'ai vu, c'est des gamins qui trichent à l'école, des personnes qui se remettent au savoir de ChatGPT sur des sujets qu'ils ne maîtrisent pas et ou ChatGPT va généralement leur dire des conneries (qu'ils vont croire, car ils ont la flemme de vérifier) ou encore du pissage à rallonge d'articles par flemme de le faire soit même. Bref, en l'état je ne vois pas une balance bénéfices/risques très positive. Y a bien des utilisations concrètes intéressantes, mais déjà elles n'ont pas besoin de sortir d'un modèle de langage aussi généraliste. Et elles ne sont pas assez critiques pour qu'on en ai besoin tout de suite sans se soucier de la sécurité.
Le problème de l'IA dans phishing, est qu'elle permet de créer des attaques exceptionnellement bien conçues, voire personnalisées, et donc beaucoup plus efficaces. On peut déjà imaginer des attaques qui utilisent le medium privilégié par la personne (e-mail mais aussi whatsapp etc...) en se faisant passer pour une connaissance vraiment proche, et pas uniquement un quidam trouvé dans les contacts, à la limite qui vient s'insérer dans une conversation en cours. Bref, qui arrive dans un contexte où toutes les barrières sont enlevées. On ne peut être vigilant tout le temps sur tout. Efficacité maximale. On ne change pas à proprement parler de paradigme, mais bien d'échelle. Et comment !
@@yoops66 Ouais, c'est d'ailleurs un type d'attaque utilisé fréquemment sur discord, manuellement. J'ai moi même eu le coup. Une connaissance qui fait des petits jeux en tant que hobby qui me demande de télécharger et tester son jeu. Manque de bol pour lui j'étais sous Linux et j'ai juste eu la flemme d'essayer. Deux jours plus tard ce même pote me re-contact pour me dire qu'en fait, ce n'était pas lui, mais quelqu'un qui avait compromis son compte et diffusais un malware sur discord. Malware capable de récupérer les informations de connexion etc, et donc étendre encore plus le réseau de contacts utilisables par l'arnaqueur. Bref, c'est déjà pas mal présent, alors j'ose pas imaginer une fois automatisé ce que cela va donner...
Merci pour ce contenu de qualité. Mais j'ai l'impression qu'on est foutus. C'est encore pire que le réchauffement climatique. Actuellement je ne vois aucune raison pour que vos pires prédictions ne se réalisent pas. Il faudrait une grosse catastrophe et qu'on impute ça directement à une IA de ce type. Pour être honnête, dans mon travail Chatgpt est devenu un outil très efficace. Ça peut même être dur de s’en passer.
c'est triste que le dirigeants de se monde laissent leurs territoire abandonne dans le chaos le plus total. et pas que la cybercriminalité, parce que les gafas violent ouvertement toutes les lois possibles et imaginables.
La partie "Que faire ?" est un peu lacunaire à mes yeux. Lê parle de réguler, mais pas beaucoup de comment réguler. Maintenant que la recette pour créer ChatGPT "à la maison" est accessible sans tant de difficulté que ça, la boîte de Pandore est ouverte et il n'est plus question d'interdire les gros modèles de langue. A défaut de pouvoir dés-inventer ChatGPT, je pense que la solution se trouvera plutôt dans une régulation des usages que les personnes font d'internet. C'est-à-dire qu'on devrait peut-être essayer de tendre vers un internet plus fermé où on n'accepte rien en provenance d'inconnus puisqu'on n'a aucune preuve qu'on a affaire à des humains.
Du coup, ça passera par toujours plus de fliquage et de coercition ? Solution de facilité. Ou alors faire un procès de nos civilisations qui ne parviennent pas à se passer du ouaibe comme de l’absinthe naguère. Impossible de compter sur les parents pour éduquer leurs enfants car ils sont aujourd’hui totalement démissionnaires: tablette et Netflix/RUclips. Ces parents eux-mêmes exposent leur vie sur Insta et FB. A l’instar des armes à feu, c’est l’éducation et la responsabilisation qui priment: au pro-rata de sa population, la Suisse compterait autant voire plus d’armes à feu par habitant qu’aux Stases-unies - sic. Pourtant, on n’entend jamais aucun déboire ni drame intrinsèquement liés au sujet du mesusage des armes à feu. Mais la Suisse est un pays souverain, réellement démocratique - au sens rousseauïste du terme - ce qui n’est pas le cas chez-nous. Ce sera probablement donc le fliquage et la coercition. Mouais, rien de nouveau sous le soleil.
5:00 ils disent avoir dépensé 2.5M dans le cloud, ce qui n'a rien, mais alors rien du tout à voir avec 2.5M d'électricité. D'ailleurs je pense que tu le sais surement et je trouve ca dommage de ce fait de donner des fakes chiffres pour choquer.
Oui, bon, en même temps, ce n'est pas comme s'il n'avait pas simultanément affiché le texte (highlighté, excusez du peu). Ceci dit, de là à dire que cela n'a rien à voir du tout, c'est pousser le bouchon un peu loin : l'électricité représente jusqu'à 40% du coût des gros data centers.
l'IA Forte libérera l'humain du labeur. Mais son développement par le privé (dont le carburant est la cupidité), fait que entre temps ça sera la merde :)
J’aime beaucoup ton point de vue et j’ai toujours apprécié tes opinions. Mais non pas ici que tu est tord ou que tournesol ne soit pas ma préoccupation, mais le fait que derrière chaque critique se cache une promotion de tournesol entache la crédibilité de ton opinion. Aussi juste soit elle ont peu pas s’empêché de penser que ce soit aussi une façon je juste promouvoir ton projet.
Sachant qu'il n'y gagne pas un centime à promouvoir Tournesol ça me paraît évidement que c'est de bonne foi qu'il le recommande, pour aller vers un système de recommandation plus sain tout simplement :-)
Tournesol est la réponse qu'ils (lui et ses partenaires) proposent pour résoudre les problèmes qu'il expose lors de ces différentes critiques. Ce n'est donc que normal qu'il promeuve Tournesol à la fin de chaque vidéo, pour entre autres éviter les question du style : On va alors faire comment ? Qu'est-ce que tu proposes ?
le fait que la cybersecurité ne devienent de fait non optionel, et qu'une formation minimal en securité obligatoire pour les utilisteur a un quelconque niveau profetionel par la seul masse d'attaques est de fait la seul solution. plutot que de reveusement esperé limité l'epée developont les bouclier
Des formations en sécurité obligatoire pour tout le monde à ses limites: pour les particuliers qui recevraient une formation obligatoire c'est la porte ouverte à la propagande par le biais des formateurs et ceux qui les mendatent: en mode ça et ça c'est une méchante source, ça par contre c'est bien (mehh) chatgpt lui même montre ses limites en terme de propagande et de politiquement correct hypocrite: voir la vidéo de Majid Oukacha qui le pousse dans ses retranchements, chatGPT a bien été formaté par la propagande padamalgam cpasalislam.
Former la masse stupide et fainéante intellectuellement ne marchera jamais. D'autant que même quelqu'un d'intelligent peut commettre une erreur par inattention, fatigue,...
@@miyamotomasao3636 Waow, l'optimisme... c'est dit de manière abrupte mais le pire, c'est que c'est vrai. Bon, ajouter à ma to do list : apprendre à faire des noeuds coulants. 😅
C'est effrayant. Quand on cumule tous les dysfonctionnements, ça, l'écologie, les problèmes énergétiques, le rejet de la science, le rejet de la société, tout ça constitue un faisceau de présomptions qui annonce une fin brutale et proche de notre civilisation.
bonjour, C'est bien gentil tout ca, mais en gros, notre ami voudrais que l'on interdise le développement des IA grand publique par manque de solution pour imposer un moratoire mondiale sur le sujet. Et tant bien mêmes, qui va interdire quoi ? selon quelle critère ? la solution c'est celle de Davos ! une gouvernance mondiale, on voit bien la catastrophe arrivée, totale contrôle des masses, vous ne posséderez rien et vous serez heureux !!! Car il est bien évidant qu'il n'existe absolument aucun moyen de contrôle dans de très nombreux pays. C'est très similaire a la lute gouvernementale contre la possession d'arme aux citoyen, pendant que ce mêmes gouvernement démontre jour après jour son impuissance a désarmés les malfrats. Pour moi Chat GPT a pour bénéfice de mètre au grand jour une technologie jusqu'à lors réservé a des GAFAM ou autre entité gouvernementales pas forcement bien vaillante. D'autre par il me semble complément illusoire de lutter contre le progrès (sans connotations de bien ou de male), c'est dans nos gênes, toujours plus loin, plus fort, plus grand.
Je pense malgré tout que c'est mieux que tout le monde puisse avoir accès à de puissant modèle. Je pense que si les puissantes IA ne sont pas accessibles au publique alors ça créée un rapport de force beaucoup trop grand entre les citoyens et les états/entreprises/criminelles. Et le seul moyen de se défendre contre l'IA en tant que citoyen, c'est avoir également une IA. Si les cybercriminelles génère autant d'argent, il est sur qu'ils peuvent faire leur propre IA de toute façon. Donc autant qu'on y ait tous accès.
Pas besoin d'OpenAI pour cela. Ils n'ont d'open que leur nom. Il faut plutôt se tourner vers des modèles open source comme Bloom. Et désolé d'être un peu négatif, mais actuellement, le rapport de force est clairement du côté des corpos. C'est eux qui ont les plus grosses capacité de calcul pour entraîner les modèles. C'est aussi eux qui sont près a dilapider de l'argent pour entraîner des modèles plus gros que de raison. C'est pas parce qu'ils nous donnent les miettes avec un accès pour l'instant public a ChatGPT qu'il y a une quelconque symétrie dans les rapports de force. Bien au contraire. Le danger de s'habituer à ce genre de modèles privés, c'est d'avoir une dépendance, la ou ils ont un contrôle absolu sur l’accès qu'ils donnent. Aujourd'hui il est gratuit. Demain il y aura probablement un paywall. Et qui sait ce qu'ils nous réservent pour la suite. Sans parler que tout ce que l'on tape sur leur chat se retrouve chez eux. Les forcer à se plier à une législation et à prendre en compte la sécurité est alors d'autant plus important!
Sérieusement, depuis l'avènement des réseaux sociaux et des GAFAM, genre début 2000, j'ai l'impression d'être passé dans la 4ième dimension. La désinformation est massive, le capitalisme ne s'est jamais porté aussi bien, les gens sont totalement lobotomisés, c'est ultra effrayant et ça va en s'accélérant. Des choses qui me paraissaient totalement impensable il y a 20 ans sont naturelles pour ceux nés après 2000, alors que c'est du bullshit complet ... on réécrit l'histoire, on aseptise le divertissement et l'information sous prétexte de tolérance et j'en passe. Ou alors on est dans la matrice et elle a sévèrement buggé ... ps : pour tournesol je ne trouve pas le système de comparaison super efficace car quand je regarde une vidéo et que je me dis elle est d'utilité publique, et que je veux la "rate" ben je dois trouver une vidéo en comparaison ... hors j'ai juste envie de donner une note et un avis sur la vidéo que je regarde ... sinon c'est trop lourd ...
Entièrement d’accord. Sans parler de cybercriminalité, on aura une flopée de doctorants et de thésards qui s’épargneront les efforts de traitement de texte, de recherche, de vérification et toutes démarches nécessitant abnégation, organisation et sacrifice personnels. C’est un grand pas de plus vers le spontanéisme-behavouriste et ça entérine tout ce que des Brighelli, Laurent Lafforgue et autres décrient depuis décades. Je suis de 94, probablement plus jeune que toi mais j’ai connu les cretins finis au lycée copier/coller des bréviaires depuis Wikipedia dans une perspective scolaire. Désormais, on aura autant les profs que les élèves qui se compromettront par le biais de la facilité, de la paresse et de la doxa médiatico-politique. Je suis interne en médecine et passionné par l’algèbre et mon domaine de compétence, et je plaide coupable d’être un piètre hacker même si j’ai dû faire quelques trucs sur Backtrack et Kali naguère… Pourtant, je sens, je vois le danger. De façon presque synesthésique tant ledit danger est omniprésent et ses auteurs omnipotents. J’ai moi-même renoncé à utiliser ChztGPT dans le cadre de ma profession - de toute façon, il aurait été d’avantage utile lors des ECNi, à savoir le concours d’accès aux spécialité et à l’internat. Et je refuse de l’utiliser de la même façon que je refuse d’utiliser une tablette graphique car ce monde est assez insipide pour nous ôter la satisfaction tactile - la vraie, pour le coup - de tourner les pages d’un livre. Accessoirement, on ne pourra plus se fier, définitivement, aux commentaires dont la vocation est d’évaluer la qualité d’un produit de consommation ou même un établissement quelconque - hôpital, resto. Car désormais, même pour le quidam il sera facile de falsifier la vérité et saborder les consciences. Je me réjouis vraiment pas de tout ça.
formidable vidéo, merci beaucoup pour nous tous et bravo pour votre travail 🙏 Je ne trouve pas "tournesol" et je ne suis pas vraiment certain d'avoir capté de quoi il s'agissait, pourriez vous partager un lien ?
Ce commentaire est vieux mais au cas où vous ne l'ayez toujours pas trouvé, c'est simplement tournesol . app (j'ai ajouté des espaces parce que RUclips ne me laisse pas mettre des liens en commentaires)
Mais.. mon comm à disparu.. je voulais remercier tournesol pour les modifs apportées, que c'etait super d'avoir pris en compte ma remarque, et préciser que j'allais faire un petit don comme promis, le temps d'avoir le beneficiaire suisse activé . voila :)
Musk demande depuis plusieurs années que soient créées des autorités de controle des AI ! Mais comme c'est Musk on préfère lui taper dessus c'est plus fun et ça fait des clics !!
Un jour Lê nous annoncera que ses calculs aboutissent à la conclusion que, d'un point de vue conséquentialiste, l'espèce humaine est plus néfaste que bénéfique, et donc qu'il faut y mettre fin. Non mais sérieux, Lê a-t-il le monopole de la connaissance des conséquences et de leur évaluation objective ? Ou bien ça reste des choses subjectives ?
@@yoops66 En disant ça, ne ratez-vous pas un peu ce que je dis ? Le sujet n'est pas de savoir s'il a le monopole ou pas, mais s'il veut constituer un monopole (pas seul, il ne pourra pas) et si c'est une approche cohérente, pertinente. Est-ce pertinent de dire : "il n'y a qu'un seul point de vue valable concernant les conséquences des choses, donc il n'y a qu'un seul conséquentialisme possible" ?
Assez étonné d'entendre que l'algo de Tiktok a remplacé le moteur de recherche de Google. Je trouve que Tiktok a du mal à répondre à une question de difficulté moyenne. Même les tutos sont plus construits sur RUclips. Très bonne vidéo sinon !
@@ttehir si c'est dans ce sens là, je suis d'accord avec toi. Google fait un bon job avec RUclips mais en un peu moins bien que TikTok. Après algo de proposition de contenu et moteur de recherche c'est deux choses différentes.
c est bien tout ca mais ca necessiterait des decision a l echelle mondiale donc bon vu l efficasité des cop , parler d un sujet aussi peut connu que celui ci , bon
à 19:20 heureusement que tu n'étais pas un décident le siècle (les scicles ) dernier tu aurais cessé toutes les avancées technologiques qui nous ont permis justement de nous apprendre ces massacre et faire pression pour les diminuer à défaut de les arrêter . merci la télé radio satellite... Le progrès quoi
07:10 peut être que bientôt, être autiste sera une valeur d'avenir... (mis à part les problèmes d'hypersensibilité sensorielle, quoi que encore cela sert à entendre ce que mijote une machine aux bruits émis par les composants: c'est plus facile à lire que les émotions pour savoir si un ordinateur va planter...) 300 Twh/an c'est l'énergie que dépenserait toute l'humanité pour faire 6000km de vélo par an, bébé vieillards y compris, donc réparti sur la population active en âge de pédaler, plutôt 12000... juste pour "un modèle"...
Dans la course à la reconnaissance d'IA, la sécurité aura toujours du retard. Cette course semble être un puit énergétique sans fond. La solution ne serait-elle pas de former la population à la crypto et d'avoir un organisme d'État qui délivre un certificat numérique à chaque citoyen en même temps qu'une carte d'identité.
C'est complètement utopique d'interdire une boite noire qui produit du contenu indistinguable de celui d'un humain, non ? Et ça me paraît très, très compliqué d'empêcher l'utilisation illégale de grands réseaux transformer.. Ca parait plus plausible d'investir dans la sécurité ?
Oui, d'autant que comme on a pu le voir avec des modèles de génération d'image, ils peuvent finir par se faire leak et être utilisés localement (si pas trop gros) à des fin illégales. Par exemple un modèle leaké et détourné de novel ai a été utilisé pour générer du pedo porn sur 4chan. Pour cette raison (en partie seulement) les dernières versions de stable diffusion sont beaucoup censurées, et ne sont presque plus entraînées sur des photos NSFW. Bon la contrepartie c'est que les derniers modèles ont beaucoup de mal à générer des corps humains crédibles.
il n y a que moi que ca inquiète les algo qui peuvent animer une seule photo et la transformer en vidéo ? avec midjourney et chatgpt et D-ID on peut faire n importe quoi comment on a pu lâcher ca en ligne ?
J'ai souvent entendu cette idée, comme quoi 'l'outil est neutre, c'est l'usage qui ne l'est pas". Mais un jour, j'ai entendu quelqu'un poser les choses autrement : tous les outils qu'on pourrait créer ne sont pas créés. Les outils créés correspondent donc à une certaine vision du monde. De ce fait, selon cette personne, dire que l'outil est neutre n'était pas tout à fait correct. (Ce serait bien que je puisse retrouver le nom de la personne mais ça ne me revient pas... Il s'agissait d'une dame qui parlait des questions d'éthiques autour de l'analyse des empreintes génétiques)
C'est un peu naïf comme vision. Sans avoir à détourner quoi que ce soit, un outil peut être mal conçu de base (biaisé dans le cas d'une IA). Ce qui posera alors forcement problème par la suite à l'utilisation. Surtout qu'on parle d'un modèle de langage. Et à quoi sert un modèle de langage... ?
@@ivymike9479 Rien à voir avec ce que je veux dire. Déjà les outils sont fabriqués pour un usage qui n'est pas forcement neutre. Une grenade à fragmentation, c'est fait pour tuer. Que tu l'utilises bien ou non ne change pas son usage. Les IA c'est pareil. Si ton modèle est entraîné sur un corpus biaisé, que tu l'utilises bien ou non ne changera rien sur la finalité. Elle te donnera des résultats biaisés. Tout le discours dans la vidéo ne vise pas à empêcher les gens d'utiliser les IA comme outils (ce n'est même pas la question), mais à concevoir des IA qui répondent à des normes pour les empêcher de faire ce pour quoi elles n'ont pas été conçu. C'est exactement la même problématique dans tous les domaines. Tu ne fais pas un appareil électroménager ou même avion sans suivre de normes... Il y a même des normes de programmation pour les systèmes critiques. Alors pourquoi l'IA en serait exempté?
J'ai testé ChatGPT, c'est pas encore une intelligence. Il sert à rendre disponible le résultat des travaux humains dans divers domaines avec un progrès manifeste par rapport aux moteurs de recherche classiques en terme de temps de recherche.
Non pas encore malheureusement. Comme ça ne touche pas un très grand publique ce n'est pas dans nos priorités pour l'instant. Mais avec l'extension "uBlock Origin" sur Firefox, pas de pub non plus 😉
Tournesol, ça sert surtout à promouvoir les vidéos de Science4all et de quelques RUclipsrs. Pas vraiment éthique d'y avoir mis en premiers tes vidéos et d'ériger ça comme une solution ! En plus de l'information fausse et de l'idéologie peuvent se glisser tellement il y a d'informations dans chaque vidéo. C'est juste un blog voire même une playlist.
Pour l'instant beaucoup des utilisateurs de Tournesol viennent car il regarde Science4All, plus on aura un public large, plus on aura des recommandations diverses. Mais sur les 20 meilleures vidéos du mois dernier il y a 16 chaînes différentes et ce n'est pas celle de Lê qui en as le plus 😄
@@LightKnight_Age_Of Oui peut-être, mais on fait avec les moyens qu'on as (qui ne sont pas immense) et on est ouvert aux propositions pour améliorer la plateforme, si vous des idée a proposer, n’hésitez pas à rejoindre notre serveur Discord.
@@TournesolApp Je pense que, pour les raisons pointées par emmetbrown notamment, c'est impossible de faire de Tournesol "la" solution. Ca restera simplement un outil pour améliorer internet pour certains. Il faudra que parallèlement d'autres parviennent à trouver des solutions similaires (ou différentes, d'ailleurs). La Bibliothèque d'Alexandrie, bien avant, était déjà un projet pertinent.
Une meilleure comparaison serait une tronçonneuse plutôt qu'un couteau... qd tu commercialise une tronçonneuse, tu lui met un système d'arrêt de sécurité avant...
Plusieurs semblent demander pourquoi les algorithmes de langage favoriseraient plus les attaquants que les défenseurs.
Une réponse est financière : le cybercrime peut dépenser des milliers de milliards de dollars pour attaquer, alors que la plupart des entreprises ont à peine un employé qui s'y connait en sécurité, et alors que la plupart des employés sont très ignorants des risques que leurs habitudes numériques impliquent pour toutes leurs entreprises.
Une autre réponse réside dans les habitudes de travail à venir : avec des algorithmes de langage, il est beaucoup plus facile de "pisser du code spectaculaire" et non sécurisé. Le coût de la sécurité pourrait alors être x100 le coût d'un code qui semble faire l'affaire. Beaucoup d'entreprises risqueront de préférer ne pas payer le x100 en développement logiciel...
C'est faux.
Les algorithmes de langage ne serviraient pas que pour la défense, mais aussi pour beaucoup d'autres choses dans l'entreprise (recrutement, SAV, création, publicité individualisée, ...). Si tu veux comparer les bénéfices aux coûts, il faut prendre en compte toutes les utilisations de cette innovation, pas une seule.
Et ça serait différent pour chaque entreprise. Donc le calcul est-il faisable ?
C'est sympa de nous prévenir des risques des nouvelles technologies, mais prétendre connaître le résultat d'un calcul impossible et vouloir l'imposer aux entreprises, aux utilisateurs (tu as parlé d'interdiction), n'est-ce pas un peu totalitaire ? ("je sais mieux que vous ce qui est mauvais pour vous")
Le conséquentialisme ne marche que si
- on n'a pas une tâche aveugle nous empêchant de prendre conscience de certaines conséquences (par exemple réguler la vie des gens pour leur bien peut avoir pour conséquence une forte oppression sur ces gens, mais celui qui produit cette régulation va avoir tendance à ne pas prendre conscience de cette conséquence, donc il ne sera pas vraiment conséquentialiste, mais il croira dur comme fer qu'il l'est),
- on est omniscient.
@@3emeType Ne retenir que l'interdiction c'est un peu avoir zappé les 2/3 de ce qu'il raconte.
Je ne me souvenais même pas qu'il parlait d'interdiction alors je suis allé voir la transcription:
"ces technologies dans le contexte actuel ou le cybercrim domine ces algorithmes sont extrêmement dangereux il faudrait urgemment investir beaucoup plus dans leur régulation leur audit voire leur interdiction."
C'est quand même bien plus nuancé.
De plus les bénéfices on en a actuellement aucune idée tangible. Ces technos sont totalement faillibles. Elles comprennent plutôt bien ce que l'utilisateur demande, mais ne savent absolument pas de quoi elles parlent. Si quelqu'un utilise un système d'auto complétion de texte pour son travail, et qu'il se retrouve à faire une connerie grave, qui va devoir porter le chapeau?
Je trouve aussi que la communication de OpenAI est vraiment trompeuse. Ils disent clairement que "parfois le bot se trompe", alors que dans mes cas d'utilisation, il se trompait la moitié du temps.
Et quand on sait comment fonctionne ce genre de bot, je trouve ça déjà incroyable qu'il ne raconte pas des conneries 100% du temps.
C'est très biaisé ce que tu dis. En vrai y a de fortes chances que ces IA génèrent des codes beaucoup plus qualitatif ,sécurisé et maintenable que ce que font déjà beaucoup de devs humains payés au lance pierre sans audit qualité. Tu ne sembles pas bien au courant des réalités du monde du dev en dehors du milieu académique
@@oni2ink "C'est quand même bien plus nuancé."
Une régulation est l'interdiction d'une pratique. Donc il dit bien qu'il faut urgemment interdire quelque chose.
"les bénéfices on en a actuellement aucune idée tangible"
Qui est "on" ? Peut-être que certaines personnes ont de très bonnes idées des bénéfices que ça peut leur apporter. Pourquoi se placer en tant que "plus savant que les autres" et décréter que les bénéfices apportés par X ne peuvent pas dépasser Y alors qu'on n'en sait rien ?
"Si quelqu'un utilise un système d'auto complétion de texte pour son travail, et qu'il se retrouve à faire une connerie grave, qui va devoir porter le chapeau?"
Ça se négocie dans le contrat. Il y a plusieurs façons de gérer ce cas. Et si on laissait ces différentes stratégies exister au lieu d'en imposer une seule à tout le monde ?
Cette vidéo est une extension de ton passage à France culture (que vous pouvez toujours réécouter). Vraiment cool comme d'hab tu donnes pleins de trucs à aller creuser. Merci à toi !
Je ne la retrouve pas, puis-je demander un lien ?
lien vers le replay france culture ?
Merci pour cette analyse beaucoup plus.... nuancée que ce qu'on a entendu un peu partout.
Sympa d'avoir ton point de vue unique sur chatGPT
ChatGpt a une "opinion" sur le sujet, notamment sur le fait que la sécurité est à présent gérée par des instances gouvernementales, comme le JAIC (Joint Artificial Intelligence Center) du département de la défense des états-unis.
Un autre point : pourquoi des privés s'empareraient de telles technologies sachant qu'elles sont possédés par des entreprises ? Étant donnés qu'ils ne possèdent ni le code source protégé (chatGPT "m'a parlé" de la sécurisation des IA contre les cyberattaques) ni les machines capables de faire tourner ces programmes, ils devront faire appels, comme les utilisateurs bienveillants, à des API. Hors, c'est là que la régulation pourra être faite. Des programmes antivirus déployés par les entreprises pourraient détécter et bannir les utilisateurs qui tenteraient d'utiliser ces IA pour écrire du code malveillant (surtout si c'est des vielles arnaques avec du code bidon facilement détéctable).
Juste ici un dossier drive commentable par tout le monde contenant "l'interview" de chatGPT:
drive.google.com/drive/folders/1eUGKwZOEssyeSz7Xewttn6J_BWFpDUC5
(désolé pour ce moyen du bord mais je suis sur Android)
J'incite à recommencer l'expérience. Apparemment, chatGPT "en sait" pas mal sur lui/elle-même
C'est juste terrifiant : se dire que chaque nouvelle idée, chaque nouvelle invention peut être si facilement détourner par des criminels, et de plus en plus, et avec de plus en plus de dégâts à la clé. Je dis ça parce qu'hier, justement, je regardais une vidéo RUclips qui faisait des démonstrations de ce qu'on pouvait faire avec ChatGPT, et notamment lui demander de créer un script en Python pour le logiciel 3D Blender. Là où je trouvais ça formidable, me disant que j'allais peut-être pouvoir faire des contenus hyper cool grâce à ça, d'autres vont évidemment (parce que je pense que vous avez raison) s'en servir à des fins malveillantes.
Le pire, c'est que la nature humaine est telle qu'il suffit d'une poignée d'individus pour ficher en l'air tout le merveilleux de ce type de programmes.
Bref, tout ça fait froid dans le dos.
Vous avez raison !
Rien à ajouter 👍
سبحان الله العظيم ✔️
Le législateur après avoir vu la vidéo : "Ok, on va interdire l'anonymat sur Internet."
L'anonymat a toujours été un mythe.
Petite correction : BLOOM n'est pas open source, la licence du modèle viole la définition de l'open source en imposant des limitations à l'utilisation du modèle (par exemple dans le domaine médical).
Bonjour Lê, comme il y a bcp d'information dans toutes tes vidéos, ce serait bien si tu pouvais afficher les données complexes et chiffrés à l'écran (genre 1 ou 2 diapos avec chiffres et graphiques) et que tu commentes en voix off derrière, ce serait plus facile à suivre et à comprendre pour ceux comme moi qui n'y connaissent quasi rien à tout ce qui est cyber sécurité.
J'aimerais bien te voire discuter le sujet avec Yannic Kilcher. Deux avis diamétralement opposés et deux personnes saines et raisonnables.
Je ne le connais pas mais si ce Yannic Kilcher est aussi un penseur sain et honnête, j'approuve ton idée ! Merci Le pour ton travail !!!
Et encore ChatGPT est une IA "gentille". On attends tous une IA qui n'ait pas ses limitations. L'industrie du crime pourrait financer sa propre IA sans ces considerations ethiques par exemple.
J'ai tout de meme reussi a faire ecrire un reverse shell malgres les blocages. En fait, j'ai reussi a aller bcp plus loin qu'un reverse shell. Et je ne suis pas le meilleur programmeur du coin.
Je ne vois pas pourquoi on pense à chaque fois, que les vrais criminels sont en col blanc et déjà dans les bureaux....
Certes mais la difference avec une personbe lambda cest que tu savais ou chercher et quoi lui demander pour parvenir a ton resultat. Si je le met dans les mains de ma mère par exemple il n'y a pas la moindre risque qu'elle ponde un malware fonctionnel
@@Poof57 Voila, je le prends comme un booster. Mais vraiment, parfois, ChatGPT fait presque tout le taf.
Je corrobore ton commentaire, Jean-Luc. C’est assez hallucinant, et notoirement badant.
Vidéo absolument nécessaire. La presse et le public préfèrent se questionner sur des formulations jugées sexistes et attribuer à ChatGPT une forme de conscience, plutôt que prendre la mesure des réels danger qui nous guettent.
Les gens semble ne même pas se rendre compte des danger qui nous gete. Les gens se disent que c'est un outil alors que cela va juste provoquer cataclysme sur le marché de l'emploie. Les IA qui generent des images comme midjourey perturbent déjà les artistes. Si nous ne prenons garde, les conséquences risquent d'être violentes.
Tu as totalement raison, beaucoup ne s'intéresse qu'aux questions moralement ou plutôt politiquement non correcte de notre époque qu'à l'intelligence artificielle. Mais je me permet de te dire une chose si tu l'as pas encore remarqué, la seule chose qui va changer la boussole des questions est le fait de subir une attaque avec un cataclysme très puissant. Jusqu'à ce que ce jour arrive, rien ne changera. Et ne sous estimez pas les êtres humains, tout cela ne m'inquiète pas du tt, c'est la marche de l'histoire, un jour viendra, ou toutes ces questions seront de l'ordre d'évidence, et ce combat a déjà commencé
Non pas en suisse en tout cas, d’ailleurs Nguyen y a été invité pour parler des dangers plusieurs fois.
TROP BIEN :)
(c'est un commentaire pour remonter la vidéo dans les algos de youtube)
On a si froid que ça? Ahah.
Très interessant, merci.
La fameuse sobriété énergétique
Principe de cyber-sécurité : on éteint les radiateurs connectés !
@@mamlaka227 principe numéro 1: si t'es connecté, tu peux être hacké
Je n'aime pas l'argumentaire de cet vidéo qui se résume a : Il y a un gros loup là bas, passons des lois pour qu'il y ai très peu de personnes au courant.
La technologie est présente et empêcher sa démocratisation ne la fera pas disparaître.
L'histoire de France est un cimetière de technologies avortées sur l'autel de la régulation.
Excellent panorama..tant d'un point de vue scientifique ( vous nous avez parfaitement expliqué en quoi, et pour quelles raisons, Google n'est pas devancé par OpenAI); que d'un point de vue societal et surtout les risques liés au cybercrime. Ce dernier volet, pourtant fondamental, n'ayant pas du tout été développé, et ce à tort, dans tous les articles laudateurs ou " ébahis" que j ai lu dans les grands magazines ou quotidiens français dits de référence.
Encore Merci!
Excellente vidéo merci ! Il serait vraiment intéressant de vous voir participer à des conférences sur les risques posés par chat GPT et les questions de sécurité que cela pose. Et en lien avec les IA en général, il y a clairement un parallèle à faire avec la question de vérification des sources et des fakes news. Avez-vous des interventions prévues sur ces sujets aux Rencontres de l'Esprit critique de Toulouse ?
Bonsoir, et merci pour ton travail très instructif !
Une question me trotte dans la tête, si ChatGPT n'est pas du "dernier cri", est-ce que les professionnels du cyber-crime ne sont pas; si ce n'est mieux équipés; au moins déjà utilisateurs d'IA du langage aussi performantes ?
Et, y a t'il des moyens accessibles pour les particuliers de se protéger des techniques de reconnaissance de frappe (autre que la prévention des populations à l'esprit critique)?
Les criminels n'ont pas à être beaucoup mieux équipés que leurs cibles. Tant qu'on ne peut pas détecter une arnaque crée avec une IA publique, ils n'ont pas à développer de meilleurs mécanismes.
Contre la reconnaissance de frappe sur smartphone, il faut désactiver le partage des données depuis le clavier ou utiliser un clavier sans cette fonctionalité.
Franchement video top et un grand Monsieur
Super vidéo merci beaucoup !!!! (Commentaire pré visionage pour le référencement)
Merci pour la vidéo.
Il est certain que les hackers ont déjà un niveau de veille très élevé, donc ils n'ont pas attendu ChatGPT pour se lancer là dedans.
En revanche sa démocratisation entraînera comme tu le dis une utilisation plus facilitée (à l'instar des blackhole kits), et donc répandue.
Le point sur la publicité est majeur en effet, contrairement à ce qu'on pourrait en penser de prime abord.
Sinon, chez TEHTRIS on utilise l'IA pour contrer ces méthodes (une course du quotidien). On saura vous conseiller si les chiffres sur les PME vous alarment.
Merci pour le contenu
(P.S : j'ai kiffé ton livre sur ton voyage Bayésien)
Beaucoup d'émotion dans cette vidéo. Je n'aime pas lorsqu'on tente de me transmettre une peur et je ne suis pas d'accord avec la régulation. Cela dit, c'est important d'ouvrir les yeux sur ces risques dont je n'ai entendu parler nulle part ailleurs. Merci de m'avoir apporté cela.
Raisonnement très intéressant. Merci.
Merci pour cette vidéo.
Le soucis est que parler de régulation sans parler de frontière c'est donner une solution de math sans avoir précisé le domaine de définition.
La vidéo est intéressante mais malheureusement je ne crois tellement pas en une régulation préventive, actuellement on est vraiment dans une logique ordolibérale avec l'idée que les entreprises sont innovatrices et régulatrices, loin d'une régulation étatique. En plus internet n'a pas de frontières, faire des lois juste sur notre territoire ne va pas suffire d'autant que, à mon sens, ce problème doit plus être pris sous l'angle technique préventif avec un financement d'organismes qui vont développer la sécurité alors que la loi c'est souvent pour punir un fait tenté ou réalisé et/ou indemniser donc souvent la loi arrive quand c'est trop tard...
Ça impliquerait alors un fort financement sur un risque éventuel en France voir en UE avec la promulgation de lois qui entourent les pratiques où là il faudrait au moins une régulation au niveau de l'UE... Ça ne va pas arriver demain et je pense que ça arrivera trop tard lorsque qu'une grosse entité sera attaquée et que les retombées seront conséquentes. Ça fait des années qu'il y a une sonnette d'alarme sur le dérèglement climatique, les réactions des états sont lentes voir inexistantes, alors une problématique apparue récemment n'a, à mon sens, que peu de chance d'être prise au sérieux.
Tout à fait d'accord.
On commencera réellement à se poser la question quand il sera trop tard.
Mais cette vidéo est tout de même rafraîchissante, au milieu de cette "hype" à l'IA sans aucun recul.
On sera tous affectés tôt ou tard (pas forcement que par la cybercriminalité) et y réfléchir maintenant nous permettra au moins de nous préparer un peu.
C'est effrayant.
Quand on cumule tous les dysfonctionnements, ça, l'écologie, les problèmes énergétiques, le rejet de la science, le rejet de la société, tout ça constitue un faisceau de présomptions qui annonce une fin brutale et proche de notre civilisation.
Intéressant
L'arrivée de ChatGPT c'est comme filer du jour au lendemain un fusil pour tous les foyers français, il serait facile d'imaginer le chaos que cela créait dans une nation où les armes à feu sont relativement peu étendues. Mais c'est très motivant pour tout chercheur touchant de près aux problématiques de sécurité/privacy(/robustesse ?) des IA.
Tu crois que les armes à feu ne sont pas rependu en France ?
mais un nombre élevé d'armes à feu n'est pas synonyme de tueries, de terrorisme et autres hostilités
@@louisxiv736 Je sais ce que tu vas me répondre, épargne-moi ça. Moi je te parle de foyers du grand public. D'avoir tous les citadins de Paris équipé d'un fusil, c'est ce dont je parle.
Qu'est ce qu'il dit l'ahuri
@@Themagiciandu62 Mon message est plus porté sur le fait d'avoir ça du jour au lendemain. L'exemple du fusil n'est pas si important en soi.
Comme bonne utilisation de l'IA, enfin du moins des réseaux de neurone, on a eu AlphaFold2 dans le domaine de la biochimie. Il est d'ailleurs dispo sur Foldit, avec un nouvel outil "Neural Net Mutate", qui depuis quelques mois, fait un peu l'inverse d'AlphaFold : générer des acides aminés. Surement que toutes IA de texte ou d'image peuvent aider indirectement l'évolution des avancées scientifiques dans les protéines. Ces nouvelles IA provoquant un tel engouement, car c'est cool de générer des images ou du texte (bien plus que des protéines), les gens sont plus investis pour faire évoluer les techniques.
L'attaquant paralyse le système car le système contient des failles
-> Le système est paralysé.
-> Incentive énorme à être plus robuste
-> Le système investit pour être plus robuste et pouvoir faire face à une attaque similaire.
L'autre possibilité c'est de mettre 100% des efforts pour que l'attaquant n'ai jamais accès à l'attaque. Or cette dernière option est, selon moi, de plus en plus irréaliste surtout quand tu vois que les états eux même sont parfois les attaquants et que les outils se sont déja pas mal démocratisés..
Enfaite, c'est comme si tu voyais un tsunami et que tu voulais stopper la vague, alors qu'il est surement plus réaliste de prévoir la reconstruction.
Je sais pas si m'exprime bien.
Aussi, je te souhaite d'aller bien. Car tu as l'air de moins en moins bien... Prends soin de toi stp.
Sauf que cette course à l'armement ou à la reconstruction = argent = énergie = épuisement des ressources.
Merci Lê pour cette excellente vidéo.
Il y aurait beaucoup à dire sur l'intelligence artificielle au niveau éthique, le budget de la recherche en France, les chercheurs français qui préfèrent partir dans un autre pays car ils vont mieux gagner leur vie, ...
Petite précision sur les gros modèles de langue de Google : Lê parle de Lambda et Palm en disant que Google ne les a pas rendus accessibles au grand public pour des raisons d'image. Mais c'est oublier que le fameux article de Google qui introduisait les transformers ("Attention is all you need") en 2017 s'accompagnait déjà du modèle BERT qui était lui aussi assez musclé. Or, BERT est tellement facile d'accès que dans les dernières années, la recherche sur les gros modèle de langue s'est beaucoup concentrée sur BERT. Là tout de suite, vous pouvez télécharger BERT et tout un tas d'autres gros modèles de langue et même les customiser pour qu'ils fassent ce que vous voulez
Bof bof. Le biais de Monsieur Nguyen est fort quand même.
L'analogie du couteau est quand même très pertinente.
Quant à l'interdiction, elle n'implique pas la suppression ou la disparition... Cf. la prohibition.
Là où on se rejoint c'est sur le point de la cybersécurité. Il en faut bcp (bcp bcp bcp bcp) plus.
Mais on en reviendra toujours au principe de réalité : les gens sont pas assez éduqués.
Quel biais?
@@florentinolee3569 Biais de confirmation : il est déjà "anti-AI"
Vous êtes brillant, merci !
Merci pour cette analyse toujours très pertinente pour nous faire mieux réflechir sur ce sujet. Tu me convainc toujours avec tes arguments très solides.
super vidéo
L'homme court à sa perte. Chaque ordinateur (connecté) sait plus de trucs que son propriétaire, ils savent tout sur tout le monde. Terminator était visionnaire mais il s'est planté dans les dates. C'est maintenant.
Faux, ils savent au mieux ce que tu as partagé comme informations
@@texanplayer7651 Puisses-tu dire vrai ?!...
6'000 Milliards c'est aussi le montant de détournement de fonds par année.
Beaucoup de blabla et de critiques qui tournent en rond pendant 20 minutes sans aucune référence solide ! Félicitations pour votre facilité à tenir si longtemps sans vraiment susciter un intérêt quelconque à des propos plutôt creux.
J'en suis à 2:44 mais la doctrine installée qui fait un lien direct ChatGPT === Criminalité augmentée et par généralisation IA === Criminalité augmentée, je grince des dents...
Oui, il y a ces risques ! Mais aujourd'hui sans IA, le risque est déjà là.
On va voir la suite de l'argumentaire.
L'automatisation.
Chaque cybercriminel utilisant ces outils va potentiellement gagner un facteur 100 ou plus en efficacité.
Il ne faut jamais avoir utilisé de tels outils pour ne pas se rendre compte des gains de temps possibles.
@@oni2ink Oui, c'est certain et tu crois que les brouteurs avec toutes les fautes qu'ils font et le blé qu'ils se font déjà attendent chatGPT ?
Il est vraiment pas là le problème.
@@PresteusSparkling Quel est donc le problème alors?
De ce que je vois il n'y a deux facteurs qui font que les arnaques du genre sont relativement limitées actuellement (vu qu'on parle des brouteurs):
- Cela demande du temps humain, et pas qu'un peu
- Il faut donc vivre dans un pays ou le coût de la vie est très faible, pour que ça devienne vraiment rentable
Si la tâche devient automatisable, ça devient par conséquent bien plus rentable/accessible, et de facto ce ne sera plus une motivation que dans les pays sous développés.
A mon époque on appelait ça simplement un pet de foune... Et il n'y avait pas besoin d'artifice ni d'intelligence pour le faire fonctionner.
Contrairement à ce ChatGPT...
Mais où va-t-on ? Quelle époque ! C'était mieux avant...^^
PS : courage pour le chauffage ! On aimerait bien en savoir un peu plus sur ce pourquoi...
Tout pouvait être prévu à l'avance. Je ne comprend même pas comment on a manquer le fait que les gens sont aussi de nature curieux, surtout quand on détient un pouvoir qui enivre suffisamment
C'est pas une histoire de nouveau couteau maintenant, fais la comparaison entre le premier bon couteau vs de la pierre taillée lacée sur un baton, là on a les premières très bonnes IA qui ont des capacités inédites, ChatGPT est par exemple très bon en traduction, meilleur que tout ce qu'on connaît, de google trad à DeepL. Il m'a traduit du grec ancien en français parfaitement, avec les subtilités que j'avais jamais vues avant, tout le sous-texte. Tout en me disant que c'était pas la langue dans laquelle il était meilleur car il a très peu de grec ancien dans sa base donc qu'il fallait prendre sa traduction avec des pincettes.
En ce qui concerne la SNCF, y a pas besoin d'IA pour foutre la merde , y a déjà la CGT
Bloom a été entraîné sur la machine Jean Zay de l'Idris (Paris). Cette machine est un supercalculateur français, tout comme Adastra au Cines et Julio Curie au TGCC (CEA). Adastra est x3 plus puissant de Jean Zay, il y aura probablement de gros models entraînés dessus.
Et du coup, pour faire echo à ce moment 17:37 , avec des machines comme Lumi en suede, Juwels en Allemagne et Leonardo en Italie, il est possible que ce type de modèle soit déjà en court d’entrainement. Bien sur, les états ont leurs propres machines. #piscine
Bon bon bon. J'ai l'impression d'entendre green peace parler de nucléaire. On prend une technologie, on l'applique la ou elle aura les effets potentiels les plus importants et on fait comme s'il n'y avait que ça indépendamment de si c'est probable ou pas et de si les bénéfices ne serait pas plus grand. Oui l'"IA" a sûrement beaucoup de chose de critiquables pour de bonne raison mais limité le développement des IA n'aura absolument aucun impact sur la cyber criminalité actuelle et je pense qu'on aurait même tout intérêt à essayer de régler le problème de la cyber criminalité pour atténuer les effets négatif de l'"IA" et des autres technos. L'argument de couteau ne tient peut être pas mais il n'y a aucun argument qui montre que l'IA est ou sera majoritairement utilisé par le cyber crime, ni qu'elle serait son impact en dehors de la standardisation et massification du phising et diffusion de fausse information. Qui augmentera en nombre mais dont les effets ne feront que diminuer avec le temps a priori. Aujourd'hui tout le monde trouve l'arnaque du prince Nigerian ridicule, ce n'était pas le cas il y a 20 ans. Pourtant rien n'a changer niveau sécurité si ce n'est de la détection de spam un peu plus efficace. La seule vrai avancé est venu de l'éducation.
Peu être qu'il sera plus difficile de se prémunir individuellement de l'IA mais un patch de sécurité ne viendra jamais corriger une faille psychologique. Enfin il serait plus sage de comparer l'IA a l'imprimerie, l'ordinateur, internet, ou le téléphone. On a un outils qui va simplifier, automatisée, massifier nos capacités d'échanges d'informations positivement ou négativement et niveau développement de la cyber criminalité ces technos tiennent un bon bout je crois (sauf l'imprimerie que j'ai rajouter à la fin). Sans parler de la facilité avec lesquels ces technos peuvent participer directement à lâcher des bombes, comenditer des assassinat, falcifier des informations en périodes ou la vérification s'avère difficile...
De plus et ça me titille depuis un moment mais même si les algo de recommandations on un impact important et potentiellement négatif, voir dramatique et condamnable. Il ne faut pas oublier que ce n'est pas toujours le cas. Et ensuite on ne s'enferme dans une bulle à cause de l'algo, on l'a façone grâce/à cause de lui. Si les jeux départs est pourri racisme, incitation a la haine... L'algo, l'IA le sera tout autant et le problème ne pourra pas se régler mathématiquement (comme ça a l'air suggérer en fin de vidéo même si je me doute que ce n'était l'objectif de la phrase). Des projets comme tournesol peuvent aider mais plus celui-ci, ou d'autres auront de l'importance. Plus la quantité de données à évaluer sera importante plus il sera pertinent mais plus de bulles centré sur les incentives individuelles se créeront qu'elles soient louables ou non. Tournesol n'a peu être qu'un développeur mais je suis certain que le ratio taille de la base de données sur nombre de dev de tournesol est largement supérieur à celui de chatgpt, Facebook, RUclips... Donc ça ne sera pas là solution miracle non plus, l'intelligence collective c'est bien mais parfois les gens sont cons et plus encore en groupe.
Il ne s'agit pas vraiment de limiter le développement de l'IA, mais de ne pas oublier l'aspect sécurité. Chose qui comme il le disait dans une vidéo précédente est totalement étouffé.
Je suis persuadé que la majorité des développeurs dans le domaine veulent faire de leur mieux, mais n'ont peut être jamais entendu parler de ces aspects.
C'est sur, ça fait un peu rabat joie. Mais c'est en prenant en compte ce genre de problématiques dès le début qu'on limite la casse ensuite.
Actuellement, quand on entends parler d'IA, c'est toujours de deux façons:
- tout l'aspect incroyable et ce "cool washing"
- ou encore "les IA vont voler notre travail"
Je n'avais jamais entendu parler de l’aspect sécurité ailleurs. Pourtant c'est quelque chose qui me tracasse depuis un moment, et je suis des chaînes comme Two minute papers depuis leurs débuts.
Comme quoi...
Je trouve incroyable la naïveté et la propension à défendre le système, qu'ont tant de personnes...
@@JohnArktor Oui, encore si le système était open source (ou ils ont cru que OpenAI faisaient vraiment quelque chose pour l'humanité... lol?) et collaboratif, la question serait un peu plus complexe.
Mais la on parle d'une grosse corpo qui se fait mousser en nous faisant participer a leur coup de pub sur une techno qu'ils n'ont même pas inventé. C'est beau quand même.
Il y a pas de chauffage chez toi ! Remarque le froid ça vivifie à ce qu'il paraît. Salutations de la Provence
Le froid permet aux serveurs de fonctionner.
D'ailleurs, Sarah Connor m'appelle pour un petit souci technique.
Ça fait plaisir de voir un peu de polarisation au sujet de cette IA dans le monde scientifique. C'est une prouesse technologique et c'est incontestable, mais les IA de langage et les IA sont beaucoup plus critiquables qu'on n'essaye de nous le faire penser.
Le buzz médiatique quand au fait que LmBDA aurait été consciente (suivi de l'action en justice pour prouver cette conscience) est flippant: si des juridictions reconnaissent la conscience des IA, on ouvre la porte à des boucs émissaires gratuits pour toutes les pires merdes que les entreprises peuvent se permettre de faire
Les IA sont aussi une catastrophe pour la résilience de l'humanité face au défaillances de la tech. A tout vouloir faire reposer dessus et a remplacer des enseignement d'informatique par des enseignement sur les IA, on creuse notre tombe pour quand dans 50-100 ans on aura des soucis énergétiques et d'approvisionnement en matières premières. C'est voué à arriver. Si on a de la tech illimitée entre nos mains et chez nous, c'est au dépens de pays en développement, qui ou bien commenceront à être plus stricts sur les exports, ou bien seront complètement pillés.
Je dis pas que les IA sont 100% mauvaises, mais aujourd'hui notre société marche comme si on pouvait se permettre de fonctionner comme ça pendant les 100 prochaines années alors que c'est complètement faux. Les IAs font partie pour moi de ces choses qui n'ont rien de durable.
Perso c’est la première fois que j’entends le mot « spectacularité »😅
La véritable dystopie, ce sont les moufles des acteurs sur TOUS les écrans. XD
Je parlais récemment avec des amis de ce sujet de coolwashing et de développement bien trop rapide de nouvelles IA, et en suggérant qu'on devrait clairement ralentir le rythme de développement de telles technologies, j'ai eu la réponse : "oui mais même si nous on les développes pas, les autres vont le faire, et donc le seul résultat c'est que ça va nous affaiblir géopolitiquement". J'avoue que je ne savais pas trop quoi répondre...
Il faudrait une réponse à l'échelle européenne, et pousser des normes ambitieuses mondiales en passant par l'ONU. Pas facile, hein.
Cela dit, le gain n'est pas si évident que cela, puisque la conception massive de code mal sécurisé pourrait coûter très cher aux entreprises.
@@Abandon-art a l'échelle mondial finalement. Sauf que t'aurais toujours un pays pour le faire
Repond juste que c'est une question politique et non scientifique, donc totalement subjective
Si on est complément réaliste, imposer des normes mondiales sur le sujet est impossible. L'ONU arrive même pas à dire à la Russie de pas envahir l'Ukraine, ils vont pas réussir à imposer un arrêt des développement de ces technologies 😅 (d'autant plus qu'un acteur majeur dans le domaine c'est Chine, qui a un droit de véto)
Je suis d'accorc avec les différentes réponses. Il y a un côté course à l'armement plus ou moins inévitable.
- Cela dit, les gouvernements ont bien réussi à bannir presque entièremment des choses de la planète comme les armes biologiques (moins de 5 pays ont trahi la convention) ou la prolifération d'armes nucléaires.
- Ce n'est pas parce que c'est politique que c'est forcément subjectif. On retrouve bien une loi qui interdit le meurtre dans tous les pays, et pourtant cela relève bien de la morale. Oui, ca n'empêche pas les meurtres, mais contrairement à un logiciel que tu peux faire fermer en un appel chez Google, le meurtre est difficilement stoppable physiquement.
- Au final, ne rien faire est juste un aveux de faiblesse, ce serait la preuve ultime que les politiciens et les Etats ne servent à rien. Je refuse de croire qu'Internet ne peut être normé, la preuve, la CHine xd
Question innocente : ne pourrait-on pas remplacer "IA" par "internet" (ou d'autres technologies) dans le discours et avoir les mêmes craintes au moment de l'arrivée de cette technologie ?
Ou maintenant c'est aussi voir plus problèmatique maintenant qu'avant
Non
je vous suggère de pousser votre raisonnement à fond et de mener vos propres investigations quant à la différence entre ces deux technologies. Les implications sont différentes. Le mot clé est "discernement".
Internet est le réseau entre utilisateurs.
Alors que l'IA est plutôt un multi-utilisateur, qui communique avec plusieurs (millions ou milliard) personnes, en même temps.
L'ennui est que ça favorise la pub sauvage sur le réseau, vu que l'IA va s'adapter aux utilisateur humains, pour les persuader de cliquer.
Et sur le net, cliquer c'est acheter, ou être acheté.
La question innocente de @Lou ne peut pas être évacué avec autant de condescendance @Anne Onym un peu discernement et de charité intellectuelle.
@chnoot : La technologie est au service de la productivité. Nous faisons tout plus vite que précédemment. Cette productivité permet une réduction des coûts et donc une démocratisation. Le deep-learing est juste un pas de plus dans cette recherche de productivité.
Je ne vois pas de rupture mais une accélération de l'ère informationnel : le deep-learning est une base de donnée compressé de milliard de documents avec un système de requêtage avancé (je pense à ChatGPT ou Stable-Diffusion). Mais c'est vrai pour tous les NNs en vrai.
La démocratisation de taches réservés autre fois à une élite/professionnel effraye immanquablement. Et immanquablement le monde c'est adapté (incluant des souffrances et des joies).
On pourrait avoir tous les raisonnements sur science4all avec "l'imprimante" : Imaginez le pouvoir de diffuser du savoir accaparé par les riches qui peuvent se payer cette machine couteuse, il pourrait manipuler l'opinion. Les arnaqueurs pourraient imprimer de faux documents en masse pour tromper en masse! Nous aurions des publicités qui pousse à la consommation (etc).
Alors oui, dans le monde "idéalisé" de Science4All le productivisme au service du consumérisme n'est pas une bonne nouvelle. Industrialiser et démocratiser toujours plus d'outils effraye.. je comprend! Avant cibler c'était accessible uniquement aux dictateurs, et maintenant il suffit de faire une campagne pub sur Facebook pour quelques euros.
Je mets pause à la vidéo, car ça me titille, mais peu importe les moyens informatiques, si les gens n'ont pas les bons réflexes, les hackeurs y arriveront toujours. ChatGPT permet d'automatiser ce genre d'arnaque, mais je ne pense pas que ce soit la peine de le diaboliser pour autant. Le feu ça brule, pourtant il nous a permis d'aller loin.
C'est pas une comparaison au feu qu'il faut faire la, mais plus aux incendies qu'il y a eu en Australie dernièrement :')
La plupart des conséquences de ce genre de technologies sur le long terme n'ont probablement pas été imaginées ou envisagées, alors quand on voit déjà le listing de tout qu'il est possible de faire en mal... nier les danger sous prétexte que "c'est un outil" c'est être complètement insouciant.
Et d'ailleurs, j'aimerais bien avoir une liste des incroyables bénéfices d'algorithmes comme ChatGPT.
Car pour l'instant ce que j'ai vu, c'est des gamins qui trichent à l'école, des personnes qui se remettent au savoir de ChatGPT sur des sujets qu'ils ne maîtrisent pas et ou ChatGPT va généralement leur dire des conneries (qu'ils vont croire, car ils ont la flemme de vérifier) ou encore du pissage à rallonge d'articles par flemme de le faire soit même.
Bref, en l'état je ne vois pas une balance bénéfices/risques très positive.
Y a bien des utilisations concrètes intéressantes, mais déjà elles n'ont pas besoin de sortir d'un modèle de langage aussi généraliste. Et elles ne sont pas assez critiques pour qu'on en ai besoin tout de suite sans se soucier de la sécurité.
Le problème de l'IA dans phishing, est qu'elle permet de créer des attaques exceptionnellement bien conçues, voire personnalisées, et donc beaucoup plus efficaces. On peut déjà imaginer des attaques qui utilisent le medium privilégié par la personne (e-mail mais aussi whatsapp etc...) en se faisant passer pour une connaissance vraiment proche, et pas uniquement un quidam trouvé dans les contacts, à la limite qui vient s'insérer dans une conversation en cours. Bref, qui arrive dans un contexte où toutes les barrières sont enlevées. On ne peut être vigilant tout le temps sur tout. Efficacité maximale. On ne change pas à proprement parler de paradigme, mais bien d'échelle. Et comment !
@@yoops66 Ouais, c'est d'ailleurs un type d'attaque utilisé fréquemment sur discord, manuellement.
J'ai moi même eu le coup.
Une connaissance qui fait des petits jeux en tant que hobby qui me demande de télécharger et tester son jeu.
Manque de bol pour lui j'étais sous Linux et j'ai juste eu la flemme d'essayer.
Deux jours plus tard ce même pote me re-contact pour me dire qu'en fait, ce n'était pas lui, mais quelqu'un qui avait compromis son compte et diffusais un malware sur discord.
Malware capable de récupérer les informations de connexion etc, et donc étendre encore plus le réseau de contacts utilisables par l'arnaqueur.
Bref, c'est déjà pas mal présent, alors j'ose pas imaginer une fois automatisé ce que cela va donner...
Donnez plus de visibilité à cet homme !
Merci pour ce contenu de qualité.
Mais j'ai l'impression qu'on est foutus. C'est encore pire que le réchauffement climatique.
Actuellement je ne vois aucune raison pour que vos pires prédictions ne se réalisent pas.
Il faudrait une grosse catastrophe et qu'on impute ça directement à une IA de ce type.
Pour être honnête, dans mon travail Chatgpt est devenu un outil très efficace. Ça peut même être dur de s’en passer.
c'est triste que le dirigeants de se monde laissent leurs territoire abandonne dans le chaos le plus total. et pas que la cybercriminalité, parce que les gafas violent ouvertement toutes les lois possibles et imaginables.
La partie "Que faire ?" est un peu lacunaire à mes yeux. Lê parle de réguler, mais pas beaucoup de comment réguler. Maintenant que la recette pour créer ChatGPT "à la maison" est accessible sans tant de difficulté que ça, la boîte de Pandore est ouverte et il n'est plus question d'interdire les gros modèles de langue. A défaut de pouvoir dés-inventer ChatGPT, je pense que la solution se trouvera plutôt dans une régulation des usages que les personnes font d'internet. C'est-à-dire qu'on devrait peut-être essayer de tendre vers un internet plus fermé où on n'accepte rien en provenance d'inconnus puisqu'on n'a aucune preuve qu'on a affaire à des humains.
Du coup, ça passera par toujours plus de fliquage et de coercition ? Solution de facilité.
Ou alors faire un procès de nos civilisations qui ne parviennent pas à se passer du ouaibe comme de l’absinthe naguère.
Impossible de compter sur les parents pour éduquer leurs enfants car ils sont aujourd’hui totalement démissionnaires: tablette et Netflix/RUclips. Ces parents eux-mêmes exposent leur vie sur Insta et FB.
A l’instar des armes à feu, c’est l’éducation et la responsabilisation qui priment: au pro-rata de sa population, la Suisse compterait autant voire plus d’armes à feu par habitant qu’aux Stases-unies - sic. Pourtant, on n’entend jamais aucun déboire ni drame intrinsèquement liés au sujet du mesusage des armes à feu.
Mais la Suisse est un pays souverain, réellement démocratique - au sens rousseauïste du terme - ce qui n’est pas le cas chez-nous.
Ce sera probablement donc le fliquage et la coercition. Mouais, rien de nouveau sous le soleil.
5:00 ils disent avoir dépensé 2.5M dans le cloud, ce qui n'a rien, mais alors rien du tout à voir avec 2.5M d'électricité. D'ailleurs je pense que tu le sais surement et je trouve ca dommage de ce fait de donner des fakes chiffres pour choquer.
Oui, bon, en même temps, ce n'est pas comme s'il n'avait pas simultanément affiché le texte (highlighté, excusez du peu).
Ceci dit, de là à dire que cela n'a rien à voir du tout, c'est pousser le bouchon un peu loin : l'électricité représente jusqu'à 40% du coût des gros data centers.
l'IA Forte libérera l'humain du labeur. Mais son développement par le privé (dont le carburant est la cupidité), fait que entre temps ça sera la merde :)
Et a terme ça ne nous aidera pas.
Oui c'est sur que qu'un développement par le public ne servira pas le pouvoir et la mise en place du totalitarisme n'ayant rien à envier au communisme
J’aime beaucoup ton point de vue et j’ai toujours apprécié tes opinions. Mais non pas ici que tu est tord ou que tournesol ne soit pas ma préoccupation, mais le fait que derrière chaque critique se cache une promotion de tournesol entache la crédibilité de ton opinion. Aussi juste soit elle ont peu pas s’empêché de penser que ce soit aussi une façon je juste promouvoir ton projet.
Sachant qu'il n'y gagne pas un centime à promouvoir Tournesol ça me paraît évidement que c'est de bonne foi qu'il le recommande, pour aller vers un système de recommandation plus sain tout simplement :-)
Tournesol est la réponse qu'ils (lui et ses partenaires) proposent pour résoudre les problèmes qu'il expose lors de ces différentes critiques. Ce n'est donc que normal qu'il promeuve Tournesol à la fin de chaque vidéo, pour entre autres éviter les question du style : On va alors faire comment ? Qu'est-ce que tu proposes ?
le fait que la cybersecurité ne devienent de fait non optionel, et qu'une formation minimal en securité obligatoire pour les utilisteur a un quelconque niveau profetionel par la seul masse d'attaques est de fait la seul solution. plutot que de reveusement esperé limité l'epée developont les bouclier
Des formations en sécurité obligatoire pour tout le monde à ses limites: pour les particuliers qui recevraient une formation obligatoire c'est la porte ouverte à la propagande par le biais des formateurs et ceux qui les mendatent: en mode ça et ça c'est une méchante source, ça par contre c'est bien (mehh) chatgpt lui même montre ses limites en terme de propagande et de politiquement correct hypocrite: voir la vidéo de Majid Oukacha qui le pousse dans ses retranchements, chatGPT a bien été formaté par la propagande padamalgam cpasalislam.
C'est faire fi de la disparité des moyens.
Former la masse stupide et fainéante intellectuellement ne marchera jamais.
D'autant que même quelqu'un d'intelligent peut commettre une erreur par inattention, fatigue,...
@@miyamotomasao3636 Waow, l'optimisme... c'est dit de manière abrupte mais le pire, c'est que c'est vrai.
Bon, ajouter à ma to do list : apprendre à faire des noeuds coulants. 😅
C'est effrayant.
Quand on cumule tous les dysfonctionnements, ça, l'écologie, les problèmes énergétiques, le rejet de la science, le rejet de la société, tout ça constitue un faisceau de présomptions qui annonce une fin brutale et proche de notre civilisation.
14:37 Tu as un biais là ... c'est comme demander à des boulangers Toulousains si on dit bien "chocolatine" ... 😉
bonjour,
C'est bien gentil tout ca, mais en gros, notre ami voudrais que l'on interdise le développement des IA grand publique par manque de solution pour imposer un moratoire mondiale sur le sujet.
Et tant bien mêmes, qui va interdire quoi ? selon quelle critère ? la solution c'est celle de Davos ! une gouvernance mondiale, on voit bien la catastrophe arrivée, totale contrôle des masses, vous ne posséderez rien et vous serez heureux !!!
Car il est bien évidant qu'il n'existe absolument aucun moyen de contrôle dans de très nombreux pays.
C'est très similaire a la lute gouvernementale contre la possession d'arme aux citoyen, pendant que ce mêmes gouvernement démontre jour après jour son impuissance a désarmés les malfrats.
Pour moi Chat GPT a pour bénéfice de mètre au grand jour une technologie jusqu'à lors réservé a des GAFAM ou autre entité gouvernementales pas forcement bien vaillante.
D'autre par il me semble complément illusoire de lutter contre le progrès (sans connotations de bien ou de male), c'est dans nos gênes, toujours plus loin, plus fort, plus grand.
Je pense malgré tout que c'est mieux que tout le monde puisse avoir accès à de puissant modèle. Je pense que si les puissantes IA ne sont pas accessibles au publique alors ça créée un rapport de force beaucoup trop grand entre les citoyens et les états/entreprises/criminelles. Et le seul moyen de se défendre contre l'IA en tant que citoyen, c'est avoir également une IA. Si les cybercriminelles génère autant d'argent, il est sur qu'ils peuvent faire leur propre IA de toute façon. Donc autant qu'on y ait tous accès.
Pas besoin d'OpenAI pour cela. Ils n'ont d'open que leur nom.
Il faut plutôt se tourner vers des modèles open source comme Bloom.
Et désolé d'être un peu négatif, mais actuellement, le rapport de force est clairement du côté des corpos.
C'est eux qui ont les plus grosses capacité de calcul pour entraîner les modèles.
C'est aussi eux qui sont près a dilapider de l'argent pour entraîner des modèles plus gros que de raison.
C'est pas parce qu'ils nous donnent les miettes avec un accès pour l'instant public a ChatGPT qu'il y a une quelconque symétrie dans les rapports de force.
Bien au contraire. Le danger de s'habituer à ce genre de modèles privés, c'est d'avoir une dépendance, la ou ils ont un contrôle absolu sur l’accès qu'ils donnent.
Aujourd'hui il est gratuit. Demain il y aura probablement un paywall. Et qui sait ce qu'ils nous réservent pour la suite. Sans parler que tout ce que l'on tape sur leur chat se retrouve chez eux.
Les forcer à se plier à une législation et à prendre en compte la sécurité est alors d'autant plus important!
Sérieusement, depuis l'avènement des réseaux sociaux et des GAFAM, genre début 2000, j'ai l'impression d'être passé dans la 4ième dimension. La désinformation est massive, le capitalisme ne s'est jamais porté aussi bien, les gens sont totalement lobotomisés, c'est ultra effrayant et ça va en s'accélérant. Des choses qui me paraissaient totalement impensable il y a 20 ans sont naturelles pour ceux nés après 2000, alors que c'est du bullshit complet ... on réécrit l'histoire, on aseptise le divertissement et l'information sous prétexte de tolérance et j'en passe. Ou alors on est dans la matrice et elle a sévèrement buggé ... ps : pour tournesol je ne trouve pas le système de comparaison super efficace car quand je regarde une vidéo et que je me dis elle est d'utilité publique, et que je veux la "rate" ben je dois trouver une vidéo en comparaison ... hors j'ai juste envie de donner une note et un avis sur la vidéo que je regarde ... sinon c'est trop lourd ...
Entièrement d’accord. Sans parler de cybercriminalité, on aura une flopée de doctorants et de thésards qui s’épargneront les efforts de traitement de texte, de recherche, de vérification et toutes démarches nécessitant abnégation, organisation et sacrifice personnels. C’est un grand pas de plus vers le spontanéisme-behavouriste et ça entérine tout ce que des Brighelli, Laurent Lafforgue et autres décrient depuis décades.
Je suis de 94, probablement plus jeune que toi mais j’ai connu les cretins finis au lycée copier/coller des bréviaires depuis Wikipedia dans une perspective scolaire.
Désormais, on aura autant les profs que les élèves qui se compromettront par le biais de la facilité, de la paresse et de la doxa médiatico-politique.
Je suis interne en médecine et passionné par l’algèbre et mon domaine de compétence, et je plaide coupable d’être un piètre hacker même si j’ai dû faire quelques trucs sur Backtrack et Kali naguère…
Pourtant, je sens, je vois le danger. De façon presque synesthésique tant ledit danger est omniprésent et ses auteurs omnipotents.
J’ai moi-même renoncé à utiliser ChztGPT dans le cadre de ma profession - de toute façon, il aurait été d’avantage utile lors des ECNi, à savoir le concours d’accès aux spécialité et à l’internat.
Et je refuse de l’utiliser de la même façon que je refuse d’utiliser une tablette graphique car ce monde est assez insipide pour nous ôter la satisfaction tactile - la vraie, pour le coup - de tourner les pages d’un livre.
Accessoirement, on ne pourra plus se fier, définitivement, aux commentaires dont la vocation est d’évaluer la qualité d’un produit de consommation ou même un établissement quelconque - hôpital, resto. Car désormais, même pour le quidam il sera facile de falsifier la vérité et saborder les consciences.
Je me réjouis vraiment pas de tout ça.
formidable vidéo, merci beaucoup pour nous tous et bravo pour votre travail 🙏
Je ne trouve pas "tournesol" et je ne suis pas vraiment certain d'avoir capté de quoi il s'agissait, pourriez vous partager un lien ?
Ce commentaire est vieux mais au cas où vous ne l'ayez toujours pas trouvé, c'est simplement tournesol . app (j'ai ajouté des espaces parce que RUclips ne me laisse pas mettre des liens en commentaires)
Mais.. mon comm à disparu.. je voulais remercier tournesol pour les modifs apportées, que c'etait super d'avoir pris en compte ma remarque, et préciser que j'allais faire un petit don comme promis, le temps d'avoir le beneficiaire suisse activé . voila :)
Très bonne vidéo lê comme d’hab, la prochaine fois tu sors la doudoune! 🤣
merci pour ce contenu
Tu es tres cool et posé .J aime vraiment.
Vois sur Jackie&Michel
Section Asie
Il est TBM +++
Musk demande depuis plusieurs années que soient créées des autorités de controle des AI ! Mais comme c'est Musk on préfère lui taper dessus c'est plus fun et ça fait des clics !!
Il y a des extensions de tournesols pour le navigateur edge?
Les extensions chrome sont compatibles avec edge normalement. Edge est basé sur le moteur de rendu de chrome
Non pas encore malheureusement. Comme ça ne touche pas un très grand publique ce n'est pas dans nos priorités pour l'instant.
@@TournesolApp optimisation et efficience, je comprends
Un jour Lê nous annoncera que ses calculs aboutissent à la conclusion que, d'un point de vue conséquentialiste, l'espèce humaine est plus néfaste que bénéfique, et donc qu'il faut y mettre fin.
Non mais sérieux, Lê a-t-il le monopole de la connaissance des conséquences et de leur évaluation objective ? Ou bien ça reste des choses subjectives ?
Et sinon tu as un argument ?
@@jdriele Un argument pour appuyer quelle thèse ?
Homme de paille. Il n'a jamais prétendu avoir le monopole.
@@yoops66 En disant ça, ne ratez-vous pas un peu ce que je dis ? Le sujet n'est pas de savoir s'il a le monopole ou pas, mais s'il veut constituer un monopole (pas seul, il ne pourra pas) et si c'est une approche cohérente, pertinente. Est-ce pertinent de dire : "il n'y a qu'un seul point de vue valable concernant les conséquences des choses, donc il n'y a qu'un seul conséquentialisme possible" ?
Pourquoi jusqu'à présent ce service n'est pas disponible pour dans les pays ?
Assez étonné d'entendre que l'algo de Tiktok a remplacé le moteur de recherche de Google. Je trouve que Tiktok a du mal à répondre à une question de difficulté moyenne. Même les tutos sont plus construits sur RUclips.
Très bonne vidéo sinon !
Je l'ai plutôt compris au sens du choix à ce à quoi tu es exposé
@@ttehir si c'est dans ce sens là, je suis d'accord avec toi. Google fait un bon job avec RUclips mais en un peu moins bien que TikTok. Après algo de proposition de contenu et moteur de recherche c'est deux choses différentes.
la peuuuurrrr 😱
Tournesol fonctionne-t-il seulement pour les videos en Français?
Ou aussi en Anglais, Espagnol…?
Non ça fonctionne avec toutes les vidéos RUclips :)
Tu a tellement raison, mais j'aime tellement chatgpt ! 😢. C'est pire que la clope !
c est bien tout ca mais ca necessiterait des decision a l echelle mondiale
donc bon vu l efficasité des cop , parler d un sujet aussi peut connu que celui ci , bon
à 19:20 heureusement que tu n'étais pas un décident le siècle (les scicles ) dernier tu aurais cessé toutes les avancées technologiques qui nous ont permis justement de nous apprendre ces massacre et faire pression pour les diminuer à défaut de les arrêter .
merci la télé radio satellite... Le progrès quoi
Écharpe+ Bonnet pour la prochaine vidéo ?
Moufles et skis.
Il fallait commencer par interdire Google et autres moteurs de recherche, voir l'internet ;-)
je partage ton analyse
07:10 peut être que bientôt, être autiste sera une valeur d'avenir... (mis à part les problèmes d'hypersensibilité sensorielle, quoi que encore cela sert à entendre ce que mijote une machine aux bruits émis par les composants: c'est plus facile à lire que les émotions pour savoir si un ordinateur va planter...)
300 Twh/an c'est l'énergie que dépenserait toute l'humanité pour faire 6000km de vélo par an, bébé vieillards y compris, donc réparti sur la population active en âge de pédaler, plutôt 12000... juste pour "un modèle"...
Dans la course à la reconnaissance d'IA, la sécurité aura toujours du retard. Cette course semble être un puit énergétique sans fond.
La solution ne serait-elle pas de former la population à la crypto et d'avoir un organisme d'État qui délivre un certificat numérique à chaque citoyen en même temps qu'une carte d'identité.
C'est complètement utopique d'interdire une boite noire qui produit du contenu indistinguable de celui d'un humain, non ?
Et ça me paraît très, très compliqué d'empêcher l'utilisation illégale de grands réseaux transformer..
Ca parait plus plausible d'investir dans la sécurité ?
Oui, d'autant que comme on a pu le voir avec des modèles de génération d'image, ils peuvent finir par se faire leak et être utilisés localement (si pas trop gros) à des fin illégales.
Par exemple un modèle leaké et détourné de novel ai a été utilisé pour générer du pedo porn sur 4chan.
Pour cette raison (en partie seulement) les dernières versions de stable diffusion sont beaucoup censurées, et ne sont presque plus entraînées sur des photos NSFW.
Bon la contrepartie c'est que les derniers modèles ont beaucoup de mal à générer des corps humains crédibles.
il n y a que moi que ca inquiète les algo qui peuvent animer une seule photo et la transformer en vidéo ? avec midjourney et chatgpt et D-ID on peut faire n importe quoi comment on a pu lâcher ca en ligne ?
ChatGPT est un outil et comme tout les outils, si ils sont détournés ce sont les utilisateurs le problème pas l’outil
J'ai souvent entendu cette idée, comme quoi 'l'outil est neutre, c'est l'usage qui ne l'est pas". Mais un jour, j'ai entendu quelqu'un poser les choses autrement : tous les outils qu'on pourrait créer ne sont pas créés. Les outils créés correspondent donc à une certaine vision du monde. De ce fait, selon cette personne, dire que l'outil est neutre n'était pas tout à fait correct.
(Ce serait bien que je puisse retrouver le nom de la personne mais ça ne me revient pas... Il s'agissait d'une dame qui parlait des questions d'éthiques autour de l'analyse des empreintes génétiques)
C'est un peu naïf comme vision.
Sans avoir à détourner quoi que ce soit, un outil peut être mal conçu de base (biaisé dans le cas d'une IA).
Ce qui posera alors forcement problème par la suite à l'utilisation.
Surtout qu'on parle d'un modèle de langage. Et à quoi sert un modèle de langage... ?
@@tristan91130 Oui, ça m'intéresserait d'avoir le nom.
@@oni2ink tu veux parler du couteau ? C’est l’un des outils les plus dangereux du monde, c’est pas pour autant qu’on va arrêter de cuisiner
@@ivymike9479 Rien à voir avec ce que je veux dire.
Déjà les outils sont fabriqués pour un usage qui n'est pas forcement neutre.
Une grenade à fragmentation, c'est fait pour tuer. Que tu l'utilises bien ou non ne change pas son usage.
Les IA c'est pareil.
Si ton modèle est entraîné sur un corpus biaisé, que tu l'utilises bien ou non ne changera rien sur la finalité. Elle te donnera des résultats biaisés.
Tout le discours dans la vidéo ne vise pas à empêcher les gens d'utiliser les IA comme outils (ce n'est même pas la question), mais à concevoir des IA qui répondent à des normes pour les empêcher de faire ce pour quoi elles n'ont pas été conçu.
C'est exactement la même problématique dans tous les domaines.
Tu ne fais pas un appareil électroménager ou même avion sans suivre de normes...
Il y a même des normes de programmation pour les systèmes critiques. Alors pourquoi l'IA en serait exempté?
Tu devrais faire un partenariat avec blast😉
Ok mais c'est tjrs les mêmes attaques à la con.. un minimum de vigilance non ?.. les jeunes ^
Il aurait fallu intituler cette vidéo "Le vrai danger avec l'IA"
Demande a tournesol d'ajouter un bouton "mode sombre" parce que ça m'éclate les yeux. Merci.
👍👍👍👍👍👍👍👍👍👍
Ok. Merci beaucoup.
J'ai testé ChatGPT, c'est pas encore une intelligence. Il sert à rendre disponible le résultat des travaux humains dans divers domaines avec un progrès manifeste par rapport aux moteurs de recherche classiques en terme de temps de recherche.
19:30 je saisis pas le lien algorithmes publicitaires - génocides, quelqu'un peut m'expliquer ?
Propagande
j'utilise opera pour éviter les pubs.. 🌻 arrives bientôt ?
Non pas encore malheureusement. Comme ça ne touche pas un très grand publique ce n'est pas dans nos priorités pour l'instant. Mais avec l'extension "uBlock Origin" sur Firefox, pas de pub non plus 😉
En tout cas le "félin flatulant " m'aide à faire mes petits programmes moi qui n'est pas le temps de coder...
Tournesol, ça sert surtout à promouvoir les vidéos de Science4all et de quelques RUclipsrs. Pas vraiment éthique d'y avoir mis en premiers tes vidéos et d'ériger ça comme une solution ! En plus de l'information fausse et de l'idéologie peuvent se glisser tellement il y a d'informations dans chaque vidéo. C'est juste un blog voire même une playlist.
Oui, je suis moi-même un peu déçu par Tournesol, il y aurait sans doute mieux à faire.
Pour l'instant beaucoup des utilisateurs de Tournesol viennent car il regarde Science4All, plus on aura un public large, plus on aura des recommandations diverses. Mais sur les 20 meilleures vidéos du mois dernier il y a 16 chaînes différentes et ce n'est pas celle de Lê qui en as le plus 😄
@@LightKnight_Age_Of Oui peut-être, mais on fait avec les moyens qu'on as (qui ne sont pas immense) et on est ouvert aux propositions pour améliorer la plateforme, si vous des idée a proposer, n’hésitez pas à rejoindre notre serveur Discord.
@@TournesolApp Je pense que, pour les raisons pointées par emmetbrown notamment, c'est impossible de faire de Tournesol "la" solution. Ca restera simplement un outil pour améliorer internet pour certains.
Il faudra que parallèlement d'autres parviennent à trouver des solutions similaires (ou différentes, d'ailleurs).
La Bibliothèque d'Alexandrie, bien avant, était déjà un projet pertinent.
Pas de chauffage?
Une meilleure comparaison serait une tronçonneuse plutôt qu'un couteau... qd tu commercialise une tronçonneuse, tu lui met un système d'arrêt de sécurité avant...