Pour une introduction assez différente aux grandes idées de Solomonoff, je vous recommande aussi ces extraits de notre podcast Axiome, où j'explique en quoi l'induction de Solomonoff clarifie le paradoxe de Bertrand. ruclips.net/video/c86BtYw21RM/видео.html Bonus. Ça vous donne un exercice à la maison : en quoi la complétude de Solomonoff résout-elle aussi le paradoxe du grue ?
Le savoir serait seulement la combinaison de "probabilité, calcul et données"... oui et il faut pouvoir imbriquer plusieurs "savoir" pour arriver à la pensée. C’est là où réside la subtilité. Et si nous voulons rajouter à cela "l’humanité", il faut insuffler un ou des "objectifs". Voilà la recette de l'IA totalement autonome et polyvalente :)
Si elle garantit qu'on connaisse le futur dans un univers déterministe, alors on finira par savoir de façon certaine si l'émeraude passera un moment de vert à bleu?
Je trouve l'affirmation à 14:32 que "la complétude de Solomonoff peut persister même pour une induction calculable pourvu que l'ensemble des théories considérée est récursivement énumérable" très surprenant, je croyais que Solomonoff avait prouvé que calculabilité et complétude étaient incompatible? C'était même dans ton livre. N'est-ce pas le cas de toute façon que les langages récursivement énumérable incluent strictement tout les langages calculable, vu qu'ils incluent les machine de Turing? Je serais très intéressé par une source détaillant les conditions pour la persistance de cette complétude, si ce n'est pas une erreur.
Trop bien !! J'espère que le programme qui génère notre univers est assez simple pour que les progrès en ML nous permettent d'approcher au mieux ses règles
C'est fou que tu sois capable de parler de contenu de niveau master 2+ (je pense que solomonoff était clairement un truc très spécialisé à l'X) et pourtant avoir autant d'audience ! Bravo :)
Ah alors ça ça me plait! Il faudra que j'aille revoir les autres vidéos pour les résultats intermédiaires, mais c'est vraiment un coup de maître ce théorème.
C'est tellement frustrant d'avoir le sentiment d'être en face d'une mine d'or d'information de qualité, s'obstinait à le regarder plusieurs fois (ma 2 ème lecture) et de n'y comprendre que dalle ! Comme dirai l'invité de Mrphi qui ressemble à Astier, je suis cognitivement clos au théorème de complétude de Solomonoff 😅. Sinon très bon travail comme toujours.
Merci Lê pour cette présentation de Solomonoff. Bien que foncièrement bayésien "puisque la formule marche (presque) toujours en induction", je reste perplexe sur son potentiel épistémologique universel... Exemple : selon Bayes il est hautement probable que le soleil brillera encore demain puisque chaque journée écoulée depuis quelques milliards d'années a conforté, et quasiment "prouvé", qu'il en sera ainsi demain et de plus en plus sûrement au fil des jours à venir. Pourtant les astrophysiciens nous affirment qu'il s'éteindra dans quelques milliards d'années, faute de carburant thermonucléaire. Il s'agit aussi d'une quasi-certitude étayée, ici, par la déduction. Taleb, considéré comme le meilleur essayiste du monde par beaucoup, fils spirituel du génial mathématicien Mandelbrot, nous explique aussi dans "Antifragile" que seul le temps valide ce qui marche, ce qui est une attitude très bayésienne. Nous devons donc nous méfier des innovations soi-disant révolutionnaires tant qu'elles n'ont pas été sélectionnées par un darwinisme technologique ou social. Mais Taleb a aussi démontré dans "Le hasard sauvage", "Le cygne noir", puis dans "Le risque silencieux" (ouvrage très mathématique téléchargeable gratuitement), que des événements rares mais extrêmes, balaient régulièrement nos certitudes, ce qui n'est ni gaussien, ni bayésien. Ces accidents imprévisibles créent les changements historiques majeurs : la météorite du Yucatan, la peste noire qui a tué 40% des européens, les éruptions volcaniques islandaises qui ont affamé notre pays et provoqué la Révolution française, la COVID, et le dérèglement climatique qui nous tuera bien plus vite que l'extinction de notre soleil... Il existe donc un véritable paradoxe entre les "certitudes bayésiennes et de Solomonoff", forts séduisantes à court terme, et la réalité de long terme. Par analogie, c'est comme comparer la physique de Newton à celle d'Einstein : les deux fonctionnent très bien, mais à des échelles différentes... Parfois je me demande si la formule de Bayes ne nous enferme pas dans un biais cognitif très sophistiqué. Ton éclairage mathématique et épistémologique est donc très bien venu, Lê. Merci encore.
Merci, je suis super excité par cette vidéo j'ai trop hâte ! Le rasoir d'Hockam je m'en souvenais avec ton livre donc j'ai pas été émerveillé à nouveau mais là j'ai vraiment hâte
J'ai pas tout compris de la démonstration j'ai compris à quel point le théorème est fort. Démontrer une épistémologie c'est ouf en vrai. Merci pour cet épisode ! Est-ce que dans un épisode suivant tu vas discuter d'à quel point c'est faisable en pratique, d'appliquer l'induction de Solomonoff ?
J'en suis à bac +5 spécialisé en mathématiques des donnés, ça fait 2 ans que je mange du Bayes et des proba et pourtant j'ai compris 1 dixième du contenu. Est ce que les autres commentaires font semblant ou alors sont ils tous des génies ?
Pose toi la question de ce que tu n'as pas compris. Ensuite exprime le. Si tu n'as toujours pas compris, écrit un commentaire. Et à ce moment là, tu comprendras peut être ou quelqu’un te l’expliquera.
J'ai bac +5 en maths-info, je n'ai fait qu'une lecture pour l'instant, et je n'ai pas compris grand chose non plus. Ça m'intéresse, donc je vais sans doute y passer du temps, mais ça me demandera sans doute des heures et pas mal de documentation.
(je réponds de façon générale, pour d'autre également). a) engagement dans l'apprentissage La compréhension est souvent mue par l'intérêt. J'ai compris durant ma thèse ce que signifiait qu'une matrice soit "diagonalisable" (ouais, j'ai pas fait prépa math, ni même un bac S). Je l'ai saisi parce que je faisais usage de l'AHP (analytical hierarchy process, en gros des comparaisons par pairs). C'est seulement depuis ce moment que je me suis intéressé aux mathématiques (ouais déjà pour un ingé c'est triste...). C'est ce que je trouve dégradant dans l'enseignement supérieur, dans ses pratiques actuelles. "Elles" ne m'étaient plus imposées, l'apprentissage n'était pas porté par une motivation extrinsèque et elles comportaient un intérêt personnel, une motivation intrinsèque bien identifiée. Des éléments à ne pas négliger pour la compréhension. b) Temps et mémoire Tu n'as qu'une heure de recul. Rien qu'après une phase de sommeil, ça devrait s'améliorer (ça s'appelle l'élagage synaptique). Je suis toujours en buté pour des causes de mémoire de travail limitée (il me faut du temps pour stocker un formalisme et ne plus dépasser ma charge cognitive à me demander "ça veut dire quoi cette partie de l'expression/ce symbole etc."). Tu peux progresser rien que par la mémorisation des formalismes employés. Mais même si la compréhension est partielle, elle te permet d'avancer. Identifie les points qui te bloques. Nomme les et avances par incrément _ accepte ton incompréhension. Ce n'est pas une tare de ne pas savoir, ni de ne pas comprendre. Remotive toi sur le chemin lorsque c'est long par l'identification de chaque nouvel élément appris. c) Perspective. Je n'ai pas de 'compréhension' du contenu de cette vidéo. Je réserve le terme de compréhension au chose que je peux réemployer (faire, réutiliser dans un contexte qui m'intéresse). J'ai pris connaissance et stimulé ma curiosité pour un domaine qui m'a longtemps complexé et rebuté. Mais il est peut-être possible d'avoir une 'acceptation' générale d'une connaissance (que je distingue de la compréhension), et avancer sur cette simple base. Pour moi, ce qui me semble pertinent à l'issue de cette présentation, c'est "Chez Solomonoff, comment produit-on les données ?" L’interrogation est-elle pertinente selon toi et pourquoi. Et peut-être ce questionnement pour toi qui a déjà compris le 1/10 de l'exposé et qui étudies le sujet à bac+5, aura une autre portée.
@@rudypatard5700 merci d'avoir pris le temps de donner une réponse aussi détaillé à un commentaire RUclips. Je comprends ce que tu dis mais ce qui m'intérpele surtout c'est à quel point ces vidéos sont à la fois vulgarisées au possible tout en gardant des notions beaucoup plus complèxes qu'elles n'ont l'air. Je trouve ça vraiment frustrant et je ne m'attend pas à avoir besoin d'autant d'effort intellectuel, étant donné que c'est un peu mon domaine, pour comprendre une vidéo censé s'adresse à (presque) tous.
bac +5 maths infos aussi et j'ai clairement du mal à suivre. Une vidéo comme celle-ci je sais que j'y reviendrai dans deux-trois jours, et je me referai toute la série une fois qu'elle sera terminée également pour éclairer certains points d'ombre
Après les bons vendeurs de voiture, les bons vendeurs de théorème, quelle introduction ^^ Si on m'avait vendu certaines connaissances ainsi je m'en serais rappelé à vie à ne pas en douter.
Maintenant que tu mets plus d'outro, tu peux mettre les crédits musicaux en description ou un truc du genre ? La première et la dernière sont vachement cools Merci pour ton travil ! :D
Alors là bravo !!! 👏 C'est la première fois que je ne comprends *ABSOLUMENT PAS UN MOT* à une vidéo !! Nada ! Zob ! Quedchi ! Walou ! 🤣🤣🤣 Par contre j'ai quand même bien rigolé !!! Surtout à deux moments : 1 - _"pour les matheux parmis vous"_ Ah bon parce que c'est censé être accessible si on n'a pas de doctorat en math 🤔🤣 2 - _"si ce que je vous dis ne vous parle pas ne vous inquiétez pas, c'est pas si important que ça"_ alors celle-là elle me rassure et c'est la seule que je vais retenir pour pouvoir dormir tranquille ce soir !!🤣🤣🤣 Lê t'as vraiment l'art de nous faire se sentir pour des sacrés nullos !🤣
@@Campanella2 J'en ai bien vu quelques unes beaucoup plus faciles à comprendre à mon avis, et celle ci j'ai compris dans les grandes lignes mais le formalisme, contrairement à d'autres vidéos de la série, n'est quand même pas accessible aux non matheux dont je fais partie.
"[...] alors que j'étais en train de me noyer dans de sombres lectures en épistémologie et en machine learning [...]" Hé mais... c'est moi ça ! J'ai bien envie de lire Solomonoff du coup, merci !
Bonjour @Science4All, Vu l’engouement de Lê, j’ai dû louper un truc, l'un d'entre vous pourrait-il donner un exemple concret utilisant ce théorème ? De mon point de vue (probablement naïf), j'ai l'impression qu'on peut résumer cela en disant : « Sous certaines conditions, plus on cherche, plus on se rapproche de la vérité (sans forcément l'atteindre). »
Y avait une vidéo où il expliquait qu'une connaissance n'était finalement rien de plus qu'une inférence. J'aimerai vraiment remettre la main dessus, si quelqu'un à la ref, parce que me fais exactement la même réflexion sur l'utilité pratique du truc.
@@Meric_N, exact : L'inférence bayésienne (ou mise à jour des crédences) consiste à évaluer une probabilité a-postiori à partir d'une probabilité a-priori corrigée par la vraisemblance des données observées. La probabilité ainsi obtenue peut à son tour servir d'un a-priori que l'on corrigera si de nouvelles données sont disponibles. En procédant ainsi de façon itérative, la probabilité des hypothèses convergera vers «la vérité».
Merci beaucoup pour cette vidéo. Même si je n'ai pas tout compris, je continu, ça viendra peut être à un moment. J'ai compris une chose : Solomonoff a réussi à démontrer qu'il existe une formule permettant de trouver n'importe quelle théorie, qui ne boucle pas à l'infinis et qui en plus fait peu d'erreur.
Lê, y a Étienne Klein qui m'a foutu le doute sur l'éternelle question de l'inférence vs la compréhension en demandant simplement : comment tu trouves le boson de higgs, une onde gravitationnelle, ou simplement les équations de la relativité avec une inférence, même en admettant pouvoir lui donner en entrée la totalité des données observées jusqu'alors ? Bah tu les trouves pas, pour la simple raison qu'elles se réfèrent à des choses qu'on n'aurait jamais observées si on ne les avait pas cherchées. Pour moi, la théorie de solomonof est ok, mais je me demande si elle a une quelconque utilité pratique étant donné qu'on n'est jamais dans les situations décrites à commencer par ce simple fait : on n'a accès qu'aux données qu'on cherche à obtenir, via les observations qu'on met sciemment en place dans ce but ! Par ailleurs, la théorie sous-entends qu'on soit capable d'utiliser chaque nouvelle observation pour ameliorer notre inférence, et j'aimerai qu'on me prouve formellement que ça soit, si ce n'est réalisable, ne serait-ce que possible.
Le boson de Higgs on l'a pas cherché, on la redécouvert par hasard expérimentalement 50 ans après qu'il a été théorisé. En fait on a même pas besoin de voir des evènements pour leur attribuer des probas et encore moins besoin de les voir une "quasi infinité" de fois (pour ce que ca veut dire...). C'est ça la force du bayésianisme: pouvoir faire de l'inférence sur des patterns génériques des données. Evidement on est jamais sur de rien mais on s'en fiche, on raisonne toujours sur des probabilités continues et puis de toute façon la nature a pas mal de pattern assez constant (ex tu vas rarement trouver de la pelouse rouge dehors donc si t'as une image totalement rouge, c'est probablement pas ton jardin). Comment on met à jour nos crédances ? C'est simple: tu regardes la vidéo sur les curseurs de Turing (l'histoire avec les dés). C'est super bien expliqué. De manière générale la méthode des curseurs de Turing est très efficace à chaque fois que tu observes des évènements dont le rapport de vraisemblance (selon une théorie T par ses alternatives) est constant. Et quand ça l'est pas, il faut estimer ce rapport au mieux. Par chance l'homme est "pas trop" nul pour estimer des rapports de vraisemblance.
Salut la vidéo est super intéressante, je ne savais pas qu'une telle théorie existait c'est vraiment incroyable et beau. J'ai une question, si j'ai bien compris l'induction de Solomonoff est inutilisable en pratique car elle demanderait trop de puissance de calcul, mais à partir de quelle taille d'univers est elle inutilisable ? Existe t-il une manière de calculer celle-ci ? Comme elle est inutilisable en pratique il faudrait donc dériver des approximations de celle-ci , ou alors faudrait t-il mélanger notre intuition de l'induction avec cette dernière ?
Faudrait voir la démo de Solomonoff sur le théorème d'incomplétude mais il a probablement montré qu'il fallait calculer et stocker les lois a posteriori de toutes les théories possibles peu importe leur longueur (déjà là il y en a une infinité). Concrètement des tentatives ont été faites pour implémenter AIXI (cf vidéo de S4A dessus) pour des environements simples mais les avancées actuelles de reinforcement learning sont en fait bien plus fortes (sans utiliser l'induction de Solomonoff). lDe ce constat, je pense (disons que je suis sur à 97%) que toutes tentatives d'approcher l'induction de Solomonoff aboutirait à un échec (du moins pendant longtemps). Même avec l'avènement du calcul quantique je reste sceptique, les techniques alternatives pourraient beneficier également du "boost" de calcul. Ca n'empêche pas que c'est un résultat intéressant qui montre finalement la prépondérance du cadre de Solomonoff sur celui de Bayésiannisme où la notion de calculabilité est absente
bonjour. Merci pour ce chouette épisode ! il me semble que c’est assez proche du cadre PAC-Bayes, non ? En PAC-Bayes, on se munit d’un prior arbitraire, comme ici, et on converge plus ou moins vite selon la valeur de la KL au prior, comme ici aussi. Plus globalement, je crois que les idées de Solomonov n’ont pas disparues et ont beaucoup diffusées dans la théorie statistique de l’apprentissage (ex: le SRM, le MDL, l’apprentissage sans regret), même s’il est (injustement) très rarement cité
ça y est, c'est avec cette vidéo que j'ai décidé de me plonger dans les probabilités. J'ai une question, j'ai 33ans, la dernière fois que je me suis plongé dans des math c'est en terminale S. Aurais tu des directions à me donner? Pour entrer dans les math sans me perdre et sans la directive scolaire. Pour toucher au plaisir, ressentir les équations organiquement, aller plus loin que la vulgarisation mais en pas trop d'années? Merci
Du coup, si j'ai tout bien suivi, cette vidéo est en soit une alternative à la p-value parce-qu'elle montre qu'avec des rapports de vraisemblance on finira toujours pas tomber sur la bonne hypothèse avec un nombre infini de données, alors qu'avec une p-value on rejettera indéfiniment l'hypothèse à ne pas rejeter ?
C'est frustrant de ne pas être capable de suivre la démonstration car ça contraint à accepter les conclusion sans pouvoir les discuter. Mais bon quand on y réfléchit, c'est le cas de la plupart des sujets en science. Il faut bien faire confiance à la communauté scientifique sur la rigueur d'une démonstration et accepter ce qui en découle. Et je te remercie grandement de nous partager les conclusions de ces découvertes mathématiques que tu nous rend accessible ! (pour les démonstrations je pense que ça s'adresse à un public plus qu'averti :S)
@Science4All Il ne manquerait pas un argument vers 8'30 ? Le curseur de Turing tel que tu l'avais présenté c'est pour quand on teste deux théories mutuellement exclusives, ce qui n'est plus le cas dans cette vidéo. Il aurait peut-être fallu expliquer pourquoi on a le droit de procéder de la même façon ici (même si je suis d'accord pour dire que c'est une application directe de la formule de Bayes). En tout cas merci pour la vidéo !
Je me pose exactement cette question. Et je n’ai pas compris pourquoi on peut mettre deux théories non mutuellement exclusive de part et d’autre de l’axe ?
Si on note I les a priori et D les nouvelles données, alors étant donné un modèle quelconque M, la formule de Bayes te donne P(M | DI) = P(M | I)P(D | MI)/P(D | I). Quand tu compares deux modèles M et M', les "odds" pour le modèle M par rapport à M' sont donc calculés par le quotient P(M | DI)/P(M' | DI) = ( P(M | I)/P(M' | I) )*( P(D | MI)/P(D | M'I) ). Ces calculs ne dépendent pas du fait que M et M' soient mutuellement exclusifs, et en passant au log (en base 2 pour suivre la convention de Lê), tu obtiens la version du curseur de Turing qui est celle utilisée dans cette vidéo pour la démonstration (enfin, si j'ai bien suivi). En espérant ne pas avoir raconté trop de bêtises.
Bon, je me désabonne et j’explique pourquoi : perso, je viens à la vulgarisation scientifique sur YT pour trouver du plaisir à satisfaire des petits bouts de curiosités, à aborder des questions étranges, curieuses, profondes, esthétiques, de la nature et des mathématiques (je suis surtout branché physique et math) et pour avoir l’impression d’avoir compris (tout en sachant que c’est faux) suffisamment clairement les intuitions et les idées élégantes derrière les équations, théorèmes, conjectures, des génies et autres publications scientifiques des professionnels (j’entends par là, les physiciens et mathématiciens) inaccessibles au néophyte. Ici, j’ai complètement l’effet inverse : je n’ai que l’impression d’être con (j’ai un master en informatique, que j’enseigne depuis maintenant 20 ans) et coupable de ne pas comprendre parce que je n’ai pas suivi l’entièreté des 45 autres épisodes préalables requis et que je n’arrive pas à capter les équations et les termes techniques balancés à du 10.000 trames par secondes. Les vidéos de Lè deviennent pour moi de plus en plus aussi incompréhensibles et peu pédagogiques que des cours de niveau Master (sans passer par le bachelier et donné par un vieux prof qui se parle à lui même en donnant son cours sans rien expliquer) mais juste moins complets (parce qu’on ne peut pas remplacer un programme complet de Master par quelques vidéos, forcément !) Ça m’énerve d’autant plus que je suis sûr que vulgariser les idées de Solomonoff est certainement une super bonne idée que peu de vulgarisateurs proposent ! Mais bon, là, je décroche... ou je raccroche, tout dépend comment on le comprend ! Et vice versa ! Bonne route à Lè ! Ciao a tutti !
Le défi de la vulgarisation, surtout sur un support aussi ouvert à tous qu'une vidéo RUclips, c'est qu'on doit vraiment parler à tout son public, pas dans le sens où il faut que tout le monde comprenne tout, mais dans le sens où il faut que tout le monde y trouve quelque chose. Si le public est très divers, il est normal que les vidéos aient des niveaux divers. C'est aussi un dilemme pour le créateur des vidéos, toujours déchiré entre la volonté de transmettre son émerveillement de façon aussi élémentaire que possible, et celle de vouloir l'expliquer de façon précise, ce qui demande souvent un peu de technique. Je connais bien ce dilemme, il me saisit à chaque fois que je fais une vidéo, et je ne pense pas qu'il y ait de solution miracle, si ce n'est de compter sur l'indulgence du spectateur lorsque le niveau n'est pas tout à fait adapté.
@@antoinebrgt el jj à pu expliquer plutôt clairement de (entre autre) l'hypothèse de rieman et le paradoxe de banach tarski, navier stokes Donc le problème c'est pas la difficulté de ce qu'il parles mais de comment il l'explique
Holy shit. C'est stupéfiant ce théorème. Je ne vois pas ce qu'on pourrait demander de plus à une théorie. Par contre, il va falloir que je choppe des bases pour la démo. J'ai pas vu la vidéo sur le curseur de turing encore.
Mais, j'ai l'impression que ça part du postulat que les théories fonctionnent, pour ensuite dire qu'elles fonctionnent... Pareillement, ça postule un univers rationnel/calculable, avant même d’espérer prouver quoi que ce soit sur l'induction...
Pour mesurer l'erreur de prédiction, est-ce qu'il existe des fonctions qui ne mesurent ou évoluent de manière très "bizarre" ? Y'a-t-il une bonne mesure de l'erreur de prédiction ?
yes un truc très utilisé pour la prédiction bit à bit : (où p est la proba d'avoir prédit 1) err = -log(1-p), si le bit s'avère être en fait 0 -log(p), si le bit s'avère être en fait 1 --> cf BinaryCrossEntropy L'idée est que c'est en fait l'opposé du log du max de vraissemblance si tu considère que ton modèle prédit ton prochain bit selon une loi de Bernoulli de paramètre p (p qui dépend des données précédentes et de tes crédances a posteriori ici) Si tu veux un truc bizarre tu peux considérer : 1 si tu as prédit correctement 1e5 bit consécutifs 0 sinon. Là en effet tu vas avoir que des 0 au début mais d'après le théorème de complétude, il arrivera un moment à partir duquel tu aura des séries de 1 avec une proba arbitrairement proche de 1
La question que je me pose c'est est-ce que ce que le bayésianisme dit c'est que pour ne pas se tromper il est plus effiacce de confronter un programme à des entrées (ou un théorème à des exemples) jusqu'à être suffisamment confiant plutôt que de chercher à étudier le dit programme (ou théorème) pour essayer de trouver un moyen d'être sûr qu'il fait ce pour quoi il est conçu (ou énoncé) ?
Je trouve l'affirmation à 14:32 que "la complétude de Solomonoff peut persister même pour une induction calculable pourvu que l'ensemble des théories considérée est récursivement énumérable" très surprenant, je croyais que Solomonoff avait prouvé que calculabilité et complétude étaient incompatible? C'était même dans ton livre. N'est-ce pas le cas de toute façon que les langages récursivement énumérable incluent strictement tout les langages calculable, vu qu'ils incluent les machine de Turing? Je serais très intéressé par une source détaillant les conditions pour la persistance de cette complétude, si ce n'est pas une erreur.
L'existence ou la non existence est la donnée la plus simple. Si l'information est réductible à un ensemble de plusieurs fois cette question simple, comme en informatique ou en physique déterministe/corpusculaire, ce qui peut être appliqué à l'Univers entier (le nombre de particules élémentaires dans l'Univers entier est fini et à peu près connu) alors ce sont bien des données que l'on peut traiter en théorie de l'information. Ce qui revient à la reponse de @dexter9313. J'ai bon ?
@@bolinocroustibat J'ai peu de temps pour en disserter, alors j'ouvrirais d'abord l'apparente simplicité de l'existence. Existence ou non existence de quoi, où, quand ? Je crois qu'une "donnée" reste une réduction d'une fraction de la réalité. Et toute réduction d'information implique du jugement, jugement qui je crois réclame plus que du calcul (même s'il en implique beaucoup il me semble).
@@dexter9313 Il y a je crois une confusion fréquente entre quantité d'information et nature de l'information. La question de la réductibilité doit se joindre à celle de la nature de la réduction. Cette réduction n'est il me semble pas exempte de jugement. Il n'y a pas je crois de "réductibilité naturelle" de l'information. C'est une question intéressante que cette "longueur" de la chaîne de bits. Si vous êtes des fans, vous ne pouvez être passé à côté du paradoxe de Lewis Carroll, or si vous vouliez couper ou suspendre un tel paradoxe, juger que "là c'est bon on peut se taire" comme Wittgenstein l'invite etc. La Guillotine de Hume vous inviterait à ne pas déduire ce qui doit être de ce qui est. Pour autant que vous jugiez l'information réductible, vous ne pourriez le faire en vous contentant de l'intérieur du gros livre de Wittgenstein... Évidement, je souffre peut-être d'un Dunning-Kruger et mon syndrome de l'imposteur me titille assez souvent. Mais il me semble être assez confient sur ce point de saillance des données pour me risquer à la parole et peut-être avoir la chance d'être contredit d'une manière qui déplace mon curseur de Turing sur la question. ;-)
Pédagogie hypergeniale d'un géant rempli d'humour et d'humilité. Cela donne à espérer pour le genre humain. "un Dr en chimie organique béotien en maths.
un truc que j'ai probablement pas compris: si on en crois la théorie de Solomonoff alors on peut déterminer quel est la suite logique de tout algorithme même aléatoire. Donc on pourrait théoriquement déterminer n'importe quel théorème avec ça? Même des théorèmes vrai et indémontrable cf Théorèmes d'incomplétude de Gödel? Il y a surement un des 2 théorèmes que j'ai pas compris, voir les deux. Mais ça me chiffonne^^
Il faut ajouter à ça que c’est pas possible de véritablement faire de l’induction de Solomonoff parce que la complexité de Kolmogorov c’est également incalculable.
Bon moi je comprend rien depuis une vingtaine d'épisode mais je continue à regarder xD ta série sur la démocratie était quand même des milliards de fois plus accessible. Autant faire des preuves mathématiques ça me dérange pas, autant ça serait bien de revenir à du réel et du concret régulièrement...
@@ApiolJoe C'est une question philosophique ou pédagogique? Philosophiquement oui, les probabilités c'est plus ou moins le meilleur moyen qu'on à de décrire le réel. Pédagogiquement parlant non par contre ça parle pas du tout de donner des tonnes de proba. L'esprit humain est juste naze pour ce qui est de comprendre intuitivement les probabilités, et si c'est important de s'améliorer ça reste quand même utile d'utiliser des méthodes pédagogiques plus intuitives Comment je peux m'améliorer dans ma compréhension des probabilités si je suis tellement perdu que j'ai aucun point de repère? Il faut un ancrage dans ma compréhension de la réalité pour réussir à y intégrer des données nouvelles.
Bon je vais pas prétendre avoir compris le reste, mais j'ai une question sur ce point: A priori on a montré que la somme des déplacements du curseur était borné. Mais en quoi ça montre qu'après un certain temps on ne fera plus d'erreur ? Une somme infinie qui donne un résultat fini c'est assez commun... Du coup il me manque une étape ?
Il me semble que curseur ne se déplace qu'avec des pas entiers, il ne peut donc y avoir une infinité d'erreur. (Une somme infinie d'entiers positifs n'est pas bornée) Enfin je dis ça mais je ne prétends pas 100% maitriser le sujet, je peux parfaitement raconter nimp.
Alors j'ai pas non plus compris grand chose mais sur ce point, vu que les termes dans la somme infinie sont tous positifs (KL >= 0, donc en espérance tous les déplacements sont vers la droite), et que la somme infinie est bornée, on a bien montré que les termes dans cette somme tendent vers 0 quand le nombre de paris tend vers + l'infini. Donc l'erreur sur les paris tend vers 0 quand le nombre de paris tend vers + l'infini. C'est ce que j'ai compris en tout cas ;)
Quelqu'un peut m'expliquer concrètement pourquoi la théorie "T* ou non-T*" correspond à l'induction de Solomonoff ? J'arrive à peu près à suivre le reste, mais je ne comprends vraiment pas ce point
Nous n'avons rien à redire sur la Consistance des propos de Lê. Seulement notre Alerte Habituelle concernant le Bayésianisme : Cette Outil Philosophique, Logique et Méthodologique, ne doit pris QUE pour ce qu'il est : - UN MOYEN DE DÉCOUVRIR OU DE VÉRIFIER LES TENDANCES LES PLUS FORTES DE LA RÉALITÉ, mais ça n'est EN RIEN, de notre de point de vue, une "Panacée Universelle". En effet, le Bayésianisme est par exemple, me semble-t-il : - COMPLÈTEMENT INAPPROPRIÉ POUR L'ÉTUDE PAR EXEMPLE DES "CAS LIMITES" Lesquelles sont pourtant des : - SOURCES DE DÉVELOPPEMENT DES CONNAISSANCES NON NÉGLIGEABLES. Ce que nous voulons dire c'est que par exemple du point de vue de la Cybernétique, une I.A. qui ne fonctionnerait que sur la base de cette Philosophie, serait selon nous : - TOTALEMENT INCAPABLE DE GÉNÉRER DE VÉRITABLES CONNAISSANCES NOUVELLES ORIGINALES, "RÉVOLUTIONNAIRES", - SEULEMENT DE CONFIRMER LES THÉORIES EXISTANTES. Sinon, toujours des Super Vidéos, Claires, Dynamiques et Au Top question Rigueur Épistémologique justement :) 🤗🤗🤗
J'ai un problème de connexion et je n'ai plus de son. Je parlerais donc du tout début de la vidéo, où tout est écrit. Il est certainement très intéressant de savoir comment les gens obtiennent des résultats. Mais c'est beaucoup moins intéressant que les résultats. Savoir comment on a trouvé la vaccination protège moins que la vaccination.
Tu pourrais nous donner un exemple concret de l'application de la formule de Bayes et du Bayesianisme (pas sûr de l'orthographe) en général ? Avec une vraie théorie T, de vrais données D etc ... Sa permettrait de bien comprendre, parce que là j'ai trop l'impression que cest plus de la philo que des maths.. Je veux dire sa a presque l'air utopique et pas vraiment applicable sur la réalité comme truc..
En fait toute cette serie repond a la question : pourquoi le Bayesiannisme est en train de remplacer le frequentisme en science? Parce que c'est quelque chose que l'on voit depuis un certain temps : de moins en moins de P value et de plus en plus d'annalyse bayesienne. Donc oui, c'est des mathematiques a imlication philosophique car ils affectent directement l'epistemologie, la branche de la philo qui definit les sciences, car non, la philo c'est pas juste des truc abstrait sans application concrete, la science etant justement une application philosophique
@@gp6763 Je serais pas aussi catégorique. Les deux approches sont complémentaires. Certaines démonstrations scientifiques sont plus simple avec l'un ou l’autre. Par contre, il est effectivement temps de considérer l’approche Bayesienne comme solide.
La découverte d'une bonne moral à implementer dans les IA semble impossibe vu les conclusions du gros livre de Wittgenstein. Les IA sont un bon exemple d'acquisition de savoir à partir de probabilitées de données et de puissances de calculs. Aussi puissante et bien conçu soit-elle, il semblerait que la recherche d'une bonne moral soit vaine. Nous devrions chercher à mieux nous entendre en remanient notre language. Formaliser notre language mathématiquement afin de parler de moral est-il possible ?
Plusieurs remarques : - aucune preuve sur l'existence de T* : on part du principe que T* existe ce qui n'est absoluement pas garanti ! Il s'agit ici d'un ACTE DE FOI - en admettant que T* existe, il n'est pas possible de savoir quand on atteint T*, du coup il est possible de la passer, et de s'apercevoir après coup que l'on a passé T*.... difficile pour la gestion d'événement unique - la méthodologie ne permet pas de gérer les événements uniques : Betrand Russel prend l'exemple du coq qui jour après jour fait confiance au fermier qui lui donne à manger sans le considérer comme dangereux, pourtant un jour il fini dans la marmite; l'argument du brassage de donnée n'est valable que si le coq peut traiter la donnée or, ce n'est pas le cas car elle ne lui est pas accessible...
Donc, en gros, on utilise en permanence, et de tout temps, des données (des mesures) , des probabilités (les variations de ces mesures) et des calculs (les rapports des variations entre elles); les mathématiques et sa logique ont été élaborées à partir de ça (les maths énoncent des lois inspirées de la nature, de notre environnement qui nous a permis de manipuler les éléments en les formalisant). Qu'est-ce que nous apprend la vidéo? que les mathématiques utilisent bien des données, des probabilités et des calculs... ben on n'est pas vraiment plus avancés... Et vu que la physique s'appuit sur les mathématiques, elle n'est pas près d'évoluer, si le problème est décrit de la sorte en tout cas. Mais soit, suivant ce raisonnement, il faut croire que la théorie du tout ne puisse pas s'appuyer sur l'un des ses piliers, par exemple les données? non, mais les variations oui: on peut imaginer que si l'on zoome infiniment sur une particule (ou au plus près), les résultats (les données) ne soient ni infinis, ni aléatoires, ni indéfinis, ni nuls mais se stabilisent en des données fixes, celles-ci ne nécessitant pas de calculs mais des règles, certes transcriptibles dès que l'on s'éloigne un temps soit peu de la particule. Ce n'est seulement qu'à un niveau mascroscopique que les intéractions entre particules donnent des résultats complexes et probabilistes. Bref, il y a encore un étage en dessous de la description par kolmogoroff, encore trop complexe (calculs des rapports de variations de mesures). Après tout il n'a fait que redécouvrir comment les mathématiques et sa logique ont été élaborées au fil de son histoire, tout comme je stipule que la prochaine théorie physique sera "au sens de moijdik" ou ne sera pas, c'est à dire qu'elle devra uniquement se faire à l'aide de données et de règles!
ça dessert vraiment tout le propos de devoir se taper toutes les vidéos précédentes pour comprendre simplement du vocabulaire et que Univers, théorème, etc .... signifie ... ce n'est PAS de la vulgarisation suffisante .... et je trouve ça super dommageable ...
Perso, j'suis comme Einstein, je pense que dieu ne joue pas aux dés, donc pas aux probabilités, et que dès le départ en affirmant un univers stable/constant, où donc la proba d'exister ou de ne pas exister est la même, cela biaise complètement le problème par cet artifice et aboutit à une illusion de compréhension. On en arrive alors toujours au même problème récurrent que je constate depuis des décennies, des gens qui pensent qu'en accumulant les données, ils pourront "prédire" le futur. Et cela est très actuel, car le monde devient totalitaire pour cette raison, cette croyance de ceux qui nous dirigent appuyés par leurs "experts" en maths et bases de données. Il y a derrière tout ceci une détestation du "sens" au profit exclusif de la "forme".
Franchement, je ne suis absolument pas convaincu ! Ce n'est pas parce qu'une technique est efficace qu'elle est vraie. La vérité a un sens bien plus général que la notion de calculabilité ou , même, celle de probabilité. La vérité touche au problème de l'être, tandis que la question que pose Solomonoff considère le sens de ce qui est comme secondaire, pourvu que la méthode fonctionne ! Bref, c'est à mon gout accorder trop de valeur à la méthode, alors que la science se construit moins sur des méthodes que sur des questions. Les méthodes peuvent rendre triviales les questions, mais seulement qu'une fois qu'elles ont été posées. Or, poser une question relève moins de la fonction que de l'ontologie.
Bon... il va falloir revoir toutes les vidéos précédentes en prenant des notes parce que si j’ai vaguement compris la conclusion je n’ai rien compris à la démonstration. 😭 Merci pour ces vidéos.
Pour une introduction assez différente aux grandes idées de Solomonoff, je vous recommande aussi ces extraits de notre podcast Axiome, où j'explique en quoi l'induction de Solomonoff clarifie le paradoxe de Bertrand.
ruclips.net/video/c86BtYw21RM/видео.html
Bonus. Ça vous donne un exercice à la maison : en quoi la complétude de Solomonoff résout-elle aussi le paradoxe du grue ?
Le savoir serait seulement la combinaison de "probabilité, calcul et données"... oui et il faut pouvoir imbriquer plusieurs "savoir" pour arriver à la pensée. C’est là où réside la subtilité. Et si nous voulons rajouter à cela "l’humanité", il faut insuffler un ou des "objectifs".
Voilà la recette de l'IA totalement autonome et polyvalente :)
Enfin une possible fin à la théorie du tout en une seule ligne
Si elle garantit qu'on connaisse le futur dans un univers déterministe, alors on finira par savoir de façon certaine si l'émeraude passera un moment de vert à bleu?
Je trouve l'affirmation à 14:32 que "la complétude de Solomonoff peut persister même pour une induction calculable pourvu que l'ensemble des théories considérée est récursivement énumérable" très surprenant, je croyais que Solomonoff avait prouvé que calculabilité et complétude étaient incompatible? C'était même dans ton livre.
N'est-ce pas le cas de toute façon que les langages récursivement énumérable incluent strictement tout les langages calculable, vu qu'ils incluent les machine de Turing? Je serais très intéressé par une source détaillant les conditions pour la persistance de cette complétude, si ce n'est pas une erreur.
@@sladewilson4543 oui ça m'a aussi frappé
Trop bien !!
J'espère que le programme qui génère notre univers est assez simple pour que les progrès en ML nous permettent d'approcher au mieux ses règles
Ah enfin cet épisode ! Super, merci Lê et M. Solomonoff :D
Une des plus belles vidéo de cette année ...
Bravo.
C'est fou que tu sois capable de parler de contenu de niveau master 2+ (je pense que solomonoff était clairement un truc très spécialisé à l'X) et pourtant avoir autant d'audience ! Bravo :)
Ah alors ça ça me plait! Il faudra que j'aille revoir les autres vidéos pour les résultats intermédiaires, mais c'est vraiment un coup de maître ce théorème.
C'est tellement frustrant d'avoir le sentiment d'être en face d'une mine d'or d'information de qualité, s'obstinait à le regarder plusieurs fois (ma 2 ème lecture) et de n'y comprendre que dalle ! Comme dirai l'invité de Mrphi qui ressemble à Astier, je suis cognitivement clos au théorème de complétude de Solomonoff 😅. Sinon très bon travail comme toujours.
Merci Lê pour cette présentation de Solomonoff. Bien que foncièrement bayésien "puisque la formule marche (presque) toujours en induction", je reste perplexe sur son potentiel épistémologique universel... Exemple : selon Bayes il est hautement probable que le soleil brillera encore demain puisque chaque journée écoulée depuis quelques milliards d'années a conforté, et quasiment "prouvé", qu'il en sera ainsi demain et de plus en plus sûrement au fil des jours à venir. Pourtant les astrophysiciens nous affirment qu'il s'éteindra dans quelques milliards d'années, faute de carburant thermonucléaire. Il s'agit aussi d'une quasi-certitude étayée, ici, par la déduction.
Taleb, considéré comme le meilleur essayiste du monde par beaucoup, fils spirituel du génial mathématicien Mandelbrot, nous explique aussi dans "Antifragile" que seul le temps valide ce qui marche, ce qui est une attitude très bayésienne. Nous devons donc nous méfier des innovations soi-disant révolutionnaires tant qu'elles n'ont pas été sélectionnées par un darwinisme technologique ou social. Mais Taleb a aussi démontré dans "Le hasard sauvage", "Le cygne noir", puis dans "Le risque silencieux" (ouvrage très mathématique téléchargeable gratuitement), que des événements rares mais extrêmes, balaient régulièrement nos certitudes, ce qui n'est ni gaussien, ni bayésien. Ces accidents imprévisibles créent les changements historiques majeurs : la météorite du Yucatan, la peste noire qui a tué 40% des européens, les éruptions volcaniques islandaises qui ont affamé notre pays et provoqué la Révolution française, la COVID, et le dérèglement climatique qui nous tuera bien plus vite que l'extinction de notre soleil...
Il existe donc un véritable paradoxe entre les "certitudes bayésiennes et de Solomonoff", forts séduisantes à court terme, et la réalité de long terme. Par analogie, c'est comme comparer la physique de Newton à celle d'Einstein : les deux fonctionnent très bien, mais à des échelles différentes... Parfois je me demande si la formule de Bayes ne nous enferme pas dans un biais cognitif très sophistiqué. Ton éclairage mathématique et épistémologique est donc très bien venu, Lê. Merci encore.
Mec tu as un niveau de savoir et de maîtrise des sujets assez hallucinant !! GG
Si ça se trouve il raconte n'importe quoi, et tout le monde fait semblant d'avoir compris 😂
Merci, je suis super excité par cette vidéo j'ai trop hâte ! Le rasoir d'Hockam je m'en souvenais avec ton livre donc j'ai pas été émerveillé à nouveau mais là j'ai vraiment hâte
🙏 pour la passion ❤️🔥 et la pédagogie dont tu fais preuve en transmettant avec brio tout ces fragments de savoir !
Encore une fois 🙏 et 💪🧐
J'ai compris les 5 premieres minutes, c'est déjà pas mal Lol
J'avoue cet épisode n'est pas vraiment le plus accessible, hormis la conclusion.
J'ai pas tout compris de la démonstration j'ai compris à quel point le théorème est fort. Démontrer une épistémologie c'est ouf en vrai. Merci pour cet épisode !
Est-ce que dans un épisode suivant tu vas discuter d'à quel point c'est faisable en pratique, d'appliquer l'induction de Solomonoff ?
J'en suis à bac +5 spécialisé en mathématiques des donnés, ça fait 2 ans que je mange du Bayes et des proba et pourtant j'ai compris 1 dixième du contenu. Est ce que les autres commentaires font semblant ou alors sont ils tous des génies ?
Pose toi la question de ce que tu n'as pas compris. Ensuite exprime le. Si tu n'as toujours pas compris, écrit un commentaire. Et à ce moment là, tu comprendras peut être ou quelqu’un te l’expliquera.
J'ai bac +5 en maths-info, je n'ai fait qu'une lecture pour l'instant, et je n'ai pas compris grand chose non plus. Ça m'intéresse, donc je vais sans doute y passer du temps, mais ça me demandera sans doute des heures et pas mal de documentation.
(je réponds de façon générale, pour d'autre également).
a) engagement dans l'apprentissage
La compréhension est souvent mue par l'intérêt. J'ai compris durant ma thèse ce que signifiait qu'une matrice soit "diagonalisable" (ouais, j'ai pas fait prépa math, ni même un bac S). Je l'ai saisi parce que je faisais usage de l'AHP (analytical hierarchy process, en gros des comparaisons par pairs). C'est seulement depuis ce moment que je me suis intéressé aux mathématiques (ouais déjà pour un ingé c'est triste...). C'est ce que je trouve dégradant dans l'enseignement supérieur, dans ses pratiques actuelles.
"Elles" ne m'étaient plus imposées, l'apprentissage n'était pas porté par une motivation extrinsèque et elles comportaient un intérêt personnel, une motivation intrinsèque bien identifiée. Des éléments à ne pas négliger pour la compréhension.
b) Temps et mémoire
Tu n'as qu'une heure de recul. Rien qu'après une phase de sommeil, ça devrait s'améliorer (ça s'appelle l'élagage synaptique).
Je suis toujours en buté pour des causes de mémoire de travail limitée (il me faut du temps pour stocker un formalisme et ne plus dépasser ma charge cognitive à me demander "ça veut dire quoi cette partie de l'expression/ce symbole etc."). Tu peux progresser rien que par la mémorisation des formalismes employés. Mais même si la compréhension est partielle, elle te permet d'avancer.
Identifie les points qui te bloques. Nomme les et avances par incrément _ accepte ton incompréhension. Ce n'est pas une tare de ne pas savoir, ni de ne pas comprendre. Remotive toi sur le chemin lorsque c'est long par l'identification de chaque nouvel élément appris.
c) Perspective.
Je n'ai pas de 'compréhension' du contenu de cette vidéo. Je réserve le terme de compréhension au chose que je peux réemployer (faire, réutiliser dans un contexte qui m'intéresse). J'ai pris connaissance et stimulé ma curiosité pour un domaine qui m'a longtemps complexé et rebuté.
Mais il est peut-être possible d'avoir une 'acceptation' générale d'une connaissance (que je distingue de la compréhension), et avancer sur cette simple base.
Pour moi, ce qui me semble pertinent à l'issue de cette présentation, c'est "Chez Solomonoff, comment produit-on les données ?"
L’interrogation est-elle pertinente selon toi et pourquoi.
Et peut-être ce questionnement pour toi qui a déjà compris le 1/10 de l'exposé et qui étudies le sujet à bac+5, aura une autre portée.
@@rudypatard5700 merci d'avoir pris le temps de donner une réponse aussi détaillé à un commentaire RUclips. Je comprends ce que tu dis mais ce qui m'intérpele surtout c'est à quel point ces vidéos sont à la fois vulgarisées au possible tout en gardant des notions beaucoup plus complèxes qu'elles n'ont l'air. Je trouve ça vraiment frustrant et je ne m'attend pas à avoir besoin d'autant d'effort intellectuel, étant donné que c'est un peu mon domaine, pour comprendre une vidéo censé s'adresse à (presque) tous.
bac +5 maths infos aussi et j'ai clairement du mal à suivre. Une vidéo comme celle-ci je sais que j'y reviendrai dans deux-trois jours, et je me referai toute la série une fois qu'elle sera terminée également pour éclairer certains points d'ombre
Après les bons vendeurs de voiture, les bons vendeurs de théorème, quelle introduction ^^ Si on m'avait vendu certaines connaissances ainsi je m'en serais rappelé à vie à ne pas en douter.
Génialissime sujet. 1000 merci
Maintenant que tu mets plus d'outro, tu peux mettre les crédits musicaux en description ou un truc du genre ? La première et la dernière sont vachement cools
Merci pour ton travil ! :D
Alors là bravo !!! 👏
C'est la première fois que je ne comprends *ABSOLUMENT PAS UN MOT* à une vidéo !! Nada ! Zob ! Quedchi ! Walou ! 🤣🤣🤣
Par contre j'ai quand même bien rigolé !!! Surtout à deux moments :
1 - _"pour les matheux parmis vous"_ Ah bon parce que c'est censé être accessible si on n'a pas de doctorat en math 🤔🤣
2 - _"si ce que je vous dis ne vous parle pas ne vous inquiétez pas, c'est pas si important que ça"_ alors celle-là elle me rassure et c'est la seule que je vais retenir pour pouvoir dormir tranquille ce soir !!🤣🤣🤣
Lê t'as vraiment l'art de nous faire se sentir pour des sacrés nullos !🤣
Les épisodes de la série sont dans un ordre précis je te conseille de les regarder depuis le début dans l'ordre si vraiment tu comprends pas
Tu penses avoir compris toi ?
@@Campanella2 J'en ai bien vu quelques unes beaucoup plus faciles à comprendre à mon avis, et celle ci j'ai compris dans les grandes lignes mais le formalisme, contrairement à d'autres vidéos de la série, n'est quand même pas accessible aux non matheux dont je fais partie.
il a une tête sympathique ce Solomonov , qui donne envie de croire à son théorème : ne me fatiguez pas , je vous fais confiance !
"[...] alors que j'étais en train de me noyer dans de sombres lectures en épistémologie et en machine learning [...]"
Hé mais... c'est moi ça !
J'ai bien envie de lire Solomonoff du coup, merci !
Bonjour @Science4All,
Vu l’engouement de Lê, j’ai dû louper un truc, l'un d'entre vous pourrait-il donner un exemple concret utilisant ce théorème ?
De mon point de vue (probablement naïf), j'ai l'impression qu'on peut résumer cela en disant :
« Sous certaines conditions, plus on cherche, plus on se rapproche de la vérité (sans forcément l'atteindre). »
Y avait une vidéo où il expliquait qu'une connaissance n'était finalement rien de plus qu'une inférence. J'aimerai vraiment remettre la main dessus, si quelqu'un à la ref, parce que me fais exactement la même réflexion sur l'utilité pratique du truc.
@@Meric_N, exact : L'inférence bayésienne (ou mise à jour des crédences) consiste à évaluer une probabilité a-postiori à partir d'une probabilité a-priori corrigée par la vraisemblance des données observées. La probabilité ainsi obtenue peut à son tour servir d'un a-priori que l'on corrigera si de nouvelles données sont disponibles. En procédant ainsi de façon itérative, la probabilité des hypothèses convergera vers «la vérité».
Merci beaucoup pour cette vidéo. Même si je n'ai pas tout compris, je continu, ça viendra peut être à un moment. J'ai compris une chose : Solomonoff a réussi à démontrer qu'il existe une formule permettant de trouver n'importe quelle théorie, qui ne boucle pas à l'infinis et qui en plus fait peu d'erreur.
Lê, y a Étienne Klein qui m'a foutu le doute sur l'éternelle question de l'inférence vs la compréhension en demandant simplement : comment tu trouves le boson de higgs, une onde gravitationnelle, ou simplement les équations de la relativité avec une inférence, même en admettant pouvoir lui donner en entrée la totalité des données observées jusqu'alors ? Bah tu les trouves pas, pour la simple raison qu'elles se réfèrent à des choses qu'on n'aurait jamais observées si on ne les avait pas cherchées.
Pour moi, la théorie de solomonof est ok, mais je me demande si elle a une quelconque utilité pratique étant donné qu'on n'est jamais dans les situations décrites à commencer par ce simple fait : on n'a accès qu'aux données qu'on cherche à obtenir, via les observations qu'on met sciemment en place dans ce but !
Par ailleurs, la théorie sous-entends qu'on soit capable d'utiliser chaque nouvelle observation pour ameliorer notre inférence, et j'aimerai qu'on me prouve formellement que ça soit, si ce n'est réalisable, ne serait-ce que possible.
Le boson de Higgs on l'a pas cherché, on la redécouvert par hasard expérimentalement 50 ans après qu'il a été théorisé. En fait on a même pas besoin de voir des evènements pour leur attribuer des probas et encore moins besoin de les voir une "quasi infinité" de fois (pour ce que ca veut dire...). C'est ça la force du bayésianisme: pouvoir faire de l'inférence sur des patterns génériques des données. Evidement on est jamais sur de rien mais on s'en fiche, on raisonne toujours sur des probabilités continues et puis de toute façon la nature a pas mal de pattern assez constant (ex tu vas rarement trouver de la pelouse rouge dehors donc si t'as une image totalement rouge, c'est probablement pas ton jardin). Comment on met à jour nos crédances ? C'est simple: tu regardes la vidéo sur les curseurs de Turing (l'histoire avec les dés). C'est super bien expliqué. De manière générale la méthode des curseurs de Turing est très efficace à chaque fois que tu observes des évènements dont le rapport de vraisemblance (selon une théorie T par ses alternatives) est constant. Et quand ça l'est pas, il faut estimer ce rapport au mieux. Par chance l'homme est "pas trop" nul pour estimer des rapports de vraisemblance.
Si tu regardes la vidéo 3 fois de suite pour essayer de la comprendre Solomonoff il te sort par les yeux
hahaha il faut faire des pauses entre chaque visionnage en effet
Intéressant, merci !
Cette série de vidéo est passionnante !
Du coup, est-ce que cette induction est utilisable pour la construction d'une IA ? Est-ce déjà le cas ?
Salut la vidéo est super intéressante, je ne savais pas qu'une telle théorie existait c'est vraiment incroyable et beau. J'ai une question, si j'ai bien compris l'induction de Solomonoff est inutilisable en pratique car elle demanderait trop de puissance de calcul, mais à partir de quelle taille d'univers est elle inutilisable ? Existe t-il une manière de calculer celle-ci ?
Comme elle est inutilisable en pratique il faudrait donc dériver des approximations de celle-ci , ou alors faudrait t-il mélanger notre intuition de l'induction avec cette dernière ?
Faudrait voir la démo de Solomonoff sur le théorème d'incomplétude mais il a probablement montré qu'il fallait calculer et stocker les lois a posteriori de toutes les théories possibles peu importe leur longueur (déjà là il y en a une infinité). Concrètement des tentatives ont été faites pour implémenter AIXI (cf vidéo de S4A dessus) pour des environements simples mais les avancées actuelles de reinforcement learning sont en fait bien plus fortes (sans utiliser l'induction de Solomonoff). lDe ce constat, je pense (disons que je suis sur à 97%) que toutes tentatives d'approcher l'induction de Solomonoff aboutirait à un échec (du moins pendant longtemps). Même avec l'avènement du calcul quantique je reste sceptique, les techniques alternatives pourraient beneficier également du "boost" de calcul. Ca n'empêche pas que c'est un résultat intéressant qui montre finalement la prépondérance du cadre de Solomonoff sur celui de Bayésiannisme où la notion de calculabilité est absente
bonjour. Merci pour ce chouette épisode ! il me semble que c’est assez proche du cadre PAC-Bayes, non ? En PAC-Bayes, on se munit d’un prior arbitraire, comme ici, et on converge plus ou moins vite selon la valeur de la KL au prior, comme ici aussi. Plus globalement, je crois que les idées de Solomonov n’ont pas disparues et ont beaucoup diffusées dans la théorie statistique de l’apprentissage (ex: le SRM, le MDL, l’apprentissage sans regret), même s’il est (injustement) très rarement cité
ça y est, c'est avec cette vidéo que j'ai décidé de me plonger dans les probabilités.
J'ai une question, j'ai 33ans, la dernière fois que je me suis plongé dans des math c'est en terminale S.
Aurais tu des directions à me donner? Pour entrer dans les math sans me perdre et sans la directive scolaire. Pour toucher au plaisir, ressentir les équations organiquement, aller plus loin que la vulgarisation mais en pas trop d'années?
Merci
Du coup, si j'ai tout bien suivi, cette vidéo est en soit une alternative à la p-value parce-qu'elle montre qu'avec des rapports de vraisemblance on finira toujours pas tomber sur la bonne hypothèse avec un nombre infini de données, alors qu'avec une p-value on rejettera indéfiniment l'hypothèse à ne pas rejeter ?
C'est frustrant de ne pas être capable de suivre la démonstration car ça contraint à accepter les conclusion sans pouvoir les discuter. Mais bon quand on y réfléchit, c'est le cas de la plupart des sujets en science. Il faut bien faire confiance à la communauté scientifique sur la rigueur d'une démonstration et accepter ce qui en découle.
Et je te remercie grandement de nous partager les conclusions de ces découvertes mathématiques que tu nous rend accessible ! (pour les démonstrations je pense que ça s'adresse à un public plus qu'averti :S)
@Science4All Il ne manquerait pas un argument vers 8'30 ? Le curseur de Turing tel que tu l'avais présenté c'est pour quand on teste deux théories mutuellement exclusives, ce qui n'est plus le cas dans cette vidéo. Il aurait peut-être fallu expliquer pourquoi on a le droit de procéder de la même façon ici (même si je suis d'accord pour dire que c'est une application directe de la formule de Bayes).
En tout cas merci pour la vidéo !
Je me pose exactement cette question. Et je n’ai pas compris pourquoi on peut mettre deux théories non mutuellement exclusive de part et d’autre de l’axe ?
Si on note I les a priori et D les nouvelles données, alors étant donné un modèle quelconque M, la formule de Bayes te donne P(M | DI) = P(M | I)P(D | MI)/P(D | I). Quand tu compares deux modèles M et M', les "odds" pour le modèle M par rapport à M' sont donc calculés par le quotient
P(M | DI)/P(M' | DI) = ( P(M | I)/P(M' | I) )*( P(D | MI)/P(D | M'I) ).
Ces calculs ne dépendent pas du fait que M et M' soient mutuellement exclusifs, et en passant au log (en base 2 pour suivre la convention de Lê), tu obtiens la version du curseur de Turing qui est celle utilisée dans cette vidéo pour la démonstration (enfin, si j'ai bien suivi). En espérant ne pas avoir raconté trop de bêtises.
Bon, je me désabonne et j’explique pourquoi : perso, je viens à la vulgarisation scientifique sur YT pour trouver du plaisir à satisfaire des petits bouts de curiosités, à aborder des questions étranges, curieuses, profondes, esthétiques, de la nature et des mathématiques (je suis surtout branché physique et math) et pour avoir l’impression d’avoir compris (tout en sachant que c’est faux) suffisamment clairement les intuitions et les idées élégantes derrière les équations, théorèmes, conjectures, des génies et autres publications scientifiques des professionnels (j’entends par là, les physiciens et mathématiciens) inaccessibles au néophyte. Ici, j’ai complètement l’effet inverse : je n’ai que l’impression d’être con (j’ai un master en informatique, que j’enseigne depuis maintenant 20 ans) et coupable de ne pas comprendre parce que je n’ai pas suivi l’entièreté des 45 autres épisodes préalables requis et que je n’arrive pas à capter les équations et les termes techniques balancés à du 10.000 trames par secondes. Les vidéos de Lè deviennent pour moi de plus en plus aussi incompréhensibles et peu pédagogiques que des cours de niveau Master (sans passer par le bachelier et donné par un vieux prof qui se parle à lui même en donnant son cours sans rien expliquer) mais juste moins complets (parce qu’on ne peut pas remplacer un programme complet de Master par quelques vidéos, forcément !) Ça m’énerve d’autant plus que je suis sûr que vulgariser les idées de Solomonoff est certainement une super bonne idée que peu de vulgarisateurs proposent ! Mais bon, là, je décroche... ou je raccroche, tout dépend comment on le comprend ! Et vice versa ! Bonne route à Lè ! Ciao a tutti !
Le défi de la vulgarisation, surtout sur un support aussi ouvert à tous qu'une vidéo RUclips, c'est qu'on doit vraiment parler à tout son public, pas dans le sens où il faut que tout le monde comprenne tout, mais dans le sens où il faut que tout le monde y trouve quelque chose. Si le public est très divers, il est normal que les vidéos aient des niveaux divers. C'est aussi un dilemme pour le créateur des vidéos, toujours déchiré entre la volonté de transmettre son émerveillement de façon aussi élémentaire que possible, et celle de vouloir l'expliquer de façon précise, ce qui demande souvent un peu de technique. Je connais bien ce dilemme, il me saisit à chaque fois que je fais une vidéo, et je ne pense pas qu'il y ait de solution miracle, si ce n'est de compter sur l'indulgence du spectateur lorsque le niveau n'est pas tout à fait adapté.
@@antoinebrgt el jj à pu expliquer plutôt clairement de (entre autre) l'hypothèse de rieman et le paradoxe de banach tarski, navier stokes
Donc le problème c'est pas la difficulté de ce qu'il parles mais de comment il l'explique
L'argument décisif de Solomonoff ?! Pas besoin de regarder la Video pour la liker !
Holy shit. C'est stupéfiant ce théorème. Je ne vois pas ce qu'on pourrait demander de plus à une théorie.
Par contre, il va falloir que je choppe des bases pour la démo. J'ai pas vu la vidéo sur le curseur de turing encore.
J'ai pas compris pourquoi il ignore ln2/2... C'est pas un facteur limitant ?
excellent ! merci beaucoup
0:40 LAPLÂÂÂÂÂSSSSSSSSSSS
Mais, j'ai l'impression que ça part du postulat que les théories fonctionnent, pour ensuite dire qu'elles fonctionnent... Pareillement, ça postule un univers rationnel/calculable, avant même d’espérer prouver quoi que ce soit sur l'induction...
Pour mesurer l'erreur de prédiction, est-ce qu'il existe des fonctions qui ne mesurent ou évoluent de manière très "bizarre" ? Y'a-t-il une bonne mesure de l'erreur de prédiction ?
yes un truc très utilisé pour la prédiction bit à bit : (où p est la proba d'avoir prédit 1)
err = -log(1-p), si le bit s'avère être en fait 0
-log(p), si le bit s'avère être en fait 1
--> cf BinaryCrossEntropy
L'idée est que c'est en fait l'opposé du log du max de vraissemblance si tu considère que ton modèle prédit ton prochain bit selon une loi de Bernoulli de paramètre p (p qui dépend des données précédentes et de tes crédances a posteriori ici)
Si tu veux un truc bizarre tu peux considérer :
1 si tu as prédit correctement 1e5 bit consécutifs 0 sinon. Là en effet tu vas avoir que des 0 au début mais d'après le théorème de complétude, il arrivera un moment à partir duquel tu aura des séries de 1 avec une proba arbitrairement proche de 1
La question que je me pose c'est est-ce que ce que le bayésianisme dit c'est que pour ne pas se tromper il est plus effiacce de confronter un programme à des entrées (ou un théorème à des exemples) jusqu'à être suffisamment confiant plutôt que de chercher à étudier le dit programme (ou théorème) pour essayer de trouver un moyen d'être sûr qu'il fait ce pour quoi il est conçu (ou énoncé) ?
Je trouve l'affirmation à 14:32 que "la complétude de Solomonoff peut persister même pour une induction calculable pourvu que l'ensemble des théories considérée est récursivement énumérable" très surprenant, je croyais que Solomonoff avait prouvé que calculabilité et complétude étaient incompatible? C'était même dans ton livre.
N'est-ce pas le cas de toute façon que les langages récursivement énumérable incluent strictement tout les langages calculable, vu qu'ils incluent les machine de Turing? Je serais très intéressé par une source détaillant les conditions pour la persistance de cette complétude, si ce n'est pas une erreur.
hum, qu'est-ce qu'une donnée ? Ça me semble là le point de pertinence.
J'avoue, faudrait en traiter
C'est une information, quelle qu'en soit la forme, réductible à une chaîne de bits.
L'existence ou la non existence est la donnée la plus simple. Si l'information est réductible à un ensemble de plusieurs fois cette question simple, comme en informatique ou en physique déterministe/corpusculaire, ce qui peut être appliqué à l'Univers entier (le nombre de particules élémentaires dans l'Univers entier est fini et à peu près connu) alors ce sont bien des données que l'on peut traiter en théorie de l'information. Ce qui revient à la reponse de @dexter9313. J'ai bon ?
@@bolinocroustibat J'ai peu de temps pour en disserter, alors j'ouvrirais d'abord l'apparente simplicité de l'existence. Existence ou non existence de quoi, où, quand ? Je crois qu'une "donnée" reste une réduction d'une fraction de la réalité. Et toute réduction d'information implique du jugement, jugement qui je crois réclame plus que du calcul (même s'il en implique beaucoup il me semble).
@@dexter9313 Il y a je crois une confusion fréquente entre quantité d'information et nature de l'information. La question de la réductibilité doit se joindre à celle de la nature de la réduction. Cette réduction n'est il me semble pas exempte de jugement. Il n'y a pas je crois de "réductibilité naturelle" de l'information. C'est une question intéressante que cette "longueur" de la chaîne de bits. Si vous êtes des fans, vous ne pouvez être passé à côté du paradoxe de Lewis Carroll, or si vous vouliez couper ou suspendre un tel paradoxe, juger que "là c'est bon on peut se taire" comme Wittgenstein l'invite etc. La Guillotine de Hume vous inviterait à ne pas déduire ce qui doit être de ce qui est. Pour autant que vous jugiez l'information réductible, vous ne pourriez le faire en vous contentant de l'intérieur du gros livre de Wittgenstein...
Évidement, je souffre peut-être d'un Dunning-Kruger et mon syndrome de l'imposteur me titille assez souvent. Mais il me semble être assez confient sur ce point de saillance des données pour me risquer à la parole et peut-être avoir la chance d'être contredit d'une manière qui déplace mon curseur de Turing sur la question. ;-)
Pédagogie hypergeniale d'un géant rempli d'humour et d'humilité. Cela donne à espérer pour le genre humain. "un Dr en chimie organique béotien en maths.
Il me semble avoir compris qu'en gros cela justifie notre manière d'étudier l'univers ce qui est juste oufissime
Bon, ça y est, j'ai officiellement arrêté d'attendre les "la dernière fois" 🙁
Moi aussi... Lê si tu lis ce message ce serait trop cool que tu recommences à répondre aux commentaires en fin de vidéo !
un truc que j'ai probablement pas compris:
si on en crois la théorie de Solomonoff alors on peut déterminer quel est la suite logique de tout algorithme même aléatoire. Donc on pourrait théoriquement déterminer n'importe quel théorème avec ça? Même des théorèmes vrai et indémontrable cf Théorèmes d'incomplétude de Gödel?
Il y a surement un des 2 théorèmes que j'ai pas compris, voir les deux. Mais ça me chiffonne^^
La théorie de Solomonoff est valide dans un univers >>>calculable
Il faut ajouter à ça que c’est pas possible de véritablement faire de l’induction de Solomonoff parce que la complexité de Kolmogorov c’est également incalculable.
Bon moi je comprend rien depuis une vingtaine d'épisode mais je continue à regarder xD ta série sur la démocratie était quand même des milliards de fois plus accessible.
Autant faire des preuves mathématiques ça me dérange pas, autant ça serait bien de revenir à du réel et du concret régulièrement...
Tu penses que les probabilités ce n'est pas réel ou concret?
@@ApiolJoe C'est une question philosophique ou pédagogique?
Philosophiquement oui, les probabilités c'est plus ou moins le meilleur moyen qu'on à de décrire le réel.
Pédagogiquement parlant non par contre ça parle pas du tout de donner des tonnes de proba. L'esprit humain est juste naze pour ce qui est de comprendre intuitivement les probabilités, et si c'est important de s'améliorer ça reste quand même utile d'utiliser des méthodes pédagogiques plus intuitives
Comment je peux m'améliorer dans ma compréhension des probabilités si je suis tellement perdu que j'ai aucun point de repère? Il faut un ancrage dans ma compréhension de la réalité pour réussir à y intégrer des données nouvelles.
Bon je vais pas prétendre avoir compris le reste, mais j'ai une question sur ce point:
A priori on a montré que la somme des déplacements du curseur était borné. Mais en quoi ça montre qu'après un certain temps on ne fera plus d'erreur ? Une somme infinie qui donne un résultat fini c'est assez commun... Du coup il me manque une étape ?
Il me semble que curseur ne se déplace qu'avec des pas entiers, il ne peut donc y avoir une infinité d'erreur. (Une somme infinie d'entiers positifs n'est pas bornée)
Enfin je dis ça mais je ne prétends pas 100% maitriser le sujet, je peux parfaitement raconter nimp.
Alors j'ai pas non plus compris grand chose mais sur ce point, vu que les termes dans la somme infinie sont tous positifs (KL >= 0, donc en espérance tous les déplacements sont vers la droite), et que la somme infinie est bornée, on a bien montré que les termes dans cette somme tendent vers 0 quand le nombre de paris tend vers + l'infini. Donc l'erreur sur les paris tend vers 0 quand le nombre de paris tend vers + l'infini. C'est ce que j'ai compris en tout cas ;)
A quand une vidéo sur les nombres de Chaitin ? :) Qui remettent en cause les R
Bayes 29, 13:29 dans cette vidéo
@@Johalith Merci
stupéfiant et enthousiasmant !
Avec un teasing du niveau de l'introduction de cette vidéo, tu pourrais faire fortune en allant travailler à Hollywood Lê !
Pour simplifier une théorie doit plus qu'expliquer elle doit prédire. Ça marche !
Quelqu'un peut m'expliquer concrètement pourquoi la théorie "T* ou non-T*" correspond à l'induction de Solomonoff ? J'arrive à peu près à suivre le reste, mais je ne comprends vraiment pas ce point
Nous n'avons rien à redire sur la Consistance des propos de Lê. Seulement notre Alerte Habituelle concernant le Bayésianisme :
Cette Outil Philosophique, Logique et Méthodologique, ne doit pris QUE pour ce qu'il est :
- UN MOYEN DE DÉCOUVRIR OU DE VÉRIFIER LES TENDANCES LES PLUS FORTES DE LA RÉALITÉ, mais ça n'est EN RIEN, de notre de point de vue, une "Panacée Universelle".
En effet, le Bayésianisme est par exemple, me semble-t-il :
- COMPLÈTEMENT INAPPROPRIÉ POUR L'ÉTUDE PAR EXEMPLE DES "CAS LIMITES"
Lesquelles sont pourtant des :
- SOURCES DE DÉVELOPPEMENT DES CONNAISSANCES NON NÉGLIGEABLES.
Ce que nous voulons dire c'est que par exemple du point de vue de la Cybernétique, une I.A. qui ne fonctionnerait que sur la base de cette Philosophie, serait selon nous :
- TOTALEMENT INCAPABLE DE GÉNÉRER DE VÉRITABLES CONNAISSANCES NOUVELLES ORIGINALES, "RÉVOLUTIONNAIRES",
- SEULEMENT DE CONFIRMER LES THÉORIES EXISTANTES.
Sinon, toujours des Super Vidéos, Claires, Dynamiques et Au Top question Rigueur Épistémologique justement :) 🤗🤗🤗
J'ai un problème de connexion et je n'ai plus de son.
Je parlerais donc du tout début de la vidéo, où tout est écrit.
Il est certainement très intéressant de savoir comment les gens obtiennent des résultats.
Mais c'est beaucoup moins intéressant que les résultats.
Savoir comment on a trouvé la vaccination protège moins que la vaccination.
Ah, j'avais lu "Scholomoff"...
J'y vais du coup...
Je ne comprends pas tout mais j'adore!
Ça a l'air passionnant, mais je n'ai pas (encore) compris
Tu pourrais nous donner un exemple concret de l'application de la formule de Bayes et du Bayesianisme (pas sûr de l'orthographe) en général ? Avec une vraie théorie T, de vrais données D etc ... Sa permettrait de bien comprendre, parce que là j'ai trop l'impression que cest plus de la philo que des maths.. Je veux dire sa a presque l'air utopique et pas vraiment applicable sur la réalité comme truc..
Sur la chaîne de''hygiène mentale'' ou bien '' dimension Débat'' il me semble
Les épisodes 4, 5, 6, 12, 14, 15, 18, 21, 22, 23, 24, 25, 30, 31, 32 et 33 sont des cas d'applications concrètes.
En fait toute cette serie repond a la question : pourquoi le Bayesiannisme est en train de remplacer le frequentisme en science? Parce que c'est quelque chose que l'on voit depuis un certain temps : de moins en moins de P value et de plus en plus d'annalyse bayesienne.
Donc oui, c'est des mathematiques a imlication philosophique car ils affectent directement l'epistemologie, la branche de la philo qui definit les sciences, car non, la philo c'est pas juste des truc abstrait sans application concrete, la science etant justement une application philosophique
@@gp6763 Je serais pas aussi catégorique. Les deux approches sont complémentaires. Certaines démonstrations scientifiques sont plus simple avec l'un ou l’autre. Par contre, il est effectivement temps de considérer l’approche Bayesienne comme solide.
@@le_science4all on doit essayer de compléter la suite? :)
La découverte d'une bonne moral à implementer dans les IA semble impossibe vu les conclusions du gros livre de Wittgenstein. Les IA sont un bon exemple d'acquisition de savoir à partir de probabilitées de données et de puissances de calculs. Aussi puissante et bien conçu soit-elle, il semblerait que la recherche d'une bonne moral soit vaine. Nous devrions chercher à mieux nous entendre en remanient notre language. Formaliser notre language mathématiquement afin de parler de moral est-il possible ?
D'après ce que j'ai compris de cette vidéo, Solomonoff dirait que de toutes façons, la "morale" des IA est une question secondaire.
Plusieurs remarques :
- aucune preuve sur l'existence de T* : on part du principe que T* existe ce qui n'est absoluement pas garanti ! Il s'agit ici d'un ACTE DE FOI
- en admettant que T* existe, il n'est pas possible de savoir quand on atteint T*, du coup il est possible de la passer, et de s'apercevoir après coup que l'on a passé T*.... difficile pour la gestion d'événement unique
- la méthodologie ne permet pas de gérer les événements uniques : Betrand Russel prend l'exemple du coq qui jour après jour fait confiance au fermier qui lui donne à manger sans le considérer comme dangereux, pourtant un jour il fini dans la marmite; l'argument du brassage de donnée n'est valable que si le coq peut traiter la donnée or, ce n'est pas le cas car elle ne lui est pas accessible...
Quand les bas QI s'essayent à l'épistémologie.
Giants on top of giants
merci
Donc, en gros, on utilise en permanence, et de tout temps, des données (des mesures) , des probabilités (les variations de ces mesures) et des calculs (les rapports des variations entre elles); les mathématiques et sa logique ont été élaborées à partir de ça (les maths énoncent des lois inspirées de la nature, de notre environnement qui nous a permis de manipuler les éléments en les formalisant). Qu'est-ce que nous apprend la vidéo? que les mathématiques utilisent bien des données, des probabilités et des calculs... ben on n'est pas vraiment plus avancés...
Et vu que la physique s'appuit sur les mathématiques, elle n'est pas près d'évoluer, si le problème est décrit de la sorte en tout cas. Mais soit, suivant ce raisonnement, il faut croire que la théorie du tout ne puisse pas s'appuyer sur l'un des ses piliers, par exemple les données? non, mais les variations oui: on peut imaginer que si l'on zoome infiniment sur une particule (ou au plus près), les résultats (les données) ne soient ni infinis, ni aléatoires, ni indéfinis, ni nuls mais se stabilisent en des données fixes, celles-ci ne nécessitant pas de calculs mais des règles, certes transcriptibles dès que l'on s'éloigne un temps soit peu de la particule. Ce n'est seulement qu'à un niveau mascroscopique que les intéractions entre particules donnent des résultats complexes et probabilistes. Bref, il y a encore un étage en dessous de la description par kolmogoroff, encore trop complexe (calculs des rapports de variations de mesures). Après tout il n'a fait que redécouvrir comment les mathématiques et sa logique ont été élaborées au fil de son histoire, tout comme je stipule que la prochaine théorie physique sera "au sens de moijdik" ou ne sera pas, c'est à dire qu'elle devra uniquement se faire à l'aide de données et de règles!
J’ai tous compris
ça dessert vraiment tout le propos de devoir se taper toutes les vidéos précédentes pour comprendre simplement du vocabulaire et que Univers, théorème, etc .... signifie ... ce n'est PAS de la vulgarisation suffisante .... et je trouve ça super dommageable ...
Perso, j'suis comme Einstein, je pense que dieu ne joue pas aux dés, donc pas aux probabilités, et que dès le départ en affirmant un univers stable/constant, où donc la proba d'exister ou de ne pas exister est la même, cela biaise complètement le problème par cet artifice et aboutit à une illusion de compréhension. On en arrive alors toujours au même problème récurrent que je constate depuis des décennies, des gens qui pensent qu'en accumulant les données, ils pourront "prédire" le futur. Et cela est très actuel, car le monde devient totalitaire pour cette raison, cette croyance de ceux qui nous dirigent appuyés par leurs "experts" en maths et bases de données. Il y a derrière tout ceci une détestation du "sens" au profit exclusif de la "forme".
je pencherai plus pour le (néo-)capitalisme comme problème principal du monde actuel ;)
Calculs, probabilités données, pfffffffff, ça sert à quoi pour des trumpistes ou des complotistes ? A rien ?! Bhin alors ....
Franchement, je ne suis absolument pas convaincu ! Ce n'est pas parce qu'une technique est efficace qu'elle est vraie. La vérité a un sens bien plus général que la notion de calculabilité ou , même, celle de probabilité. La vérité touche au problème de l'être, tandis que la question que pose Solomonoff considère le sens de ce qui est comme secondaire, pourvu que la méthode fonctionne ! Bref, c'est à mon gout accorder trop de valeur à la méthode, alors que la science se construit moins sur des méthodes que sur des questions. Les méthodes peuvent rendre triviales les questions, mais seulement qu'une fois qu'elles ont été posées. Or, poser une question relève moins de la fonction que de l'ontologie.
j'ai rien compris XD
Bon... il va falloir revoir toutes les vidéos précédentes en prenant des notes parce que si j’ai vaguement compris la conclusion je n’ai rien compris à la démonstration. 😭 Merci pour ces vidéos.
prms
c'est pas faux !!!
Merci