Et bien moi, grace a ma souris a boule, je n’ai plus de poussière sur mon bureau ! [edit] : les 7 personnes qui ont liké ce poste.... c’est que vous avez compris la blague ! et que donc comme moi.... vous commencer a avoir pas mal de cheveux blancs !
moi : clique sur le lien du PC par curiosité le site : ce produit n'est pas disponible Je crois que l'offre devait être trop alléchante pour qu'en moins de 12h il ne reste plus rien😂
A toi, oui, toi, qui as cru quand tu as vu le titre, qu'il faisait une vidéo importante pour nous annoncer la fin de quelque chose, comme si il allait arrêter youtube. Tu n'es pas seul.
Tu aurais aussi pu parler de l'optimisation des usages des technologies actuelles. Il y a quelques années quand la mémoire était limitée par exemple, des prouesses de programmation étaient faites pour développer des logiciels. Nintendo par exemple sur ses consoles de l'époque comme la GameBoy devait développer des algos de compression maison pour réussir a mettre tout son contenu dans une disquette. Aujourd'hui dans le domaine des logiciels et des jeux vidéo, l'optimisation n'est plus au goût du jour et ça se ressent souvent (coucou Microsoft et coucou les AAA). Apprendre à faire avec ce que l'on a, j'ai l'impression que c'est quelque chose qui s'est perdu car on s'est enfermé dans la course à la puissance au détriment de la gestion de celle disponible. C'est aussi une occasion manquée de parler des low tech qui permet de développer un rapport différent à la technologie et qui nous montre que moins de puissance ce n'est pas un drame. Je trouve donc que ta vidéo manque un peu de nuance et véhicule un peu trop un message disant qu'on peut encore gagner en puissance donc il n'y a pas à s'en faire, plutôt que de se dire qu'on dispose déjà d'une puissance folle et qu'on est peut etre pas encore parvenu à l'exploiter totalement.
Exactement ! Il faut se rappeler que windows 2000 tournait sans problème sur 32Mo de RAM ! Et on avait nos mails, notre suite bureautique, on pouvait surfer sur le web, jouer... Ajd le moindre navigateur bouffe mini 1Go de RAM à lui tout seul...
C'est tout à fait vrai et ça ne date déjà pas d'hier. Personnellement j'ai appris à programmer sur de très vieilles machines (Alice 90, Laser 500, m'étonnerai que vous ayez déjà entendu parler de ces machins, puis plus tard sur Amstrad CPC) et en plus c'était en basic (puis assembleur). Clairement il fallait optimiser à fond pour espérer avoir un minimum de performances. Fin 90 début 2000 j'ai fait des études en informatique industrielle, on était sur PC, on apprenait à programmer en C/C++ et là j'ai été étonné de constater que le problème de l'optimisation n'était pas vraiment abordé.
Tu as raison. C'est très vieux le Raytracing. J'en faisais sur mon tout premier ordinateur (Un 486 DX2 66Mhz). Le logiciel s'appelait POV (Persisance of Vision). Il existe toujours ce soft d'ailleurs. On définissait notre scène en mode texte et ça fonctionnait sur des formes simple mais le résultat était bluffant. Pour peu qu'on ai le temps d'attendre des heures pour avoir 1 images en 640 488. Oui je sais je suis vieux ^^
salut, ah oui,, pov, jamais utilisé, j'ai commencé avec Rhinoceros, puis rapidement 3D studio max R3...et un peu Lightwave....content de pas etre arrivé trop vite dans le monde informatique, car que c'etait lent avant.....enfin, ca l'est tjrs...tout depend des machines et en meme temps qu'elles deviennent plus puissantes, tout demande tjrs plus de puissance :( avec mon i3 +8 giga de ram, j'ai des lenteurs internet si trop d'onglets ouverts et meme des fois, le cpu est utilisé à quasi maximum si le site est gourmand...alors que dans les années 2000, je pouvais surfer aussi avec un pauvre p3 666 mhz et 384 mo de ram !!! sur mon i3, je peux pas aller au dessus que le 1080p, sinon, la vidéo saccade.... sur mon i5 3775k, ca va aussi en 4k mais par contre pas en accéléré...mais bon, mon ecran est pas en kk alors :p 720p ou 1080p c bien assez. du coup, pour travailler plus vite, je vais me monter une config avec ryzen 5 3600x + 32 giga de ram (2 barrettes) + cg pourrie (que je changerais prochainement) c surtout pour la bureautique et pour pas mal de creations 3d, pas besoin de cg puissantes quand c'est juste pour monter le truc...apres je switcherais sur ma plus puissante cg (dépassée + ou -) 980 GTX....aussi pour l'encodage video, je pense que ca va etre bien plus fluide avec ma next config....et puis quand j'ai besoin d'ordi virtuels, les 32 giga vont etre géniaux ^^ mais finalement, c'est vrai que l'evolution est moins impressionnante qu'il y a 15 ans...aussi, sur les supports de stockage :année 1998-1999, c'etait un HDD de 2 go...2 giga quoi !! avec win98...ou 95, je sais plus !! et des graveurs 1x....et maintenant, truc de ouf quoi....sans compter le modem 56k et la facture de téléphone...ah làlà que de souvenirs, et bien content que cette technologie soit bien plus avancée now ^^
Pour moi l'un des gros problème au niveau de la course technologique reste l'obsolescence programmée. Certes, la limite physique est atteinte, mais on aurait pas cette tendance à avoir des Technologies qui semblent de moins en moins révolutionnaires par rapport au modèle précédent, s'il n'y avait pas cette obsolescence qui encourage à chaque fois à prendre le nouveau modèle plus rapidement.
Et tout la gâchis de ressources cramé la dedans c'est triste 😞 en comptant aussi la R et D et l'ingénierie pour la mise en place de cette niaiserie. Ah ! Ce sujet m'horripile ! Bonne journée à tous quand même 👍😊😁🌞🌞🌞💐
Je ne suis pas totalement d'accord dans le sens où l'obsolescence programmée est paincipalement une course à l'argent. Surtout quand parfois, on voit la différence très pauvre entre 2 modèles...
Une autre limite physique qui passe sous les radars est la pression sur l'extraction des minerais et la montagne de problèmes qui est déjà là et qui va continuer à grossir... Les travaux de SystExt et les interventions de Aurore Stephant sont un très bon point de départ sur le sujet :)
C'est un axe auquel j'ai pensé aussi, peut être pas une évolution majeure des performances mais une évolution dans la manière de conception afin de les rendre moins coûteux en matériaux
@@kollhran6584 le problème est qu'on aura toujours besoin de métaux pour faire des transistors. La vraie révolution viendrait d'un arrêt à la course à la performance physique et un meilleur travail d'optimisation. Quand on voit que des dev arrivent à faire tourner god of war Ragnarok sur PS4, on peut se dire que l'optimisation a quand même du bon (même si oui c'est plus facile sur console que sur pc...)
@@hugobogos oui il y aura toujours besoin de matériaux c'est certain, l'optimisation des ressources va devenir/est déjà une nécessité ! Ce que je veux dire c'est avoir les même performances qu'aujourd'hui avec moins de composants/matériaux ! Ça passe par des avancés technologiques forcément parce que si on en utilise autant aujourd'hui c'est qu'on ne sait pas encore faire autrement !
Une des limites Physique, ( je vais faire très simple ) c'est que si on approche trop d'une taille très petite et bien l'isolation entre chaque transistor n'est plus assuré, du coup le courant serais capable de passé d'un transistor a l'autre, alors on peut réduire le voltage pour diminuer les chances que les courant passe d'un transistor a l'autre mes ce n'est pas sans compromis, au final il y aura un moment ou ce sera physiquement plus possible de réduire plus
Alors tout de même attention à ne pas se faire avoir par le marketing du nanometre. Les techno réelles sont plus grosses, c'est du "equivalent" 7 nano, pas du 7 nano. On passe actuellement aux technologies en 3d
vous avez bien avalé le marketing des marques apparemment :D la limite physique de conductions entre 2 atomes est encore trèèèèèèèèès loin de traverser 2 transistors... vous vous contentez de répéter ce que vous avez lu sur clubic ou numerama je suppose nous savons, qu'en laboratoire, avec des transistors 3d actuels(ca évolue tout le temps), nous pouvons descendre à une gravure des pistes électriques jusqu'a 0.3 Nm, loin des 7 Nm que l'industrie du grand publique propose
@Mike Datpseudo je suis ingénieur en microelectronique. 0.3 nm c'est 2 atomes de silicium environ, on ne peut pas avoir une grille de longueur 2 atomes, déjà à partir de qqs centaines l'électromigration devient problématique... La "finesse de gravure" des transistors 3D ne correspond plus à une vraie grandeur physique et n'est pas uniforme selon les constructeurs. Historiquement c'était la longueur de la grille du transistor, mais au vu du fait que cette valeur a été utilisée pour du marketing et que tout le monde se base là dessus, il n'y avait pas de moyen de marketer les bénéfices des technologies 3d, donc les marques on commencé à vendre une "densité équivalente à celle qu'on aurait eu si la finesse avait été 7nm" comme "technologie 7nm"
Après on peut toujours changer de technologie (diamant, photonique, plasmonique, organique, spintronique, magnonique...) mais c'est vrai qu'en s'approchant des limites thermodynamique et du quantique, à moins de posséder du matériel lourd maintenant la cohérence des particules avec des froids extrême, on va difficilement faire mieux. Et si maintenant on essayait d'augmenter le ratio {performance}/{énergie consommée}?
L'innovation et le progrès sont constant et inarrêtable. De jour en jour, on apprend, retient, refait. Mieux. Et puis il y a toujours une idée révolutionnaire qui rentre en jeu. Hâte de revoir cette vidéo dans 10 ans ;)
Tout à fait d'accord ont est plus proche de la fin que du début. Et effectivement cela ferais beaucoup de bien sûr pas mal de point je pense. Seul l'avenir nous le dira.
L'un des problèmes majeur reste l'effet tunnel, on commence déjà à voir la limite des transistors et autres composants miniatures de ce côté, simplement car à cette échelle, l'effet tunnel rend les isolants pas si isolant que ça (résumé grossièrement hein..), donc même si demain on inventait des transistors un peu plus petit, on se heurterait à un autre problème de taille.
Les améliorations dans le future devrais plus se concentresur l'autonomie et la luminosité des téléphones et la baisse des températures/consomation/bruit des pc. Sa serrais plus utile que de chercher à faire des écrans 800fps en 8k. Même s'il est vrais que toujours plus de puissance peut êtres utiles pour les industries d'animations 3d ou autres
Léo as-tu entendu parler de l'utilisation de diamants de synthèse ppour la fabrication de transistors ? Cela apparaîtra d'ici 10 ans et je te rassure on est plus loin des limites physiques que ce que tu penses
Récemment, j'ai due changer mon PC.. Mon ancien PC est un vieux modèle auquel j'ai mis une GTX 970. L'ordinateur en elle-même faisait largement le taff, je pouvais jouer à Minecraft, Fortnite, JC3 et j'en passe... Cependant, due au mise à jours de Windows, l'ordinateur commencait à être lent.. très lent... Trois heure pour pouvoir mettre son mot de passe pour réattendre 3 heure.. (Fun Fact : J'ai due allumer mon PC la veille au soir pour faire des optimisations dessus xD ) J'ai donc commencé à rechercher un autre modèle de PC pour pouvoir faire la même chose (mettre une CG dedans et y jouer) mais je voulais avoir une bonne puissance pas trop chère et un modèle pas vieux sinon même problème dans 3 ans. Je me suis penché sur les ordinateurs customs et là jackpot ! Avec les bon sites, j'ai pue économisé 400 euros des premiers prix pour ordinateur déjà monté. J'ai trouvé une boite, une alimentation, une carte mère, un processeur, de la RAM... Bref tout ce qu'il faut pour un ordinateur ! Voici la config que j'ai réussi à me dégoté pour 800 euros (hors frais de livraisons de 50 boules -_- ) : -boitier : Antec VSK-4000B - USB 3.0 Edition -alimentation : Corsair CX650F RGB - Bronze - Noir -RAM : G.Skill Aegis DDR4 2 x 8 Go 3200 MHz CAS 16 -carte mère : ASUS TUF GAMING Z590-PLUS WiFi -processeur : Intel core i7-11700k -carte graphique : Nvidia Geforce GTX 970 (il me semble que c'est de Evga) La carte mère et processeur est un pack commandé chez CSL-computer (galère à commander mais rentable, je vous conseille de passer par Amazon lors du payement). Pour le boitier, l'alimentation et la RAM, je les ait commandé chez materiel.net (qui m'a aidé à trouvé la config idéal dans mon cas, je recommande ! #jenefaispasdeplacementdeproduit). Les choses à faire de mon expérience : -privilégié les packs carte mère/processeur pour un meilleur prix (prix économisé estimé de 150 euros) -vérifier la compatibilité entre carte mère et RAM (j'ai failli faire l'erreur, donc de perdre 60 euros) La carte mère que j'ai choisie ne supportait pas la RAM que je voulais réutiliser de mon ancien ordinateur ! -avoir un avis extérieur (une personne qui s'y connait, de votre entourage ou d'une PETITE entreprise, pas de forum, c'est pourris, ce ne sont pas des experts/amateurs confirmés). -prévoir de la pâte thermique (que je n'ai pas encore acheté 😅 et savoir la mettre) -si on a une carte graphique performante, la garder ! Donc mon cas, j'ai une GTX 970 qui me suffit largement et qui n'est pas en déséquilibre avec le reste de la config ! -vérifier si les ventilateur pour le processeur / boitier sont fournis (j'ai due vérifier pour être sûre) Les choses après dans l'avenir : -nettoyer régulièrement son PC pour faciliter le refroidissement des composants.. (d'ailleurs je devrais le faire avec mon petit PC.. celui que je suis en train d'utiliser.. bref) -mettre à jours les drivers régulièrement (je conseille d'utiliser le logiciel conseillé des marques des composants, donc si par exemple vous avez une carte graphique Nvidia, installer le logiciels disponible adapté à la situation, un de mes jeux demandait de mettre à jour ma carte :) ) Bref, si ce commentaire vous a aidé, likez le (c'est la première fois que j'écris un pavé dans une commentaire) ! Si vous avez des questions, n'hésiter pas à @YoMiKr pour me le demander et peut être que je vais vous être utile !
C'est avec ce constat là qu'il est temps que les états, car le marché n'en fera rien, dise STOP à la sur consommation. Je pense qu'il est temps pour limiter notre consommation d'allonger drastiquement la durée de vie de nos appareils en obligeant le constructeur à 10 ans de garantie, de reprendre une fois usagé pour assurer le reconditionnement / recyclage. Ils vendront plus cher, mais moins souvent, donc la balance devrait s'équilibrer. Après, moins de prod = moins d'emploi dans la prod mais le travail en illimité n'est pas possible si les ressources et l'énergie pour travailler sont limités ... Nous sommes à l'Aube d'un nouveau monde à construire pour qu'on puisse garder au maximum l'accès à nos technologies tout en prenant enfin en compte les limites. Quand on voit ce qu'arrive à produire les DemoMakers de vieilles machines qu'on oserait même plus allumer ... Je pense qu'il est temps de lancer la phase "finale" de la production, réduire la production, il y a toujours un nouveau arrivant sur le marché, développer l'entretient vis à vis de la production (ce qui emploiera peut être plus de monde qu'une chaine de prod). Je pense qu'on est pas mal en taille d'écran, résolution. Quand je regarde les tests TV de PPWorld, on dépasse les capacités de perceptions, donc arrêtons le marché qui ne sait se contrôler et qui se base sur des modèles économiques avec des ressources infinies car si c'est pas sur Terre, ce sera dans l'espace ... Bref, il est temps de mettre un frein tout en conservant un max notre niveau de vie qui ne sera pas dégradé si on change pas son téléphone tout les ans. Google sur son Pixel 7 annonce un suivit de 5 ans ... je pense qu'on peut faire mieux, mais ça montre que la question est dans la tête, il faut donner l'impulsion pour que ce soit une réalité.
Personnellement, je ne m'inquiète pas pour Apple... ils ont réussis à infiltrer toutes les cours de récrées, ils ont encore de beaux jours devant eux... un marketing maitrisé...
Oh le génie ! Je finis toujours par remarquer les pubs subtiles que tu glisses dans les speechs. En tout cas c'est cool, et j'apprends beaucoup, surtout sur la tech. Merci Loe !
Ce serait bien que ça nous permette de sortir de la boucle mais j'pense que les lobbies ont trop peux d'intérêt a le faire et comme y aura toujours de gens assez "bête" pour foncer sur toutes les dernières"nouveautés" juste pcq ça vient de sortir bah je pense pas que ce soit pour bientôt. En plus comme tu l'as dit certains essayent même de ralentir l'arrivée de cette limite en gardant des nouveautés pour plus tard. En tout cas très bonne vidéo comme d'hab merci 👌👍
Très bonne vidéo, c’est un résumé, c’est bien le contexte actuel ! Personnellement, je me suis arrêté à l’iPhone 11 Pro Max qui condense déjà pas mal de choses et d’innovation et qui seront difficile d’améliorer en : qualité d’écran, rapidité, etc. et a mon avis sur les smartphones le seul point, a vraiment améliorer c’est la qualité photo est… La fonction téléphone parce que franchement encore aujourd’hui c’est une plaie parfois pour téléphoner. Quant aux ordinateurs, et ça fait un moment que je nupgrade plus j’ai surtout fait évoluer ma façon de jouer que ce soit en Cloud computing, ou en résolution d’écran. Par exemple j’utilise beaucoup le Steam deck sur lequel je n’ai pas besoin d’avoir une résolution folle. Évidemment ce petit appareil mérite largement d’évoluer, mais c’est sur ce genre de technologie, que j’ai envie d’investir et pas sur une carte graphique à 3000 balles qui me fera gagner 15 FPS quand j’en ai déjà 70
Tu dis qu’on ne pourra pas dépasser la technologie actuelle ou presque mais il y’a 20 ans, si tu posais la même question à n’importe qui, il ne pourrait pas te répondre, on ne peut pas vraiment prévoir ou la technologie peut nous mener. Peut-être que dans 5-10 ans on aura de nouvelles technologies dont on ne pourra se passer et on se dira que l’on imaginait pas du tout le futur de la tech comme ça, c’est va la beauté des avancées technologiques !!
9:08 ce que faisait mon smartphone y a 10 ans : - infra rouge pour piloter ma clim et pour ce que j avais pas : - camera thermique intégrée ( trop peu de marques le.font, juste 3 dans le monde ) - module radio universel ( pour les porte de garage ) - RFID 125k ( portes d immeuble premier prix ) - zigbee - DECT (ça se fait, mais très rare ) - double Sim double data ( impossible de recevoir les MMS sur la.Sim secondaire avec aucun de mes dual SIM) - module de charge wireless ou X-Connector ( crosscall) de série dans tous les téléphone , sans devoir les modifier à la main. - un Android qui accepte à nouveau la fusion d extension de mémoire - l utilisation de l accéléromètre pour extrapoler la vitesse et donc la position quand le module GPS ne capte pas , et corriger en temps réel court la position dans les intersections - des batteries de téléphone hot swap par paire (faut avoir utilisé des pc portable Dell pour comprendre le plaisir de bénéficier de deux batteries internes qu'on peut remplacer à tour de rôle tant qu'on en a des chargées dans le sac ) . Après tu me dira que c est peu pertinent quand on dispose de la X-Battery de Crosscall avec le X-Clip approprié ... ce qui nous ramène à la nécessité d avoir le X-Connector sur tous les téléphones. voilà pour le hard. Après y a le soft. Je pouvais faire beaucoup plus de choses sur Android 4 que tous mes téléphones ultérieurs. depuis Android 6 ça régresse sévèrement.
le fait est que le PC en forme de tour disparait rapidement au profit du smartphone, la tour n'est plus utilisée que par une petite frange de geek, au bureau le portable l'a remplacé, et est en train d'être remplacé lui-même par une tablette en version mobile ou un smartphone + écran géant à la maison. la capacité de calcul n'est plus un souci sauf cas particuliers, et les processeurs graphiques seront intégrés aux écrans pour offrir la meilleure fluidité possible. quand une technologie atteint sa limite de développement c'est qu'elle prépare l'arrivée d'une autre. j'ignore quelle sera la prochaine, peut-être poussée par une réduction drastique de la conso électrique devenant impayable ? ou une disparition pure et simple de l'informatique par manque de courant. on a dépassé l'apogée dans pas mal de domaines, santé, éducation, libertés, déplacements, l'informatique suivra.
En 2019 apparaissaient des articles parlant des écrans microled sur des revues personnalisées. Sachant que la plupart des sources utilisées aujourd'hui n'arrivent même pas au 4k, arriver à un niveau pareil de technologie revient tout simplement au gadget et à l'ego :)
Un truc que j'attends d'un smartphone, c'est de mieux capter et une autonomie beaucoup plus importante. Niveau autres caractéristiques, on a assez de choix.
Le raytracing n'était pas utilisé sur le premier Toy story ( c'est ce qui donne ces ombres très grisâtres), parce qu'à l'époque le temps de rendu en raytracing était de 26 heures par image ( en 24 images par seconde pour un long métrage, je vous laisse faire le calcul ). D'ailleurs, entre ce qu'on appelle le RTX dans les jeux vidéos et le vrai raytracing présent sur les moteurs de rendus pré calculé, il y a encore énormément de chemin à faire.
Sérieux?!?!?! genre un rendu fait instantanément n'a pas la meme qualité qu'un rendu de 20h, ah ben mince, j'aurais jamais pensé, tu dois etre un génie toi, va te faire décelé, ça va changé le monde.
@@Dieucreateuruniversel Bah le marketing de NVIDIA laisse supposer que c'est le cas. J'ai été sceptique du RTX dès le début, surtout que les comparaisons paraissaient artificiellement avantageuses. C'est surtout pour dire qu'on a encore de la marge pour l'évolution graphique dans les jeux vidéos, par contre ça risque d'être de plus en plus lent désormais
J'espère juste que les prix vont belle et bien baisser quand on arrivera très proche de la limite, que ce soit vraiment plus accessible de s'acheter un PC :)
Et puis même après avoir atteint cette limite on pourra quand même faire des progrès dans l'accessibilité. Ce qui est chère aujourd'hui ne le sera peut-être pas demain
Le problème c'est qu'il y a une limite physique aux minerais extractibles et que ça va devenir de plus en plus cher d'extraire du minerai. Donc ne compte là dessus...
@@hugobogos En fait, le prix peut rester stable jusqu'à épuisement de la ressource. On ne verra jamais les prix monter en flèche, ils resteront haut et à un moment, il n'y aura juste plus de disponibilité. C'est comme ça que se produit une pénurie sur un marché.
Un des problèmes avec la miniaturisation est d'arriver à pouvoir miniaturiser les transistor qui s'ils sont trop petits vont laisser passer le courant que le transistor soit ouvert ou fermé pour faire simple !
Je vois le bon côté des choses, dans les années 2000 un PC de 3/4ans c'était complétement dépassé, même pour un usage basique et ça coûtait relativement cher. Maintenant on peut quand même conserver les machines plus longtemps si on est pas joueur.
@@tecmons Oui pour j'ai un pc de 2012 sous Manjaro, il est encore parfaitement utilisable pour aller sur internet et se connecter sur des serveurs en ssh
Ce que je veux de plus sur mon smartphone ? +D'autonomie quand je suis dehors +Recharge sans fil a distance via laser ou rayon IR. +De puissance pour effectivement correspondre a mon PC +De mémoire, dans l'ordre des To et non des Go +De ram au passage Une meilleure ergonomie et réactivité sur certains truc, et certaines fonctions qui devraient être évidente ; plus de contrôle sur certains aspects aussi ... +De fiabilité (j'ai eu 3 tel en 10 ans, les deux premiers ont fait 4-5 ans) Parmis d'autre
je pense qu'en vrai, quand notre civilisation passera à 1 sur l'échelle de Kardashev on pourra outre passer certaines limites qui nous pose problème à l'heure actuelle. C fascinant mais ça fait peur. D'ailleurs tu devrais en parler de cette échelle. C une dinguerie, et ça explique pas mal de choses.
Donc si j'achète un bon PC a 1200 euros en 2023 il me tiendra plus longtemps dans le temps que si javais acheté un bon pc au meme budget en par exemple 2000 on est d'accord ?
Bien’vu! Mon étudiant ingénieur chez intel processeur en asie affirme en 2012: on atteint les liltes du physiquement possible la suite sera les bio tech.
Dit où dite c’est plus worth de payer une radeon ? Y’a pas de soucis de compatibilité pour l’es écran ? Et les drivers y’a un logiciel comme geforce experience ?
Au delà des limites technologiques, il faut aussi prendre en considération les limites en termes de besoins, la question : a t-on vraiment besoin d'un ordinateur quantique pour jouer ou faire de la bureautique ? Franchement, le PC portable que j'ai acheté en 2015 était une bête de guerre et faut être honnête, il tient carrément bien la route encore aujourd'hui sauf pour certains gros jeux mais pour 90% des choses que je faisais avec, ça allait, je parle au passé car je l'ao offert à mon neveu pour qu'il s'initie à l'informatique.
Et aux limites de ces besoins, les vraies limites, physique, de l'extraction de ressource nécessaires pour parvenir à produire tout cela. On arrive au bout, doucement, sûrement, continuer à produire sans se préoccuper de cet aspect, ça veut dire ouvrir des sites miniers supplémentaires. A voir les contenus proposé par Aurore Stéphant de Systex sur la question, c'est très éclairant.
Moi ce qui me dérange dans les cartes graphiques actuelles déjà le prix exorbitant et ensuite la consommation(normal aujourd'hui d'acheter une CG 800 euros et une alim 800W) . Hors de question d'acheter une carte dernière génération et encore moins une nouvelle alimentation(500w pour moi pas plus) car ca consomme de plus en plus alors que il y a peu ca consommait justement de moins en moins.
Je suis d'accord avec toi, d'ailleurs le multi cheap est une des solutions avec le stack du cache pour les processeurs encore aujourd'hui en gaming le 5800X3D reste excellent j'ai hâte de voir la suite en 7000. Et si on atteint les limites en gravure rien n'empêche de faire des CM en multi CPU pour toujours augmenter le rendement et voir la même chose en gpu dans un futur plus ou moins loin avec une amélioration en communication entre chaque GPU.
Faut surtout se dire que les matériaux sont limités. Même si on arrive à créer une technologie de ouf, on pourra pas aller bien loin et ce sera de moins en moins accessible tant ce sera cher et hors stock.
Sauf à ouvrir de nouveaux site miniers, ce qui serait à chaque fois une catastrophe de plus pour l'Humanité. On ne dépollue pas une mine, on l'abandonne une fois épuisée.
Avec le supercalculateur classique connecté à un calculateur quantique on est peut être au bord d'une nouvelle révolution qui redonnera une bonne grosse marge aux possibilités d'amélioration dans quelques années.
Nan mais c'est pas le soucis de faire des transistors plus ptit ou de vérifié des regles de Moore, y'a juste pas de ressources naturelles infinies les gars
C'est comme les voiture on a fait beaucoup de progrès en 15 ans ( exemple 1.6 en 1995 56 cv en 20051.6 hdi 110 cv et aujourd'hui presque 200cv mais a quoi avoir plus pourquoi faire ? )
Je ne suis pas sur de la faisabilité de ce que j'avais entendu, mais on m'avait dit que les processeurs (hors quantique) avaient encore une grande marge de progression (contrairement à ce que l'on pourrait penser) avec des couches de silicium empilés par exemple (problème de chaleur à résoudre), mais aussi avec des systèmes de "refroidissement" complexes, car ce qui limite l'amélioration d'un processeur dans 99% des cas et la chaleur émise par cette amélioration (multi-couches, augmentation de la fréquence de l'horloge...). Et dans les architectures "nouvelles" (par exemple mémoire intégrée au cellule du processeur). Enfin bref, je m'arrête là, car je ne maitrise pas trop la physique avancée des ordinateurs et je ne veux pas dire de bêtises. Mais je trouve ta vidéo un peu décevante du fait que tes propos ne sont pas assez nuancé (selon moi).
La technologie est mature ! Mais c’est vrai que le changement d’architecture joue pas mal dans la balance également, regardez les nouvelles puces ARM d’Apple . ( une petite ouverture sur l’informatique quantique aurait été bien venue )
Ce qui est sûr c'est que ça fait très longtemps qu'on n'a plus de véritables améliorations comme "avant". Pour mémoire le processeur intel 486 dx2 est sorti en 1992. Il était cadencé à 66 Mhz. 8 ans plus tard (en 2000 donc) sortait le pentium 4 cadencé à 3,8 Ghz... Soit 60 fois plus rapide... On n'a pas du tout ce genre de gap entre 2010 et 2020...
@@tomaspavka2014 La GTX 580 étant sorti en 2010 il faudrait prendre la RTX 2080 TI pour comparer sur la même durée (8 ans). Et la on voit que la fréquence du processeur a "seulement" doublé, et qu'il n'y a que 4x plus d'unités de calculs dans la RTX2080 par rapport à la 580. Les benchs confirment également que la RTX 2080 TI est "seulement" 5 fois plus rapide que la GTX 580... Donc je confirme, d'autant plus ces 10 dernières années on ne voie plus d'évolution aussi rapide que dans les années 90/2000... Pour moi c'est simple le palier a été atteint quand Intel a sortie sa gamme Core 2... Ils ont camouflé les limites technologiques en faisant rentrer plus de "coeurs" dans un processeur.
@@marmotteIDE je m'étais exactement fait cette remarque à l'époque ..Pourquoi rajouter encore plus! On a aussi vu des cartes graphiques devenir grandes...avec de gros ventilos...je trouve que c'est l'évolution la plus visible. De cette poussée des puissances sans vraies innovations, juste des puissances de calcul. Les watercooling sont aussi apparus mais de manière industrielle alors qu'avant c'était une niche le watercooling. En gros si aujourd'hui on veut 5 ou 6 fois les perfs de la 4090ti. Celle ci fera quelle taille donc en 2030? Bientôt je rabotte mon appart pour la faire rentrer comment ça se passe ?
@@MrRahff06 Je crois qu'Nvidia s'est tiré une balle dans le pied tout seul en affichant que la 4070TI pouvait faire tourner de la 8k à 240Hz... Si c'est vrai ça veut bien dire qu'absolument personne n'a besoin de cette carte graphique pour jouer à un jeu vidéo... ^^
je pense que tu à raison mais il y a pas que ça, le coût des jeux vidéo à atteint c'est limite entre investissement et rentabilité. Un Red dead rédemption 2 avec 944 millions de budget je pense qu'on le verra plus jamais même cher rockstar lui même !!! on le vois bien en se moment en dehors des gros triple AAA on reviens sur les graphismes moin réaliste avec une DA beaucoup plus mis en avant, tu en pense quoi ?
Il y a des limites mais comme à chaque fois une nouvelle technologie sera découverte. C'est un peu comme un moteur à combustion ou on disait atteindre la limite mais aujourd'hui il y a les moteurs électriques qui ont une marge de développement.
La prochaine étape c'est l'ordinateur quantique :) ont trouveras bien, un jour, le moyen d'adapter un ordinateur quantique pour que sa puisse se trouver dans n'importe quelle foyer a prix correct
Avec quelle matière première? Vous pensez pouvoir encore équiper tous les foyers, à nouveau? Bienvenue dans le monde physique, il faudrait déjà extraire autant que depuis l'Antiquité pour répondre au remplacement vers l'électrique du parc automobile. C'est de la folie pure.
SI la clientèle reste (ou devient dans certain secteurs) exigeante, on ne verra pas les limites avant un très très long moment : Déjà parce que les puissances brutes et perfs matérielles continues d'augmenter quand même; mais surtout parce que l'optimisation est vraiment affreuse. Des softs bouclent inutilement, des ressources sont allouées sans raison, la rom est pleine de doublons. J'ai participé avec une équipe au taff à l'analyse d'un serveur et de ses installations; sous win2019: 70% de conso électrique, 65% de la charge processeur, 80% des sollicitations disque et 45% du Traffic réseau non sollicité par un user, peuvent être évité par l'optimisation. Pour l'espace disque, il faudrait décompresser et lister l'intégralité des fichiers d'installation de chaque soft pour estimer le gains sur une mutualisation ... Un travail colossal pour un chiffre que ne veut rien dire, puisque le parc logiciel peut fortement varier. Mais L'inclusion d'une bibliothèque commune ferait déjà des miracles. Pour la RAM, déjà plus elle est pleine mieux c'est .... Bah du coup 80% de RAM inutilisée en moyenne, ça ne va pas. Mais vider la RAM pour faire de la place c'est la base ... Win2019 se débrouille mieux que win10 ou 11 mais ce n'est quand même pas top; de gros ralentissement, des pics Disque et processeurs pour libérer 1G de RAM pleine? un srv linux fait ça fluidement avec presque n'importe quelle config ... depuis 2005 !! Si les users exigent des softs, des OS, des jeux finement finalisés et optimisés; si le matériel reste figé 4 ou 5 ans, la qualité effectivement disponible à l'utilisation continuera d'augmenter sans problème. Voir même : Si un fournisseur arrive sur le marché avec du soft ultra optimisé pour un matériel qu'il maitrise et se met en tête de chasser la moindre perf perdue et conso inutile pour faire du produit pas cher (matériel avec peu d'évolution) mais ultra qualitatif; Alors ça peut tout changer et tout accélérer et provoquer une évolution brutale; encore plus que lorsque l'on est passé aux multicore x64. Alors quel fournisseur? Bah je sais pas; sinon je virerai déjà mon salaire en bourse. Microsoft a eu cette position; ils n'avait clairement pas les épaules et ont foirer à plus d'un titre. Apple est aussi dans cette voie mais ne percera pas. (Non Apple n'a pas "percé" en ce qui concerne un redéfinition de l'industrie. Appel, c'est comme mercedes, ils font des trucs marrant, qui plaisent en promettant une revolution laser du turfu toutes les 5 minutes; 2-3ans plus tard on rajoute un capteur photo désactivé parce qu'il ont lancé une mode. Une mode ce n'est pas un changement de paradigme). En fait, Intel et AMD pourraient prétendre à ce genre de position, NVidia non; ils ont une mentalité à la Apple justement. Mais ouai, un OS AMD ou Intel Avec un Environnement calibré pour leur matériel et du développement interne + seal of quality (ou un truc dans le même esprit) pour les quelques tiers triés sur le volet; ça peut complètement redéfinir le marché. Quand un pc à 500€ opti fera autant qu'un pc à 1600€ pour 3fois moins d'énergie; les consommateurs suivront, du coup, toute l'industrie.
Il faut se souvenir qu'on atteint la limite dans un domaine spécial. Bien qu'on ai, par exemple, exploré le maximum d'innovation pour les processeurs x86 il reste beaucoup d'autres choses comme les processeurs arm, risc-V avec des architectures matérielles et logicielles totalement différente qui n'attendent qu'à être explorée. Personnellement j'ai aussi espoir dans les ordinateurs quantiques qui, si il réussissent, ça sera un retour a la case départ avec des évolution démentes
On approche des limites du nombre de processeurs sur une puce, et les usages qu'on a de ces puces sont relativement cadrés. d'ailleurs, il y a une autre réalité qui va borner, en plus de la taille des transistors, c'est la vitesse de la lumière, donc les longueurs de pistes, qui va limiter les débits et donc le traitement d'informations. donc oui, l'informatique telle qu'on la connaît est sur la fin de son évolution. dans la technologie telle qu'on la connaît. peut-être arriveront-ils à faire des étages de transistors, et des puces "dans le volume" (là c'est encore plan), ce qui prolongera peut-être un peu cette évolution, mais guère. mais la loi de Moore, c'est presque plus large que ça. aujourd'hui, on a des smartphones, et des ordinateurs (dont tu décris les particularités mieux que moi) mais demain, qui sait quels objets on pourrait avoir, avec leur utilité. c'est très clair que la "densité volumique en transistors" des puces qui seront dedans n'augmentera pas, comme tu dis, la physique est pas très conciliante. en revanche ce sera le début d'un nouvel arc technologique. Pour illustrer mon propos: - il y a 250 ans, il y avait un télégraphe, ça faisait un son, et il fallait un copiste de chaque côté pour noter les longueurs de bip et retranscrire. l'usage était très peu répandu, et réservé à une élite (et à l'armée). - ensuite est arrivé le téléphone filaire avec un système de standards téléphonique, où c'étaient des humains qui jouaient le rôle du routeur. t'appelais le standard de ton coin, qui se débrouillait pour te relier au standard du coin de ton destinataire, via un câble jack, etc... toujours cher, franchement pas pratique, et pas très démocratisé. mais un peu plus... - plus tard, c'est devenu automatique, et est arrivée la composition du numéro à l'aide de 10 touches. là c'était enfin dans tous les foyers. - puis le réseau cellulaire, puis diverses évolution jusqu'à la 5G, avec des smartphones, pour regarder des vidéos de chat en 4k sur des écrans de 6 pouces, et dans le train. en fait la loi de moore, c'est surtout la loi de la démocratisation d'une technologie. toi tu parles de la démocratisation du transistor.
Ça faire peur de savoir que tout a une fin qu’on va tous mourir Très belle vidéo qui remet les idées enplac pour. Montrer que la thequnologie a des limites physiques (enfin matériel)
Bahhhhh les limites sont ce à quoi on peut consacrer notre temps....perso j'ai figé ma config à un pc gamer de 2017-2019, il me permet de jouer à environ 20 ans de jeux vidéos au maxi de leur rendu et j'ai le choix parmi les centaines de meilleurs titres AAAAAAAAAA de l'histoire. Fini l'upgrade, la qualité est dans les jeux plus dans le matos avec les jeux d'aujourd'hui. J'attends, comme de nombreux joueurs historiques, LA révolution qui ne passe pas par le nombre de fps ou le seul rendu graphique. Un jeu, c'est un ensemble, un tout, une émotion....
On apprends rien dans cette vidéo, c'est assez dingue. C'est un avis. Mais surtout une pub de 12 min bien camouflée. Je commente juste parce que, au moins, il y a l'honnêteté de le dire au début. Même si ca n'annonce pas que ce sera 12 min d'encart publicitaire.
Les celulaires sont déjà appeler à disparaitre pour laisser place au lunettes ou lentilles de réalité augmenter qui offriront toute les mêmes capacités qu'un celulaire voir plus, pareil pour les écran télévisé qui deviendront inutile rendu là
6:00 💐 À part mes félicitations à LISA SU, elles vont aussi à Léo. En plus du bon sens, enfin quelqu'un qui sait parler sans répéter sans fin "en fait", "genre", "du coup", bref je kiff.. Abonné!
Personnellement je pense qu'en ce qui concerne le gaming aller au delà de la 4K 144hz n'est pas très intéressant, le 240hz et la 360hz sont uniquement utiles aux joueurs e-sport. Par ailleurs la 1080p reste une résolution très agréable, c'est aussi une question d'habitude. C'est sûr que si on s'habitue à la 4K, la vision s'affine et voit plus facilement les différences avec les résolutions inférieures mais en a on vraiment besoin ? Au delà des limites des dimensions des puces, la planète et ses ressources ont des limites, donc même dans le monde de tech, ça serait intelligent d'avoir un peu de sobriété je pense.
Selon moi la prochaine évolution majeure du PC sera soit les ordinateurs quantique soit des ordinateurs qui utilisent de la lumière à la place de l’électricité
Lol les gens qui découvrent que les lois physiques et les limites physiques existent, et que la loi de Moore est finie alors que ça fait 10 ans je l'ai compris Il va falloir réaliser que nous avons vécu une époque exceptionnelle et que maintenant la fête est finie.
Totalement d'accord avec toi. L’innovation maintenant sera non pas d'augmenter la puissance des processeurs (cpu et gpu) en réduisant la taille de leur gravure (donc en augmentant le nombre de transistors par mm²), et/ou en augmentant leur fréquence, ce qui aura pour effet d'augmenter leur consommation énergétique, mais de faire le contraire de ce dernier point : diminuer la consommation en gardant la taille de leur gravure et la fréquence. Et la planète ne pourra que nous en remercier !
Je pense pas que c le matériel qui va énormément évoluer... Je pense que dans 20 ans on fera un x2 pas plus...mais que ça risque de énormément évoluer logicielement parlant. Je pense qu'il risque d'y avoir des Fusion entre plusieurs plateforme... (Arm ... X86 quantiques... ) Je pense que la vrais amélioration c le e-learning... Virtualisation... De plusieurs machine et plateforme. La puissance ça va devenir abstrait. Chacun payera pour avoir ça doses de puissance. Suivant son besoin. Et Surtout quand on voit les prix des technologies maintenant. Qui n'est pas forcément donner pour tout le monde de s'offrir un sli de 4090 Je dit pas que ça sera réserver a une certaine catégorie de perssone. Je dit juste que BC de gens aurons pas besoin de le procédé chez eux ... Pour en avoir l'usage grâce à la fibre la virtualisation. Le stream. Tout le monde aurais accès en payant l'usage sur le moment. Fin je c pas si tu vois ce que je veux dire Léo. Mais je pense que l'évolution sera plus logiciel que matériel.
La fin n’est pas pour tout de suite avec les ordinateurs quantiques, ils vont tous se concentré dessus, des grosses boites s’y ont déjà mis. Bien sûr ce n’est pas pour le particulier mais quand on sais ce que ça peux et effectué un calcul qui, sur nos machines actuelles mettrait quelques années, avec l’ordinateur quantique 2 seconde suffirait. Ça fait même peur, parce que la sécurité de nos machines sécurisées aes 256 bits n’emmène pas large, fasse à ces montres de technologies. J’espère que cette technologie ne tombera jamais entre de mauvaise mains. J’ai tout de même hâte de voir la suite…
Il serait temps que les concepteurs de jeu et leurs programmeurs recommencent à optimiser leur code! La loi de Moore stipule que les ordinateurs voient doubler leur puissance tous les 18 mois (et non deux ans) sauf que cette loi ne tient déjà plus. Si on est obligé d'ajouter un plus grand nombre de "core" et de "chips", c'est donc que l'on a atteint la limite physique, ou presque. Très bientôt, les améliorations de performances ne seront plus possibles que par l'optimisation du code des logiciels. En fait, il existe encore une possibilité d'améliorer physiquement la puissance du matos : Les processeurs quantiques.
à mon avis l'évolution est très très loin d'être finit elle est peut être même infinie car l'humanité trouvera toujours une solution car il y en a toujours une. Le nombre de fois que l'humanité a cru qu'on avait finit l'évolution (notamment au Moyen Age ) c'est juste une histoire de patience ne vous en faite pas👍
Le problème actuel de nos téléphones, c'est le manque de stockage (à des prix raisonnables). Tant qu'on aura pas tous des téléphones avec 100 To de stockage pour pas se faire chier à devoir gérer ça, je serai pas satisfait
Hello Moi ce que je voudrais avec mon téléphone, ce serait une station d'accueil pour brancher un écran clavier souris et pouvoir utiliser la puissance de calcul du téléphone comme un PC. Et sincèrement pour ce que je fais avec mon PC ce serait largement suffisant !!
Puisque le hardware à atteint sa limite, j'ai bien peur qu'ils vont se tourner sur du software et nous compliquer la vie avec un abonnement sur chaque fonction comme de vrai tarrées. Déjà Intel et Nvidia pourrais vraiment brider les performances et nous faire payer un abonnement si ils veulent puisqu'il s'agit de leur propriété. Mais pour nous c'est un problème.
Bien pour ça que je suis un grd défenseur de l'open hardware. Déjà le coût en recherche va devenir tellement important que quasiment aucun acteur ne pourra réellement développer de nouvelles techno tt seul... Et ensuite pour garantir une vraie propriété et une liberté d'usage de son matériel...
En vrai les limites physiques sont indéniables mais on est pas obligé d'être en stagnation. Avec de l'imagination on peut progresser sur comment réutiliser ces limites.
En tout cas avec la console, petit à petit les chose évolue en graphisme et perf, et honnêtement allez déboursé sans cesse des config à 2000€ pour frimé avec des graphismes, à vrai dire c'est pas vraiment l'essentiel, ce qui est bien avec l'évolution ces la surprise, car sinon on serait déjà blasé d'être au maximum des capacité technologique rappelant ainsi qui ne sert à rien de courir et de ce laissez immergé progressivement dans le progrès.
8:18 Pas d'accord du tout, ce qui fait le réalisme au niveau visuel, c'est la lumière, pas trouze milliards de polygones. Alors si, ça va changer beaucoup de trucs. Les vieux jeux en mode RTX avec ombres, réflexions et lumière réaliste arrachent la rétine plutôt bien.
➔ Le PC présenté dans la vidéo : bit.ly/KIT-PC-RDC-LEO
➔ MPG B650 CARBON WIFI : msi.gm/B650msi
➔ MSI Radeon RX6900 XT Gaming X Trio 16G: msi.gm/RX6900XT
Et bien moi, grace a ma souris a boule,
je n’ai plus de poussière sur mon bureau !
[edit] : les 7 personnes qui ont liké ce poste....
c’est que vous avez compris la blague !
et que donc comme moi....
vous commencer a avoir pas mal de cheveux blancs !
moi : clique sur le lien du PC par curiosité
le site : ce produit n'est pas disponible
Je crois que l'offre devait être trop alléchante pour qu'en moins de 12h il ne reste plus rien😂
tg
Passionnant 👍
Toujours plus aguicheur les titres t’inquiète
Faut bien mettre la daronne à l abri
@@LeoTechMaker réel
@@LeoTechMaker la c'est aussi la daron et le reuf 💀
Tu comprends le fonctionnement de RUclips :)
@@charlinecherrys apparemment toi non plus vu t'es vidéos
A toi, oui, toi, qui as cru quand tu as vu le titre, qu'il faisait une vidéo importante pour nous annoncer la fin de quelque chose, comme si il allait arrêter youtube.
Tu n'es pas seul.
Si il faut vous feinter pour que vous n'arrêtiez jamais d'apprendre, je vais pas me gêner
@@LeoTechMaker mdr ça marche bien tu m'as eu
Pas pour moi, je pensais qu’il parlait de la fin d’un réseau (Twitter) , un service ou un concept de sa chaîne mais pas l’arrêt total de celle ci.
Bon vu que j'ai vu les commentaires avant de regarder la vidéo est que je suis tombé dans le panneau ou pas 😅
@@LeoTechMaker nan t’es juste devenu cancer c’est tout
Tu aurais aussi pu parler de l'optimisation des usages des technologies actuelles. Il y a quelques années quand la mémoire était limitée par exemple, des prouesses de programmation étaient faites pour développer des logiciels. Nintendo par exemple sur ses consoles de l'époque comme la GameBoy devait développer des algos de compression maison pour réussir a mettre tout son contenu dans une disquette. Aujourd'hui dans le domaine des logiciels et des jeux vidéo, l'optimisation n'est plus au goût du jour et ça se ressent souvent (coucou Microsoft et coucou les AAA). Apprendre à faire avec ce que l'on a, j'ai l'impression que c'est quelque chose qui s'est perdu car on s'est enfermé dans la course à la puissance au détriment de la gestion de celle disponible.
C'est aussi une occasion manquée de parler des low tech qui permet de développer un rapport différent à la technologie et qui nous montre que moins de puissance ce n'est pas un drame.
Je trouve donc que ta vidéo manque un peu de nuance et véhicule un peu trop un message disant qu'on peut encore gagner en puissance donc il n'y a pas à s'en faire, plutôt que de se dire qu'on dispose déjà d'une puissance folle et qu'on est peut etre pas encore parvenu à l'exploiter totalement.
Exactement !
Il faut se rappeler que windows 2000 tournait sans problème sur 32Mo de RAM !
Et on avait nos mails, notre suite bureautique, on pouvait surfer sur le web, jouer...
Ajd le moindre navigateur bouffe mini 1Go de RAM à lui tout seul...
C'est tout à fait vrai et ça ne date déjà pas d'hier.
Personnellement j'ai appris à programmer sur de très vieilles machines (Alice 90, Laser 500, m'étonnerai que vous ayez déjà entendu parler de ces machins, puis plus tard sur Amstrad CPC) et en plus c'était en basic (puis assembleur). Clairement il fallait optimiser à fond pour espérer avoir un minimum de performances.
Fin 90 début 2000 j'ai fait des études en informatique industrielle, on était sur PC, on apprenait à programmer en C/C++ et là j'ai été étonné de constater que le problème de l'optimisation n'était pas vraiment abordé.
Tu as raison. C'est très vieux le Raytracing. J'en faisais sur mon tout premier ordinateur (Un 486 DX2 66Mhz). Le logiciel s'appelait POV (Persisance of Vision). Il existe toujours ce soft d'ailleurs. On définissait notre scène en mode texte et ça fonctionnait sur des formes simple mais le résultat était bluffant. Pour peu qu'on ai le temps d'attendre des heures pour avoir 1 images en 640 488. Oui je sais je suis vieux ^^
meuhhh non , j'ai commencer sur un 386....
salut, ah oui,, pov, jamais utilisé, j'ai commencé avec Rhinoceros, puis rapidement 3D studio max R3...et un peu Lightwave....content de pas etre arrivé trop vite dans le monde informatique, car que c'etait lent avant.....enfin, ca l'est tjrs...tout depend des machines et en meme temps qu'elles deviennent plus puissantes, tout demande tjrs plus de puissance :( avec mon i3 +8 giga de ram, j'ai des lenteurs internet si trop d'onglets ouverts et meme des fois, le cpu est utilisé à quasi maximum si le site est gourmand...alors que dans les années 2000, je pouvais surfer aussi avec un pauvre p3 666 mhz et 384 mo de ram !!!
sur mon i3, je peux pas aller au dessus que le 1080p, sinon, la vidéo saccade....
sur mon i5 3775k, ca va aussi en 4k mais par contre pas en accéléré...mais bon, mon ecran est pas en kk alors :p 720p ou 1080p c bien assez.
du coup, pour travailler plus vite, je vais me monter une config avec ryzen 5 3600x + 32 giga de ram (2 barrettes) + cg pourrie (que je changerais prochainement) c surtout pour la bureautique et pour pas mal de creations 3d, pas besoin de cg puissantes quand c'est juste pour monter le truc...apres je switcherais sur ma plus puissante cg (dépassée + ou -) 980 GTX....aussi pour l'encodage video, je pense que ca va etre bien plus fluide avec ma next config....et puis quand j'ai besoin d'ordi virtuels, les 32 giga vont etre géniaux ^^
mais finalement, c'est vrai que l'evolution est moins impressionnante qu'il y a 15 ans...aussi, sur les supports de stockage :année 1998-1999, c'etait un HDD de 2 go...2 giga quoi !! avec win98...ou 95, je sais plus !! et des graveurs 1x....et maintenant, truc de ouf quoi....sans compter le modem 56k et la facture de téléphone...ah làlà que de souvenirs, et bien content que cette technologie soit bien plus avancée now ^^
En effet, un retour sur la fin des années 90...
Ah les bons vieux 8088, 386, 486 sx et 486 dx et soudain …le pentium 120 ! Le bonheur 😂 très très vieux, je suis ! 😊
@@hervedesormeaux1478 ta oublier le 286...
Pour moi l'un des gros problème au niveau de la course technologique reste l'obsolescence programmée. Certes, la limite physique est atteinte, mais on aurait pas cette tendance à avoir des Technologies qui semblent de moins en moins révolutionnaires par rapport au modèle précédent, s'il n'y avait pas cette obsolescence qui encourage à chaque fois à prendre le nouveau modèle plus rapidement.
Et tout la gâchis de ressources cramé la dedans c'est triste 😞 en comptant aussi la R et D et l'ingénierie pour la mise en place de cette niaiserie. Ah ! Ce sujet m'horripile !
Bonne journée à tous quand même 👍😊😁🌞🌞🌞💐
Je ne suis pas totalement d'accord dans le sens où l'obsolescence programmée est paincipalement une course à l'argent. Surtout quand parfois, on voit la différence très pauvre entre 2 modèles...
@@user-hr8lf7jz9c Vous avez compris ce qu'il dit ??
@@ndongengone7284 oui. Je n'ai juste pas développé l'entièreté de ma pensée.
l'obsolescence programmée est maintenant interdite bien que sûrement encore pratiquée x)
Une autre limite physique qui passe sous les radars est la pression sur l'extraction des minerais et la montagne de problèmes qui est déjà là et qui va continuer à grossir... Les travaux de SystExt et les interventions de Aurore Stephant sont un très bon point de départ sur le sujet :)
Merci pour les recommandations 👍
@@smokymcbobby5123 de nada ;)
C'est un axe auquel j'ai pensé aussi, peut être pas une évolution majeure des performances mais une évolution dans la manière de conception afin de les rendre moins coûteux en matériaux
@@kollhran6584 le problème est qu'on aura toujours besoin de métaux pour faire des transistors. La vraie révolution viendrait d'un arrêt à la course à la performance physique et un meilleur travail d'optimisation. Quand on voit que des dev arrivent à faire tourner god of war Ragnarok sur PS4, on peut se dire que l'optimisation a quand même du bon (même si oui c'est plus facile sur console que sur pc...)
@@hugobogos oui il y aura toujours besoin de matériaux c'est certain, l'optimisation des ressources va devenir/est déjà une nécessité ! Ce que je veux dire c'est avoir les même performances qu'aujourd'hui avec moins de composants/matériaux ! Ça passe par des avancés technologiques forcément parce que si on en utilise autant aujourd'hui c'est qu'on ne sait pas encore faire autrement !
Une des limites Physique, ( je vais faire très simple ) c'est que si on approche trop d'une taille très petite et bien l'isolation entre chaque transistor n'est plus assuré, du coup le courant serais capable de passé d'un transistor a l'autre, alors on peut réduire le voltage pour diminuer les chances que les courant passe d'un transistor a l'autre mes ce n'est pas sans compromis, au final il y aura un moment ou ce sera physiquement plus possible de réduire plus
Alors tout de même attention à ne pas se faire avoir par le marketing du nanometre. Les techno réelles sont plus grosses, c'est du "equivalent" 7 nano, pas du 7 nano. On passe actuellement aux technologies en 3d
vous avez bien avalé le marketing des marques apparemment :D
la limite physique de conductions entre 2 atomes est encore trèèèèèèèèès loin de traverser 2 transistors... vous vous contentez de répéter ce que vous avez lu sur clubic ou numerama je suppose
nous savons, qu'en laboratoire, avec des transistors 3d actuels(ca évolue tout le temps), nous pouvons descendre à une gravure des pistes électriques jusqu'a 0.3 Nm, loin des 7 Nm que l'industrie du grand publique propose
@Mike Datpseudo je suis ingénieur en microelectronique. 0.3 nm c'est 2 atomes de silicium environ, on ne peut pas avoir une grille de longueur 2 atomes, déjà à partir de qqs centaines l'électromigration devient problématique... La "finesse de gravure" des transistors 3D ne correspond plus à une vraie grandeur physique et n'est pas uniforme selon les constructeurs. Historiquement c'était la longueur de la grille du transistor, mais au vu du fait que cette valeur a été utilisée pour du marketing et que tout le monde se base là dessus, il n'y avait pas de moyen de marketer les bénéfices des technologies 3d, donc les marques on commencé à vendre une "densité équivalente à celle qu'on aurait eu si la finesse avait été 7nm" comme "technologie 7nm"
@@laenprogrammation Il s'agira certainement d'utiliser des atomes plus petit que le silicium pour caser plus de transistor, tout simplement
3nm le plus petit possible, après, il faudra faire autrement
Après on peut toujours changer de technologie (diamant, photonique, plasmonique, organique, spintronique, magnonique...) mais c'est vrai qu'en s'approchant des limites thermodynamique et du quantique, à moins de posséder du matériel lourd maintenant la cohérence des particules avec des froids extrême, on va difficilement faire mieux.
Et si maintenant on essayait d'augmenter le ratio {performance}/{énergie consommée}?
Ils le font déjà un Petit peux sur Les alimentation avec les certif gold platinium ect
L'innovation et le progrès sont constant et inarrêtable. De jour en jour, on apprend, retient, refait. Mieux.
Et puis il y a toujours une idée révolutionnaire qui rentre en jeu.
Hâte de revoir cette vidéo dans 10 ans ;)
Léo est seul créateur qui fait des titres aguicheur qui ne m'énervent pas
rée
ce titre qui transpire la passion mdr
mais bon vu que le coté derrière vaut le coup ,c'est plus drôle qu'autre chose en vrai
Tout à fait d'accord ont est plus proche de la fin que du début.
Et effectivement cela ferais beaucoup de bien sûr pas mal de point je pense.
Seul l'avenir nous le dira.
L'un des problèmes majeur reste l'effet tunnel, on commence déjà à voir la limite des transistors et autres composants miniatures de ce côté, simplement car à cette échelle, l'effet tunnel rend les isolants pas si isolant que ça (résumé grossièrement hein..), donc même si demain on inventait des transistors un peu plus petit, on se heurterait à un autre problème de taille.
Non c'est pas insoluble.
À tous ceux qui ont cru que la fin était proche, on est avec vous.
Niquez son watchtime + pouce rouge 😅
La fin est encore loin ne vous en faite pas avec ca.
Justement, je suis inquiet que c'est pas la fin de cette course effrénée à la consommation..
C’est que le début de la fin 😂
Les améliorations dans le future devrais plus se concentresur l'autonomie et la luminosité des téléphones et la baisse des températures/consomation/bruit des pc. Sa serrais plus utile que de chercher à faire des écrans 800fps en 8k. Même s'il est vrais que toujours plus de puissance peut êtres utiles pour les industries d'animations 3d ou autres
Réduire les lourdeurs, optimiser le code, faire comme si on était comme à l'époque où la limite physique était atteignable!
Super la vidéo ! On espère bien que cette course va se calmer pour une baisse des prix!
Léo as-tu entendu parler de l'utilisation de diamants de synthèse ppour la fabrication de transistors ? Cela apparaîtra d'ici 10 ans et je te rassure on est plus loin des limites physiques que ce que tu penses
Récemment, j'ai due changer mon PC..
Mon ancien PC est un vieux modèle auquel j'ai mis une GTX 970. L'ordinateur en elle-même faisait largement le taff, je pouvais jouer à Minecraft, Fortnite, JC3 et j'en passe...
Cependant, due au mise à jours de Windows, l'ordinateur commencait à être lent.. très lent... Trois heure pour pouvoir mettre son mot de passe pour réattendre 3 heure.. (Fun Fact : J'ai due allumer mon PC la veille au soir pour faire des optimisations dessus xD )
J'ai donc commencé à rechercher un autre modèle de PC pour pouvoir faire la même chose (mettre une CG dedans et y jouer) mais je voulais avoir une bonne puissance pas trop chère et un modèle pas vieux sinon même problème dans 3 ans.
Je me suis penché sur les ordinateurs customs et là jackpot ! Avec les bon sites, j'ai pue économisé 400 euros des premiers prix pour ordinateur déjà monté.
J'ai trouvé une boite, une alimentation, une carte mère, un processeur, de la RAM... Bref tout ce qu'il faut pour un ordinateur !
Voici la config que j'ai réussi à me dégoté pour 800 euros (hors frais de livraisons de 50 boules -_- ) :
-boitier : Antec VSK-4000B - USB 3.0 Edition
-alimentation : Corsair CX650F RGB - Bronze - Noir
-RAM : G.Skill Aegis DDR4 2 x 8 Go 3200 MHz CAS 16
-carte mère : ASUS TUF GAMING Z590-PLUS WiFi
-processeur : Intel core i7-11700k
-carte graphique : Nvidia Geforce GTX 970 (il me semble que c'est de Evga)
La carte mère et processeur est un pack commandé chez CSL-computer (galère à commander mais rentable, je vous conseille de passer par Amazon lors du payement).
Pour le boitier, l'alimentation et la RAM, je les ait commandé chez materiel.net (qui m'a aidé à trouvé la config idéal dans mon cas, je recommande ! #jenefaispasdeplacementdeproduit).
Les choses à faire de mon expérience :
-privilégié les packs carte mère/processeur pour un meilleur prix (prix économisé estimé de 150 euros)
-vérifier la compatibilité entre carte mère et RAM (j'ai failli faire l'erreur, donc de perdre 60 euros)
La carte mère que j'ai choisie ne supportait pas la RAM que je voulais réutiliser de mon ancien ordinateur !
-avoir un avis extérieur (une personne qui s'y connait, de votre entourage ou d'une PETITE entreprise, pas de forum, c'est pourris, ce ne sont pas des experts/amateurs confirmés).
-prévoir de la pâte thermique (que je n'ai pas encore acheté 😅 et savoir la mettre)
-si on a une carte graphique performante, la garder ! Donc mon cas, j'ai une GTX 970 qui me suffit largement et qui n'est pas en déséquilibre avec le reste de la config !
-vérifier si les ventilateur pour le processeur / boitier sont fournis (j'ai due vérifier pour être sûre)
Les choses après dans l'avenir :
-nettoyer régulièrement son PC pour faciliter le refroidissement des composants.. (d'ailleurs je devrais le faire avec mon petit PC.. celui que je suis en train d'utiliser.. bref)
-mettre à jours les drivers régulièrement (je conseille d'utiliser le logiciel conseillé des marques des composants, donc si par exemple vous avez une carte graphique Nvidia, installer le logiciels disponible adapté à la situation, un de mes jeux demandait de mettre à jour ma carte :) )
Bref, si ce commentaire vous a aidé, likez le (c'est la première fois que j'écris un pavé dans une commentaire) !
Si vous avez des questions, n'hésiter pas à @YoMiKr pour me le demander et peut être que je vais vous être utile !
C'est avec ce constat là qu'il est temps que les états, car le marché n'en fera rien, dise STOP à la sur consommation. Je pense qu'il est temps pour limiter notre consommation d'allonger drastiquement la durée de vie de nos appareils en obligeant le constructeur à 10 ans de garantie, de reprendre une fois usagé pour assurer le reconditionnement / recyclage.
Ils vendront plus cher, mais moins souvent, donc la balance devrait s'équilibrer. Après, moins de prod = moins d'emploi dans la prod mais le travail en illimité n'est pas possible si les ressources et l'énergie pour travailler sont limités ... Nous sommes à l'Aube d'un nouveau monde à construire pour qu'on puisse garder au maximum l'accès à nos technologies tout en prenant enfin en compte les limites.
Quand on voit ce qu'arrive à produire les DemoMakers de vieilles machines qu'on oserait même plus allumer ... Je pense qu'il est temps de lancer la phase "finale" de la production, réduire la production, il y a toujours un nouveau arrivant sur le marché, développer l'entretient vis à vis de la production (ce qui emploiera peut être plus de monde qu'une chaine de prod).
Je pense qu'on est pas mal en taille d'écran, résolution. Quand je regarde les tests TV de PPWorld, on dépasse les capacités de perceptions, donc arrêtons le marché qui ne sait se contrôler et qui se base sur des modèles économiques avec des ressources infinies car si c'est pas sur Terre, ce sera dans l'espace ...
Bref, il est temps de mettre un frein tout en conservant un max notre niveau de vie qui ne sera pas dégradé si on change pas son téléphone tout les ans.
Google sur son Pixel 7 annonce un suivit de 5 ans ... je pense qu'on peut faire mieux, mais ça montre que la question est dans la tête, il faut donner l'impulsion pour que ce soit une réalité.
Le « n’est-ce pas Apple » de fin de vidéo, il m’a tuez XD. Bon mise à part ça, très bonne vidéo, hyper intéressante, comme d’hab quoi
Personnellement, je ne m'inquiète pas pour Apple... ils ont réussis à infiltrer toutes les cours de récrées, ils ont encore de beaux jours devant eux... un marketing maitrisé...
C'est ce que j'ai vu récemment avec la TLDR. On est sur du 3nm, bientôt 2. Un atome c'est environ 0,4... le calcul est vite fait !
Oh le génie ! Je finis toujours par remarquer les pubs subtiles que tu glisses dans les speechs. En tout cas c'est cool, et j'apprends beaucoup, surtout sur la tech. Merci Loe !
subtiles ?
Un vrai français qui parle de technologie. Il y a une raison pourquoi je recherche et je regarde tout en anglais depuis plus de 15 ans.
Ce serait bien que ça nous permette de sortir de la boucle mais j'pense que les lobbies ont trop peux d'intérêt a le faire et comme y aura toujours de gens assez "bête" pour foncer sur toutes les dernières"nouveautés" juste pcq ça vient de sortir bah je pense pas que ce soit pour bientôt. En plus comme tu l'as dit certains essayent même de ralentir l'arrivée de cette limite en gardant des nouveautés pour plus tard. En tout cas très bonne vidéo comme d'hab merci 👌👍
Très bonne vidéo, c’est un résumé, c’est bien le contexte actuel ! Personnellement, je me suis arrêté à l’iPhone 11 Pro Max qui condense déjà pas mal de choses et d’innovation et qui seront difficile d’améliorer en : qualité d’écran, rapidité, etc. et a mon avis sur les smartphones le seul point, a vraiment améliorer c’est la qualité photo est… La fonction téléphone parce que franchement encore aujourd’hui c’est une plaie parfois pour téléphoner. Quant aux ordinateurs, et ça fait un moment que je nupgrade plus j’ai surtout fait évoluer ma façon de jouer que ce soit en Cloud computing, ou en résolution d’écran. Par exemple j’utilise beaucoup le Steam deck sur lequel je n’ai pas besoin d’avoir une résolution folle. Évidemment ce petit appareil mérite largement d’évoluer, mais c’est sur ce genre de technologie, que j’ai envie d’investir et pas sur une carte graphique à 3000 balles qui me fera gagner 15 FPS quand j’en ai déjà 70
Tu dis qu’on ne pourra pas dépasser la technologie actuelle ou presque mais il y’a 20 ans, si tu posais la même question à n’importe qui, il ne pourrait pas te répondre, on ne peut pas vraiment prévoir ou la technologie peut nous mener. Peut-être que dans 5-10 ans on aura de nouvelles technologies dont on ne pourra se passer et on se dira que l’on imaginait pas du tout le futur de la tech comme ça, c’est va la beauté des avancées technologiques !!
bonne vidéo! bien aimé la partie sur les limites physiques.
9:08 ce que faisait mon smartphone y a 10 ans :
- infra rouge pour piloter ma clim
et pour ce que j avais pas :
- camera thermique intégrée ( trop peu de marques le.font, juste 3 dans le monde )
- module radio universel ( pour les porte de garage )
- RFID 125k ( portes d immeuble premier prix )
- zigbee
- DECT (ça se fait, mais très rare )
- double Sim double data ( impossible de recevoir les MMS sur la.Sim secondaire avec aucun de mes dual SIM)
- module de charge wireless ou X-Connector ( crosscall) de série dans tous les téléphone , sans devoir les modifier à la main.
- un Android qui accepte à nouveau la fusion d extension de mémoire
- l utilisation de l accéléromètre pour extrapoler la vitesse et donc la position quand le module GPS ne capte pas , et corriger en temps réel court la position dans les intersections
- des batteries de téléphone hot swap par paire (faut avoir utilisé des pc portable Dell pour comprendre le plaisir de bénéficier de deux batteries internes qu'on peut remplacer à tour de rôle tant qu'on en a des chargées dans le sac ) . Après tu me dira que c est peu pertinent quand on dispose de la X-Battery de Crosscall avec le X-Clip approprié ... ce qui nous ramène à la nécessité d avoir le X-Connector sur tous les téléphones.
voilà pour le hard.
Après y a le soft. Je pouvais faire beaucoup plus de choses sur Android 4 que tous mes téléphones ultérieurs. depuis Android 6 ça régresse sévèrement.
le fait est que le PC en forme de tour disparait rapidement au profit du smartphone, la tour n'est plus utilisée que par une petite frange de geek, au bureau le portable l'a remplacé, et est en train d'être remplacé lui-même par une tablette en version mobile ou un smartphone + écran géant à la maison.
la capacité de calcul n'est plus un souci sauf cas particuliers, et les processeurs graphiques seront intégrés aux écrans pour offrir la meilleure fluidité possible.
quand une technologie atteint sa limite de développement c'est qu'elle prépare l'arrivée d'une autre. j'ignore quelle sera la prochaine, peut-être poussée par une réduction drastique de la conso électrique devenant impayable ? ou une disparition pure et simple de l'informatique par manque de courant.
on a dépassé l'apogée dans pas mal de domaines, santé, éducation, libertés, déplacements, l'informatique suivra.
J'ai connus également les début du hardware et je confirme on commence à atteindre les limites le monde de la TV est le plus flagrant =)
En 2019 apparaissaient des articles parlant des écrans microled sur des revues personnalisées. Sachant que la plupart des sources utilisées aujourd'hui n'arrivent même pas au 4k, arriver à un niveau pareil de technologie revient tout simplement au gadget et à l'ego :)
Un truc que j'attends d'un smartphone, c'est de mieux capter et une autonomie beaucoup plus importante.
Niveau autres caractéristiques, on a assez de choix.
Le raytracing n'était pas utilisé sur le premier Toy story ( c'est ce qui donne ces ombres très grisâtres), parce qu'à l'époque le temps de rendu en raytracing était de 26 heures par image ( en 24 images par seconde pour un long métrage, je vous laisse faire le calcul ).
D'ailleurs, entre ce qu'on appelle le RTX dans les jeux vidéos et le vrai raytracing présent sur les moteurs de rendus pré calculé, il y a encore énormément de chemin à faire.
Sérieux?!?!?! genre un rendu fait instantanément n'a pas la meme qualité qu'un rendu de 20h, ah ben mince, j'aurais jamais pensé, tu dois etre un génie toi, va te faire décelé, ça va changé le monde.
@@Dieucreateuruniversel Bah le marketing de NVIDIA laisse supposer que c'est le cas. J'ai été sceptique du RTX dès le début, surtout que les comparaisons paraissaient artificiellement avantageuses.
C'est surtout pour dire qu'on a encore de la marge pour l'évolution graphique dans les jeux vidéos, par contre ça risque d'être de plus en plus lent désormais
J'espère juste que les prix vont belle et bien baisser quand on arrivera très proche de la limite, que ce soit vraiment plus accessible de s'acheter un PC :)
Avec la rarification des terres rares je ne pense pas
Et puis même après avoir atteint cette limite on pourra quand même faire des progrès dans l'accessibilité.
Ce qui est chère aujourd'hui ne le sera peut-être pas demain
Tu as pas totalement tort, mais je me demande vraiment comment il pourrait améliorer cette accessibilité car pour le moment c'est pas gagné
Le problème c'est qu'il y a une limite physique aux minerais extractibles et que ça va devenir de plus en plus cher d'extraire du minerai. Donc ne compte là dessus...
@@hugobogos En fait, le prix peut rester stable jusqu'à épuisement de la ressource. On ne verra jamais les prix monter en flèche, ils resteront haut et à un moment, il n'y aura juste plus de disponibilité. C'est comme ça que se produit une pénurie sur un marché.
@@LeFacteurK donc d'après toi les extracteurs de minerais seraient prêt à réduire leurs marges ?
Leo il pousse de la fonte c'est sûr, j'me rappelle pas de tes épaules aussi carré, Bien vu ça va bien ! :D
Un des problèmes avec la miniaturisation est d'arriver à pouvoir miniaturiser les transistor qui s'ils sont trop petits vont laisser passer le courant que le transistor soit ouvert ou fermé pour faire simple !
On ne pourra pas faire (sur le systeme binaire) plus petit que l'électon, ça c'est sur.
Je vois le bon côté des choses, dans les années 2000 un PC de 3/4ans c'était complétement dépassé, même pour un usage basique et ça coûtait relativement cher. Maintenant on peut quand même conserver les machines plus longtemps si on est pas joueur.
Pour un usage basique un pc de 10 ans peut encore tenir la route je trouve, surtout si tu lui glisses un p'tit linux :p
@@tecmons Oui pour j'ai un pc de 2012 sous Manjaro, il est encore parfaitement utilisable pour aller sur internet et se connecter sur des serveurs en ssh
Ce que je veux de plus sur mon smartphone ?
+D'autonomie quand je suis dehors
+Recharge sans fil a distance via laser ou rayon IR.
+De puissance pour effectivement correspondre a mon PC
+De mémoire, dans l'ordre des To et non des Go
+De ram au passage
Une meilleure ergonomie et réactivité sur certains truc, et certaines fonctions qui devraient être évidente ; plus de contrôle sur certains aspects aussi ...
+De fiabilité (j'ai eu 3 tel en 10 ans, les deux premiers ont fait 4-5 ans)
Parmis d'autre
je pense qu'en vrai, quand notre civilisation passera à 1 sur l'échelle de Kardashev on pourra outre passer certaines limites qui nous pose problème à l'heure actuelle.
C fascinant mais ça fait peur.
D'ailleurs tu devrais en parler de cette échelle.
C une dinguerie, et ça explique pas mal de choses.
Connais absolument pas, merci de l'info 👌
Il existe aussi une échelle inverse, a l'échelle microscopique mais je sais plus son nom, la chaîne the flares en parle je crois
Je n'ai jamais vu de ma vie une op aussi bien introduit et de manière si normal mdr je suis choqué 10:17
Donc si j'achète un bon PC a 1200 euros en 2023 il me tiendra plus longtemps dans le temps que si javais acheté un bon pc au meme budget en par exemple 2000 on est d'accord ?
Bien’vu! Mon étudiant ingénieur chez intel processeur en asie affirme en 2012: on atteint les liltes du physiquement possible la suite sera les bio tech.
Bah pour le coup la verité de cette vidéo m'a donné envie de m'abonner :) merci !
Dit où dite c’est plus worth de payer une radeon ? Y’a pas de soucis de compatibilité pour l’es écran ? Et les drivers y’a un logiciel comme geforce experience ?
Au delà des limites technologiques, il faut aussi prendre en considération les limites en termes de besoins, la question : a t-on vraiment besoin d'un ordinateur quantique pour jouer ou faire de la bureautique ?
Franchement, le PC portable que j'ai acheté en 2015 était une bête de guerre et faut être honnête, il tient carrément bien la route encore aujourd'hui sauf pour certains gros jeux mais pour 90% des choses que je faisais avec, ça allait, je parle au passé car je l'ao offert à mon neveu pour qu'il s'initie à l'informatique.
Et aux limites de ces besoins, les vraies limites, physique, de l'extraction de ressource nécessaires pour parvenir à produire tout cela. On arrive au bout, doucement, sûrement, continuer à produire sans se préoccuper de cet aspect, ça veut dire ouvrir des sites miniers supplémentaires. A voir les contenus proposé par Aurore Stéphant de Systex sur la question, c'est très éclairant.
Moi ce qui me dérange dans les cartes graphiques actuelles déjà le prix exorbitant et ensuite la consommation(normal aujourd'hui d'acheter une CG 800 euros et une alim 800W) . Hors de question d'acheter une carte dernière génération et encore moins une nouvelle alimentation(500w pour moi pas plus) car ca consomme de plus en plus alors que il y a peu ca consommait justement de moins en moins.
Je suis d'accord avec toi, d'ailleurs le multi cheap est une des solutions avec le stack du cache pour les processeurs encore aujourd'hui en gaming le 5800X3D reste excellent j'ai hâte de voir la suite en 7000. Et si on atteint les limites en gravure rien n'empêche de faire des CM en multi CPU pour toujours augmenter le rendement et voir la même chose en gpu dans un futur plus ou moins loin avec une amélioration en communication entre chaque GPU.
pour le GPU ça existe déjà c'est SLI je croie... mais sait pas si sa double vraiment la puissance/rapidité de la 1er
Faut surtout se dire que les matériaux sont limités. Même si on arrive à créer une technologie de ouf, on pourra pas aller bien loin et ce sera de moins en moins accessible tant ce sera cher et hors stock.
Sauf à ouvrir de nouveaux site miniers, ce qui serait à chaque fois une catastrophe de plus pour l'Humanité. On ne dépollue pas une mine, on l'abandonne une fois épuisée.
Avec le supercalculateur classique connecté à un calculateur quantique on est peut être au bord d'une nouvelle révolution qui redonnera une bonne grosse marge aux possibilités d'amélioration dans quelques années.
N’Oublie pas que le futur de l’ordinateur c’est le Quantique ! Des 0 et des 1 combiné et plus de binaire comme on le connaît.
Nan mais c'est pas le soucis de faire des transistors plus ptit ou de vérifié des regles de Moore, y'a juste pas de ressources naturelles infinies les gars
C'est comme les voiture on a fait beaucoup de progrès en 15 ans ( exemple 1.6 en 1995 56 cv en 20051.6 hdi 110 cv et aujourd'hui presque 200cv mais a quoi avoir plus pourquoi faire ? )
Je ne suis pas sur de la faisabilité de ce que j'avais entendu, mais on m'avait dit que les processeurs (hors quantique) avaient encore une grande marge de progression (contrairement à ce que l'on pourrait penser) avec des couches de silicium empilés par exemple (problème de chaleur à résoudre), mais aussi avec des systèmes de "refroidissement" complexes, car ce qui limite l'amélioration d'un processeur dans 99% des cas et la chaleur émise par cette amélioration (multi-couches, augmentation de la fréquence de l'horloge...).
Et dans les architectures "nouvelles" (par exemple mémoire intégrée au cellule du processeur).
Enfin bref, je m'arrête là, car je ne maitrise pas trop la physique avancée des ordinateurs et je ne veux pas dire de bêtises. Mais je trouve ta vidéo un peu décevante du fait que tes propos ne sont pas assez nuancé (selon moi).
La technologie est mature ! Mais c’est vrai que le changement d’architecture joue pas mal dans la balance également, regardez les nouvelles puces ARM d’Apple . ( une petite ouverture sur l’informatique quantique aurait été bien venue )
Ce qui est sûr c'est que ça fait très longtemps qu'on n'a plus de véritables améliorations comme "avant". Pour mémoire le processeur intel 486 dx2 est sorti en 1992. Il était cadencé à 66 Mhz. 8 ans plus tard (en 2000 donc) sortait le pentium 4 cadencé à 3,8 Ghz... Soit 60 fois plus rapide... On n'a pas du tout ce genre de gap entre 2010 et 2020...
Ben si nvidia 580/4090ti = ×60
@@tomaspavka2014 La GTX 580 étant sorti en 2010 il faudrait prendre la RTX 2080 TI pour comparer sur la même durée (8 ans). Et la on voit que la fréquence du processeur a "seulement" doublé, et qu'il n'y a que 4x plus d'unités de calculs dans la RTX2080 par rapport à la 580. Les benchs confirment également que la RTX 2080 TI est "seulement" 5 fois plus rapide que la GTX 580... Donc je confirme, d'autant plus ces 10 dernières années on ne voie plus d'évolution aussi rapide que dans les années 90/2000... Pour moi c'est simple le palier a été atteint quand Intel a sortie sa gamme Core 2... Ils ont camouflé les limites technologiques en faisant rentrer plus de "coeurs" dans un processeur.
@@marmotteIDE je m'étais exactement fait cette remarque à l'époque ..Pourquoi rajouter encore plus! On a aussi vu des cartes graphiques devenir grandes...avec de gros ventilos...je trouve que c'est l'évolution la plus visible. De cette poussée des puissances sans vraies innovations, juste des puissances de calcul. Les watercooling sont aussi apparus mais de manière industrielle alors qu'avant c'était une niche le watercooling. En gros si aujourd'hui on veut 5 ou 6 fois les perfs de la 4090ti. Celle ci fera quelle taille donc en 2030?
Bientôt je rabotte mon appart pour la faire rentrer comment ça se passe ?
@@MrRahff06 Je crois qu'Nvidia s'est tiré une balle dans le pied tout seul en affichant que la 4070TI pouvait faire tourner de la 8k à 240Hz... Si c'est vrai ça veut bien dire qu'absolument personne n'a besoin de cette carte graphique pour jouer à un jeu vidéo... ^^
je pense que tu à raison mais il y a pas que ça, le coût des jeux vidéo à atteint c'est limite entre investissement et rentabilité.
Un Red dead rédemption 2 avec 944 millions de budget je pense qu'on le verra plus jamais même cher rockstar lui même !!!
on le vois bien en se moment en dehors des gros triple AAA on reviens sur les graphismes moin réaliste avec une DA beaucoup plus mis en avant, tu en pense quoi ?
Il y a des limites mais comme à chaque fois une nouvelle technologie sera découverte. C'est un peu comme un moteur à combustion ou on disait atteindre la limite mais aujourd'hui il y a les moteurs électriques qui ont une marge de développement.
Beurk
La prochaine étape c'est l'ordinateur quantique :) ont trouveras bien, un jour, le moyen d'adapter un ordinateur quantique pour que sa puisse se trouver dans n'importe quelle foyer a prix correct
Avec quelle matière première? Vous pensez pouvoir encore équiper tous les foyers, à nouveau? Bienvenue dans le monde physique, il faudrait déjà extraire autant que depuis l'Antiquité pour répondre au remplacement vers l'électrique du parc automobile. C'est de la folie pure.
j'ai eu la peur de ma vie en voyant le titre de la vidéo , je pensais que t'arretais les vidéos , cher Leo .
SI la clientèle reste (ou devient dans certain secteurs) exigeante, on ne verra pas les limites avant un très très long moment :
Déjà parce que les puissances brutes et perfs matérielles continues d'augmenter quand même; mais surtout parce que l'optimisation est vraiment affreuse. Des softs bouclent inutilement, des ressources sont allouées sans raison, la rom est pleine de doublons. J'ai participé avec une équipe au taff à l'analyse d'un serveur et de ses installations; sous win2019: 70% de conso électrique, 65% de la charge processeur, 80% des sollicitations disque et 45% du Traffic réseau non sollicité par un user, peuvent être évité par l'optimisation. Pour l'espace disque, il faudrait décompresser et lister l'intégralité des fichiers d'installation de chaque soft pour estimer le gains sur une mutualisation ... Un travail colossal pour un chiffre que ne veut rien dire, puisque le parc logiciel peut fortement varier. Mais L'inclusion d'une bibliothèque commune ferait déjà des miracles. Pour la RAM, déjà plus elle est pleine mieux c'est .... Bah du coup 80% de RAM inutilisée en moyenne, ça ne va pas. Mais vider la RAM pour faire de la place c'est la base ... Win2019 se débrouille mieux que win10 ou 11 mais ce n'est quand même pas top; de gros ralentissement, des pics Disque et processeurs pour libérer 1G de RAM pleine? un srv linux fait ça fluidement avec presque n'importe quelle config ... depuis 2005 !!
Si les users exigent des softs, des OS, des jeux finement finalisés et optimisés; si le matériel reste figé 4 ou 5 ans, la qualité effectivement disponible à l'utilisation continuera d'augmenter sans problème. Voir même : Si un fournisseur arrive sur le marché avec du soft ultra optimisé pour un matériel qu'il maitrise et se met en tête de chasser la moindre perf perdue et conso inutile pour faire du produit pas cher (matériel avec peu d'évolution) mais ultra qualitatif; Alors ça peut tout changer et tout accélérer et provoquer une évolution brutale; encore plus que lorsque l'on est passé aux multicore x64. Alors quel fournisseur?
Bah je sais pas; sinon je virerai déjà mon salaire en bourse. Microsoft a eu cette position; ils n'avait clairement pas les épaules et ont foirer à plus d'un titre. Apple est aussi dans cette voie mais ne percera pas. (Non Apple n'a pas "percé" en ce qui concerne un redéfinition de l'industrie. Appel, c'est comme mercedes, ils font des trucs marrant, qui plaisent en promettant une revolution laser du turfu toutes les 5 minutes; 2-3ans plus tard on rajoute un capteur photo désactivé parce qu'il ont lancé une mode. Une mode ce n'est pas un changement de paradigme). En fait, Intel et AMD pourraient prétendre à ce genre de position, NVidia non; ils ont une mentalité à la Apple justement.
Mais ouai, un OS AMD ou Intel Avec un Environnement calibré pour leur matériel et du développement interne + seal of quality (ou un truc dans le même esprit) pour les quelques tiers triés sur le volet; ça peut complètement redéfinir le marché. Quand un pc à 500€ opti fera autant qu'un pc à 1600€ pour 3fois moins d'énergie; les consommateurs suivront, du coup, toute l'industrie.
Il faut se souvenir qu'on atteint la limite dans un domaine spécial. Bien qu'on ai, par exemple, exploré le maximum d'innovation pour les processeurs x86 il reste beaucoup d'autres choses comme les processeurs arm, risc-V avec des architectures matérielles et logicielles totalement différente qui n'attendent qu'à être explorée. Personnellement j'ai aussi espoir dans les ordinateurs quantiques qui, si il réussissent, ça sera un retour a la case départ avec des évolution démentes
On approche des limites du nombre de processeurs sur une puce, et les usages qu'on a de ces puces sont relativement cadrés. d'ailleurs, il y a une autre réalité qui va borner, en plus de la taille des transistors, c'est la vitesse de la lumière, donc les longueurs de pistes, qui va limiter les débits et donc le traitement d'informations. donc oui, l'informatique telle qu'on la connaît est sur la fin de son évolution. dans la technologie telle qu'on la connaît. peut-être arriveront-ils à faire des étages de transistors, et des puces "dans le volume" (là c'est encore plan), ce qui prolongera peut-être un peu cette évolution, mais guère. mais la loi de Moore, c'est presque plus large que ça. aujourd'hui, on a des smartphones, et des ordinateurs (dont tu décris les particularités mieux que moi) mais demain, qui sait quels objets on pourrait avoir, avec leur utilité. c'est très clair que la "densité volumique en transistors" des puces qui seront dedans n'augmentera pas, comme tu dis, la physique est pas très conciliante. en revanche ce sera le début d'un nouvel arc technologique.
Pour illustrer mon propos:
- il y a 250 ans, il y avait un télégraphe, ça faisait un son, et il fallait un copiste de chaque côté pour noter les longueurs de bip et retranscrire. l'usage était très peu répandu, et réservé à une élite (et à l'armée).
- ensuite est arrivé le téléphone filaire avec un système de standards téléphonique, où c'étaient des humains qui jouaient le rôle du routeur. t'appelais le standard de ton coin, qui se débrouillait pour te relier au standard du coin de ton destinataire, via un câble jack, etc... toujours cher, franchement pas pratique, et pas très démocratisé. mais un peu plus...
- plus tard, c'est devenu automatique, et est arrivée la composition du numéro à l'aide de 10 touches. là c'était enfin dans tous les foyers.
- puis le réseau cellulaire, puis diverses évolution jusqu'à la 5G, avec des smartphones, pour regarder des vidéos de chat en 4k sur des écrans de 6 pouces, et dans le train.
en fait la loi de moore, c'est surtout la loi de la démocratisation d'une technologie. toi tu parles de la démocratisation du transistor.
Ça faire peur de savoir que tout a une fin qu’on va tous mourir
Très belle vidéo qui remet les idées enplac pour. Montrer que la thequnologie a des limites physiques (enfin matériel)
Leo qui fait un clin d'oeil à Sonic Frontiers, quel plaisir
Bahhhhh les limites sont ce à quoi on peut consacrer notre temps....perso j'ai figé ma config à un pc gamer de 2017-2019, il me permet de jouer à environ 20 ans de jeux vidéos au maxi de leur rendu et j'ai le choix parmi les centaines de meilleurs titres AAAAAAAAAA de l'histoire. Fini l'upgrade, la qualité est dans les jeux plus dans le matos avec les jeux d'aujourd'hui. J'attends, comme de nombreux joueurs historiques, LA révolution qui ne passe pas par le nombre de fps ou le seul rendu graphique. Un jeu, c'est un ensemble, un tout, une émotion....
d'accord! c'est très pertinent! je fais encore tourner plein de jeux en 2K avec un i7 6700k et une 1070gtx.
Salut, n’arrêtez jamais d’apprendre !
On apprends rien dans cette vidéo, c'est assez dingue.
C'est un avis. Mais surtout une pub de 12 min bien camouflée.
Je commente juste parce que, au moins, il y a l'honnêteté de le dire au début. Même si ca n'annonce pas que ce sera 12 min d'encart publicitaire.
Les celulaires sont déjà appeler à disparaitre pour laisser place au lunettes ou lentilles de réalité augmenter qui offriront toute les mêmes capacités qu'un celulaire voir plus, pareil pour les écran télévisé qui deviendront inutile rendu là
6:00 💐
À part mes félicitations à LISA SU, elles vont aussi à Léo. En plus du bon sens, enfin quelqu'un qui sait parler sans répéter sans fin "en fait", "genre", "du coup", bref je kiff.. Abonné!
Personnellement je pense qu'en ce qui concerne le gaming aller au delà de la 4K 144hz n'est pas très intéressant, le 240hz et la 360hz sont uniquement utiles aux joueurs e-sport.
Par ailleurs la 1080p reste une résolution très agréable, c'est aussi une question d'habitude. C'est sûr que si on s'habitue à la 4K, la vision s'affine et voit plus facilement les différences avec les résolutions inférieures mais en a on vraiment besoin ?
Au delà des limites des dimensions des puces, la planète et ses ressources ont des limites, donc même dans le monde de tech, ça serait intelligent d'avoir un peu de sobriété je pense.
Selon moi la prochaine évolution majeure du PC sera soit les ordinateurs quantique soit des ordinateurs qui utilisent de la lumière à la place de l’électricité
Lol les gens qui découvrent que les lois physiques et les limites physiques existent, et que la loi de Moore est finie alors que ça fait 10 ans je l'ai compris
Il va falloir réaliser que nous avons vécu une époque exceptionnelle et que maintenant la fête est finie.
Oh tiens le partenariat, c'est la faute à la nouvelle Tesla de Léo ça !
Totalement d'accord avec toi.
L’innovation maintenant sera non pas d'augmenter la puissance des processeurs (cpu et gpu) en réduisant la taille de leur gravure (donc en augmentant le nombre de transistors par mm²), et/ou en augmentant leur fréquence, ce qui aura pour effet d'augmenter leur consommation énergétique, mais de faire le contraire de ce dernier point : diminuer la consommation en gardant la taille de leur gravure et la fréquence.
Et la planète ne pourra que nous en remercier !
Je pense pas que c le matériel qui va énormément évoluer... Je pense que dans 20 ans on fera un x2 pas plus...mais que ça risque de énormément évoluer logicielement parlant.
Je pense qu'il risque d'y avoir des
Fusion entre plusieurs plateforme... (Arm ... X86 quantiques... )
Je pense que la vrais amélioration c le e-learning... Virtualisation... De plusieurs machine et plateforme.
La puissance ça va devenir abstrait. Chacun payera pour avoir ça doses de puissance. Suivant son besoin. Et Surtout quand on voit les prix des technologies maintenant. Qui n'est pas forcément donner pour tout le monde de s'offrir un sli de 4090
Je dit pas que ça sera réserver a une certaine catégorie de perssone. Je dit juste que BC de gens aurons pas besoin de le procédé chez eux ... Pour en avoir l'usage grâce à la fibre la virtualisation. Le stream. Tout le monde aurais accès en payant l'usage sur le moment.
Fin je c pas si tu vois ce que je veux dire Léo. Mais je pense que l'évolution sera plus logiciel que matériel.
Ça fait 7 ans que je vois des vidéos sur la fin de la loi de Moore mdrr
6:58 n’exagère pas, ff7 a 25 ans. Si tu veux une image honnête c'est plus avec FF X-2 qui aura 20 ans mars prochain.
Après pour certain jeu comme Pokémon il y a de la marge encore niveau évolution 😂
Ça tire a balle réelle ici 🤣
Je viens d'acheter la gaming x trop en version rx6750xt et c'est un grand monstre et j'attends ma nouvelle alimentation pour la tester.
La fin n’est pas pour tout de suite avec les ordinateurs quantiques, ils vont tous se concentré dessus, des grosses boites s’y ont déjà mis. Bien sûr ce n’est pas pour le particulier mais quand on sais ce que ça peux et effectué un calcul qui, sur nos machines actuelles mettrait quelques années, avec l’ordinateur quantique 2 seconde suffirait. Ça fait même peur, parce que la sécurité de nos machines sécurisées aes 256 bits n’emmène pas large, fasse à ces montres de technologies. J’espère que cette technologie ne tombera jamais entre de mauvaise mains. J’ai tout de même hâte de voir la suite…
Tu as complètement raison mec on approche du début de la fin (toujours plus avec moins.!!).A quand le big bang.😁😁
Je n'en peux vraiment plus de tes vidéos, le ton, les titres putuclic et j'en passe. Bonne continuation 👋
Il serait temps que les concepteurs de jeu et leurs programmeurs recommencent à optimiser leur code! La loi de Moore stipule que les ordinateurs voient doubler leur puissance tous les 18 mois (et non deux ans) sauf que cette loi ne tient déjà plus. Si on est obligé d'ajouter un plus grand nombre de "core" et de "chips", c'est donc que l'on a atteint la limite physique, ou presque. Très bientôt, les améliorations de performances ne seront plus possibles que par l'optimisation du code des logiciels. En fait, il existe encore une possibilité d'améliorer physiquement la puissance du matos : Les processeurs quantiques.
à mon avis l'évolution est très très loin d'être finit elle est peut être même infinie car l'humanité trouvera toujours une solution car il y en a toujours une. Le nombre de fois que l'humanité a cru qu'on avait finit l'évolution (notamment au Moyen Age ) c'est juste une histoire de patience ne vous en faite pas👍
Le problème actuel de nos téléphones, c'est le manque de stockage (à des prix raisonnables). Tant qu'on aura pas tous des téléphones avec 100 To de stockage pour pas se faire chier à devoir gérer ça, je serai pas satisfait
haha tous les tacles dans la vidéo, Fortnite, les consoleux, Apple , bref, vidéo parfaite :)
La limite sur les écrans OUI MAIS on est encore infiniment loin de la limite VR (clin d œil a SAO)
Mon youtubeur preff enfin la nouvelle vidéo
Hello
Moi ce que je voudrais avec mon téléphone, ce serait une station d'accueil pour brancher un écran clavier souris et pouvoir utiliser la puissance de calcul du téléphone comme un PC.
Et sincèrement pour ce que je fais avec mon PC ce serait largement suffisant !!
Un titre en rapport avec tes vidéo ce serait pas mal...
Pokémon est l'exception qui confirme toute la vidéo sheesh
Puisque le hardware à atteint sa limite, j'ai bien peur qu'ils vont se tourner sur du software et nous compliquer la vie avec un abonnement sur chaque fonction comme de vrai tarrées. Déjà Intel et Nvidia pourrais vraiment brider les performances et nous faire payer un abonnement si ils veulent puisqu'il s'agit de leur propriété. Mais pour nous c'est un problème.
Bien pour ça que je suis un grd défenseur de l'open hardware.
Déjà le coût en recherche va devenir tellement important que quasiment aucun acteur ne pourra réellement développer de nouvelles techno tt seul...
Et ensuite pour garantir une vraie propriété et une liberté d'usage de son matériel...
En vrai les limites physiques sont indéniables mais on est pas obligé d'être en stagnation. Avec de l'imagination on peut progresser sur comment réutiliser ces limites.
Quoi de mieux sur un téléphone ? Permettre de le recharger grâce au solaire. Un meilleur tôt de rafraîchissement + meilleur processeur /ram
En tout cas avec la console, petit à petit les chose évolue en graphisme et perf, et honnêtement allez déboursé sans cesse des config à 2000€ pour frimé avec des graphismes, à vrai dire c'est pas vraiment l'essentiel, ce qui est bien avec l'évolution ces la surprise, car sinon on serait déjà blasé d'être au maximum des capacité technologique rappelant ainsi qui ne sert à rien de courir et de ce laissez immergé progressivement dans le progrès.
La loi de Moore n’est pas prêt d’être finie quand aux nombres de pubs que tu insère dans tes vidéos et qui doublent tous les deux ans.
8:18 Pas d'accord du tout, ce qui fait le réalisme au niveau visuel, c'est la lumière, pas trouze milliards de polygones. Alors si, ça va changer beaucoup de trucs. Les vieux jeux en mode RTX avec ombres, réflexions et lumière réaliste arrachent la rétine plutôt bien.
T'a pas le droit de faire des titres comme ca , j'ai fais une crise de coeur 😂😭