I.A. - Formations, débouchés, projets concrets et évolutions en 2024

Поделиться
HTML-код
  • Опубликовано: 27 апр 2024
  • Alexandre Quemy, docteur en Machine Learning, détaille les travaux et défis des chercheurs / ingénieurs en Machine Learning en 2024.
    💪 Soutenir la chaine via tipeee :
    fr.tipeee.com/codeconcept
    🚀 Plus de 40 formations pour 25 €/mois SANS engagement de durée 🚀
    codeconcept.teachable.com/
    Liens cités dans la vidéo :
    Alexandre Quemy
    / aquemy
    Contrôler la propagation des erreurs de calculs numériques
    www.aquemy.info/2016-05-23-co...
    Microsoft AutoGen
    www.microsoft.com/en-us/resea...
    L’IA qui hallucine de la jurisprudence
    theconversation.com/ai-is-cre...
    AI getting dumber?
    community.openai.com/t/is-the...
    Multimodal generative AI
    ai.meta.com/tools/system-card...
  • НаукаНаука

Комментарии • 43

  • @djcaesar9114
    @djcaesar9114 2 месяца назад +2

    C'est quelqu'un de très bien, cet homme.

  • @fatimata_pro
    @fatimata_pro 2 месяца назад +1

    Merci pour cet entretien, j'ai appris plein de choses 🙏

  • @maloukemallouke9735
    @maloukemallouke9735 2 месяца назад +3

    Merci pour la vidéo,
    Merci Alexandre

  • @phennryr1216
    @phennryr1216 2 месяца назад +5

    Super interview un très grand merci pour cette vidéo!!

    • @codeconcept
      @codeconcept  2 месяца назад

      Merci ! C'était un plaisir d'avoir un témoignage de première main.

  • @manuelminana4826
    @manuelminana4826 2 месяца назад +2

    La meilleur vidéo de la chaine selon moi

    • @codeconcept
      @codeconcept  2 месяца назад

      Bon et bah, ça met la pression pour les prochaines vidéos 😄

  • @atha5469
    @atha5469 2 месяца назад +1

    Merci belle interview !

  •  Месяц назад +1

    Je découvre la chaîne ! merci pour ces contenus.

  • @antonzizic3483
    @antonzizic3483 Месяц назад +1

    chouette video !! merci beaucoup :)

  • @capeitalist6963
    @capeitalist6963 2 месяца назад +2

    Pour le coût des cartes graphiques, il existe la rtx 3090 qui possède également 24GO de VRAM et qui peut se trouver d'occasion pour 700euros. C'est un budget, mais un budget nettement moins élevé que les 4000 euros annoncés (la 4090 ne coute d'ailleurs pas 4000 euros, mais plutôt 1800).

    • @alexandrequemy
      @alexandrequemy 2 месяца назад +2

      Effectivement! J'avais en tete la RTX 5000 ADA 32GB, laquelle j'avais compare a la RTX 4090 24GB pour le choix de ma station de travail. :-)

  • @didier..n..1567
    @didier..n..1567 2 месяца назад +1

    Bonjour Samir
    Super intéressant Alexandre sur la vision qu'il à avec l' I.A , une vision équilibrée,
    et pas bullshit ..
    PS : Et comme la si bien dit , Alexandre que je dit depuis un bail la "FORMATION' mais c'est 💲💲💵💵. Le Nerf de la guerre..

    • @codeconcept
      @codeconcept  2 месяца назад

      Bonjour Didier 😀
      et oui, le point de vue de quelqu'un du métier est tout de suite plus nuancé et riche. Mais ça fait moins le buzz qu'une vision idéalisée 👼, ou à l'opposé, cauchemardesque 👹

  • @naturo_yatangaki
    @naturo_yatangaki 2 месяца назад +3

    La barre à l'entrée va augmenter mais ça c'était le cas avant les IA. Tant que quelqu'un (ou quelque chose) fait mieux avec autant voire moins de moyens, les autres resteront sur la paille.

    • @codeconcept
      @codeconcept  2 месяца назад +1

      Est-ce que ça sera tenable sur la durée ? Car même pour ceux qui passeront la barre d'entrée, si tous les postes deviennent exclusivement et tout le temps consacrés à des problèmes ardus, ça peut finir par causer pas mal de burnout. Il n'est probablement pas possible d'être toujours à fond.
      Dans tous les métiers, il y a des tâches de difficulté et d'intensité variables. Si aux humains ne restent plus que les tâches difficiles, il va falloir doper les survivants 😄💉

  • @radioduthe
    @radioduthe 2 месяца назад +1

    Très intéressant, proche de ce que je pense.
    Notamment sur le fait que les IA se chargent de gérer les taches simples et nous laissent les taches plus "complexes"...
    Par contre, sur le fait que les LLM régresseraient et que tout le monde l’a constaté.
    Je n’ai vraiment pas ce sentiment...

    • @codeconcept
      @codeconcept  2 месяца назад

      @radioduthe Pas tout le monde en fait, mais j'ai vu quelques commentaires sur la chaîne de devs qui avaient pourtant des versions payantes de ChatGPT ou Copilot. Suite à ça, j'ai cherché sur internet pour voir si c'était le cas pour d'autres utilisateurs de longues date et malheureusement, c'était le cas. Affaire à suivre 😀

    • @Decentraliseur
      @Decentraliseur 2 месяца назад

      J'utilise ChatGPT Plus massivement depuis novembre 2022, et je confirme que les performances de GPT 4 ont drastiquement diminué durant 2023. Par contre depuis la dernière maj de mi avril, les performances ont augmenté a nouveau. Difficile de dire si elles sont au meme niveau qu'auparavant

  • @Pubelle
    @Pubelle 2 месяца назад +1

    Llama 3 est incroyablement performant malgré ses 7 milliards de paramètres, surpassant GPT-3.5 dans certains domaines. Vers la fin de la vidéo, vous évoquez la possibilité d'avoir des modèles en local. Je me demande si cela serait réalisable avec un Raspberry Pi 5 et le Coral de Google pour gérer de petits LLM localement ?
    En tout cas je trouve très positif et prometteur que certaines entreprises commencent à proposer des modèles plus compacts, typiquement de 1B, 3.5B, etc. C'est très encourageant pour le futur de l'ia !

    • @PS3EXTRA
      @PS3EXTRA 2 месяца назад

      Via Ollama un model 7B (Mistral, llama2, Straling) tourne correctement (me semble t'il) avec un i7 32GB RTX 3070.
      Ca tourne aussi sur un i5 16GB GTX 1060, mais c'est moins fluide.
      J'ai pu tester sur un Xeon 12 core 256 GB sans GPU c'est plus long mais ça passe aussi

    • @Pubelle
      @Pubelle 2 месяца назад

      @@PS3EXTRA Donc sur un rasberry Pi 5 + Coral c'est pas envisageable ?

    • @alexandrequemy
      @alexandrequemy 2 месяца назад +2

      Ce que j'entends par petits modeles ce sont surtout des modeles specialises pour des taches particulieres (e.g. Gemma pour de la generation de code). Evidemment, ils vont avoir assez peu de parametres - mais un modele avec peu de parametres n'est pas forcement un petit modeles (e.g. Llama 3 en versions 7B).
      Ensuite, il faut regarder ce que l'on veut faire avec le modele:
      - de l'inference? quelle latence est acceptable? combien de tokens par minutes en inference? combien de pipeline d'inferrence en paralelle.
      - de l'entrainement? du fine tuning? du continuous learning? etc.
      En fonction de tous les besoins, il va falloir une infrastructure differente avec des contraintes de VRAM differente.
      Pour un usage personnel (e.g. assistant domotique), il est certain qu'un LLama 3 7B-it quantise en 4bits pourra probablement tenir sur 8G de VRAM et avoir une latence et throughput acceptable.
      Pour prototyper des choses qui sortent un peu de cela, ou meme s'entrainer sur des use-cases un peu plus complexes, ca va commencer a devenir complique. J'ai essaye de faire tourner Gemma 7B-it ce week-end sur un GPU a 8GB de VRAM et meme avec un bon CPU offloading, j'ai pas reussi a obtenir des reponses avec des prompts courts sous les 20 secondes. En milieu pro, il me fait des reponses // sous la seconde avec des contextes > 1000 tokens. On en est encore loin localement avec du materiel grand public malheureusement.
      Mais effectivement, des modeles 1B ou meme des modeles 1 bits avec plus de parameters, specialises dans des taches particulieres et que l'on agence via un framework multi-agent - je pense que c'est non seulement le future en ce qui concerne la mise en production de IA pour des cas concrets, mais aussi une porte d'entree a moindre cout pour le grand public.

    • @PS3EXTRA
      @PS3EXTRA 2 месяца назад

      @@Pubelle A ma grande surprise ça semble possible d'après des vidéos sur RUclips

  • @PS3EXTRA
    @PS3EXTRA 2 месяца назад +1

    De ma petite expérience j'ai développé grâce des llm locaux un portail frontend perso fullstack hébergé dans mon salon , là ça va encore je comprends à peu prêt ce que j'ai fait grâce à l'IA, donc j'arrive à faire évoluer au fil de mes besoin mon portail codé en HTML CSS JS et je pense en maitriser les bases.
    Par contre bien que j’ai réussi à faire une application en python qui me rend bien service, aujourd'hui je voudrais la faire évoluer mais j'en suis incapable car dans les faits, je ne sais pas coder en python et il semble que la base de cette application ne le permette pas, ou du moins les llm n'y arrive plus. Tout ça pour dire que l’IA c’est fabuleux mais ça ne fait pas tout et sans quelques bases, ça devient très vite limitant.
    Arriver à faire quelque chose qui m’était jusque-là impossible, c’est génial au premier abord, mais se retrouver otage de l’IA pour avancer c’est super frustrant. Mais quand on ne part de rien, c’est déjà bien.
    Merci pour toutes ces explications, la vidéo est très intéressante et accessible

    • @Venden_IX
      @Venden_IX 2 месяца назад +2

      Oui et ça fait des codes pas sécurisés/opti, faut avoir un certain recul pour juger si un code généré par une IA est bon

    • @TheRemiRODRIGUES
      @TheRemiRODRIGUES 2 месяца назад +2

      Oui mais les LLM peuvent expliquer le code.
      Je me dit même que ça peut être une bonne façon d'apprendre.
      On lui demande de nous expliquer les concepts utilisés, de nous les expliquer et de nous donner des exercices pour qu'on puisse s'exercer à les mettre en œuvre.

    • @codeconcept
      @codeconcept  2 месяца назад

      @@Venden_IX Niveau (absence d') optimisation, c'est typiquement ce qui est arrivé à un pote récemment : en regardant du code généré par Copilot par un de ses collègues , il a constaté que le code généré lisait d'énormes fichiers au lieu de les streamer. Donc relire attentivement le code généré reste important. Comme c'est le cas pour du code récupéré depuis StackOverflow en fait : on ne peut pas faire l'économie de comprendre ce qu'on copie, peu importe d'où vient le code récupéré 😀

    • @codeconcept
      @codeconcept  2 месяца назад +1

      @@TheRemiRODRIGUES Ca fait partie du morceau d'interview que j'avais hélas coupé, pour ne pas avoir avec une vidéo trop longue. Dans un framework Multi-Agent, un agent peut critiquer le code généré par un autre agent et donc probablement l'expliquer.
      Ca pourrait même devenir un jeu de boisson : chaque fois que le terme Multi-Agent apparait en 2024 dans une vidéo d'IA, il faut boire un coup. Il y a un risque certain à ne plus finir une vidéo en marchant droit 🥃😄

    • @codeconcept
      @codeconcept  2 месяца назад +2

      @PS3EXTRA Tu es en train d'expérimenter le fait que maintenir une application prend plus de temps et d'effort (et coûte même plus cher) que de la créer. Je te rassure, c'est le cas pour tout le monde, avec ou sans recours à l'IA 😀
      C'est pour ça que c'est important de créer des fonctions avec des noms clairs, faire en sorte que chaque fonction fasse idéalement une seule chose, réussir à combiner facilement des fonctions. Sans oublier, ne pas over-ingénieurer (plus facile à dire qu'à faire).
      En tous cas, rien de tel que d'apprendre à créant des projets concrets 👍 Après, il faut alterner les phases théoriques (lecture de doc officielle, tuto) et mis en pratique.

  • @battlefield5
    @battlefield5 2 месяца назад +3

    Attention on entend un peu echo ton interlocuteur, je pense que tu l'enregistre a la fois directement et indirectement via ton micro

    • @codeconcept
      @codeconcept  2 месяца назад

      @battlefield5 Ca n'est que ma deuxième interview, donc j'ai encore des bonnes pratiques à découvrir 😉

    • @battlefield5
      @battlefield5 2 месяца назад

      @@codeconcept c'est pas un reproche, juste une remarque :)

    • @codeconcept
      @codeconcept  2 месяца назад +1

      @battlefield5 Pas de problème, je ne l'avais pas mal pris😀 Heureusement que ça n'est pas pas parti en larsen. Même si je suis un fan d'Hendrix, je préfère éviter le phénomène dans le cadre d'une interview.

  • @science.20246
    @science.20246 2 месяца назад +1

    essayez de supprimer l'écho, et reposter la vidéo, elle très intéressante

    • @codeconcept
      @codeconcept  Месяц назад

      Merci !
      Sur la prochaine, j'enregistrerai localement chaque source sonore que je réunirai en post prod. Là, c'est trop tard. Ceci dit, l'écho donne un effet "vaste" qui ne nuit pas à la compréhension.

  • @patisserietixier9989
    @patisserietixier9989 23 дня назад

    j'avais 16 ans on me disait, l informatique n'a aucun avenir, aucun débouché, vous adorez ca mais il ne faut pas confondre passion et métier, donc j ai abandonné. C'étais en 1990 ... pas de bol

  • @ouck02
    @ouck02 2 месяца назад

    Pour moi l'IA désigne les personnes qui croient que des programmes sont ou peuvent être intelligents. Ces gens ont une intelligence artificielle

  • @johangodfroid4978
    @johangodfroid4978 2 месяца назад +1

    dans 3 ans il y aura des AGI, la concurrence risque d'être rude , très rude

    • @codeconcept
      @codeconcept  2 месяца назад

      C'est toujours délicat de donner une date (ne serait-ce qu'une année) précise, car entre le marketing qui exagère les possibilités de certaines IA et les limitations physiques (nombre de GPU disponibles, data center à construire etc), les investisseurs - par nature impatients- vont peut-être retirer une partie de leurs billes pour sauter sur une nouvelle hype en 2025 ou 2026, si bien que les progrès ne seront pas continu.
      Ensuite, même si l'AGI est effective dans deux cinq ou dix ans, la destruction de millions d'emplois dans chaque pays rendra nécessaire une réorganisation : soit revenu universel, soit économie alternative des gens éjectés qui ne se résigneront pas à être catalogués "inutiles" par les RH accro aux IA, soit un mélange des deux.
      C'est une période d'incertitude, voire d'angoisse, mais peut-être aussi de changement de perspective imprévisibles pas nécessairement négatifs.

  • @webjumper5625
    @webjumper5625 3 дня назад

    En tout cas en expression simple libre, vous avez du mal les mecs 😅