Mistral Large 2: El salto cuántico en inteligencia artificial

Поделиться
HTML-код
  • Опубликовано: 6 сен 2024
  • 🎓 Aprende IA Gen Conmigo:
    🚀 www.skool.com/...
    ✅ Unete y aprende RAG, con modelos locales y los de OpenAI y también generar un front para tu RAG.
    Descubre Mistral Large 2, el nuevo estándar de los modelos de lenguaje. Con un rendimiento excepcional en código, matemáticas y razonamiento, además de un soporte multilingüe líder en la industria, este modelo redefine las posibilidades de la IA. Sumérgete en una demostración de sus capacidades y aprende cómo puedes aprovechar todo su potencial. ¡El futuro de la inteligencia artificial está aquí!
    #MistralLarge2 #InteligenciaArtificial #LLM #Tecnologia #Innovacion

Комментарии • 19

  • @airdany
    @airdany Месяц назад +4

    Últimamente he estado resumiendo videos con Mistral Large, y tiene respuestas más ampliadas que otros modelos. Muy interesante, lo actualizen.

    • @Crisof
      @Crisof Месяц назад

      Como lo haces? como le pasas el vídeo o enlace para que lo resuma?

    • @airdany
      @airdany Месяц назад +1

      @@Crisof Con una extensión de chrome que lee el script del video y lo envia a uno de varios LLM (Chatgpt, Gemini, Mistral,...), lo que empezó a limitarme los usos y ahora uso otra llamada RUclips Script Extractor, con la que descargo el script como archivo de texto o le digo copiar y lo pego diectamente en el LLM. En general priorizo LLMs con conexion a Internet, para ampliar la conversación sobre el tema con datos de la red actualizados. No puedo escucharme todos los videos que curioseo, y a veces tocan el mismo tema, que una IA me los resuma, me permite encontrar info realmente nueva. Vivimos en la epoca de la sobreinformación de mucha gente habla de lo mismo en todos lados, y al final del dia hay muy pocas novedades en nuestras mentes. Las IAs nos ayudan a la eficiencia con no malgastar tiempo.

    • @omarnug
      @omarnug Месяц назад +1

      Yo uso gemini, normalmente la versión flash. Para Crisof: yo lo que hago es entrar en la descripción del vídeo desde la versión web de RUclips, darle a transcripción y copiar y pegar la transcripción. Le pides a gemini o la IA que uses "haz un resumen breve/ detallado"

    • @airdany
      @airdany Месяц назад

      @@omarnug Algunas transcripciones no me han cabido enteras en Gemini, en cambio en Mistral, ¡sí! Todo el tema de cantidad enorme de tokens acaba siendo para usuarios de pago.

  • @ADELINARONDON
    @ADELINARONDON 29 дней назад

    Es super genial y perfecta para codificar ❤

  • @jackcloudman
    @jackcloudman Месяц назад +5

    Hubieran dejado a LLama 3.1 un par de días más de entrenamiento haha xD

    • @Darporal
      @Darporal Месяц назад

      Jajaja muy bueno por cierto tú cuál usas yo uso el llama 3 8b en un equipo local. Y bueno he probado unas pocas pero cómete muchos errores la mayoría por lo menos en modo local.

  • @AshTrapito_SobreNatural
    @AshTrapito_SobreNatural Месяц назад

    En local vale la pena?

  • @reinaldosotillo4890
    @reinaldosotillo4890 Месяц назад +2

    seria muy util que dejaras los links de las paginas que visitas

    • @DjKruelfamily
      @DjKruelfamily Месяц назад +1

      LO MISMO VENÍA COMENTAR ESO LE AYUDARÍA MUCHO A TODOS

  • @orlandofsalvador7796
    @orlandofsalvador7796 Месяц назад

    el gpt 4o si lo hace bien, dice que 9.8 > 9.11

    • @ernesto.iglesias
      @ernesto.iglesias Месяц назад

      No en la mayoría de las veces, parece que al azar a veces sí lo logra

  • @KARA-IA
    @KARA-IA Месяц назад

    Es terrible en programación.

    • @Darporal
      @Darporal Месяц назад

      Sí te refieres que no vale para programar? Bueno yo he probado varias y te puedo asegurar que para programar la que mejor me ha funcionado ha sido copilot pero claro eso no está en modo local tienes que pasar por caja jejeje

    • @KARA-IA
      @KARA-IA Месяц назад +1

      @@Darporal Para mi lo mejor es Claude, no se centra en tanta pendejada de personalización de voces y recuerdos, eso lo hace mucho mas eficiente. Claude es como un asistente real, le pides un ejemplo de codigo y te lo lanza de manera eficiente y no tienes que empezar a corregir sus desfaces como en chat gpt.

    • @Darporal
      @Darporal Месяц назад

      @@KARA-IA muchas gracias por el dato, creo que estoy registrado para poder probar esa IA. Pero no le di mucho bombo, simplemente la probé, pero claro si quieres eficiencia tienes que pasarte a un plan superior me parece, no estoy seguro. Pero seguiré investigando al respeto. Muchísimas gracias de verdad.

    • @ernesto.iglesias
      @ernesto.iglesias Месяц назад

      Para eso está el mamba

    • @Darporal
      @Darporal Месяц назад

      @@ernesto.iglesias creo que el mamba como mencionas tiene una licencia Apache 2.0 sería bueno investigarlo no sé de cuántos parámetros están esos modelos, pero sería interesante.