Falcon 3: La revolución de la IA en tus manos ¡El pequeño LLM más poderoso del mundo!

Поделиться
HTML-код
  • Опубликовано: 25 дек 2024

Комментарии • 11

  • @santiagocastillo1719
    @santiagocastillo1719 22 часа назад

    Gracias por estar siempre al día. Tu canal lo veo como una especie de llamada teléfonica o teams en el que un amigo nos vas poniendo "en directo" al día en la actualidad.

  • @pedroandresgonzales402
    @pedroandresgonzales402 17 часов назад +1

    Feliz navidad 🎄!!

  • @geografiaeducativa2727
    @geografiaeducativa2727 23 часа назад +3

    No haces mención de quien esta detras de este LLM.

  • @GabrielFranciaG
    @GabrielFranciaG 20 часов назад +3

    Ah se oye bien: "democratizar la IA", no ahodar la brecha digital, y evitar la "pobreza ocacionada por GPU". Sí, gracias la aportación. Saludos.

  • @telacuti
    @telacuti 21 час назад +2

    Lo puedo instalar con ollama y utilizarlo en openwebui?

  • @Leo-tu6lg
    @Leo-tu6lg День назад +3

    Estimado te animas hablar de smollm que es una familia de modelos pequeños con 135M, 360M y 1.7B de parametros?
    Probe el mas pequeño en ingles y es una maravilla para su tamaño, responde mejor que cualquier otro de 1 o 2 billones de parametros.
    El de 360m es multilenguaje y el de 1.7b dicen que es una convinacion perfecta entre tamaño y respuestas.
    Pruebalo tu mismo y saca tus propias conclusiones.
    Muchas gracias amigo y muy feliz navidad!!! 😊

  • @a0z9
    @a0z9 День назад +2

    Que pasó con con los modelos pequeños de microsoft?

  • @alexanderdiazpe
    @alexanderdiazpe 20 часов назад +1

    Podrias explicarnos como ejecutar ese modelo en un celular sin necesidad de internet

  • @jorgejimenezalvarez5156
    @jorgejimenezalvarez5156 День назад +1

    ¿Por qué siempre haces alusión a la potencia de nuestros equipos? ¿Podrías hacer un vídeo explicando esto? Podríamos concretar si necesitamos cambiar de pc o no tiene sentido. Un saludo, Feliz navidad!

    • @zurrechten346
      @zurrechten346 День назад +3

      Los modelos de LLM necesitan cargarse en la VRAM que es la memoria de video de la GPU. Mientras mas potente el modelo, mas grande es, por lo tanto necesitas un equipo mas potente y con mas VRAM. Los modelos que puede cargar la gente normal como nosotros son los de 7b a 14b y suelen pesar entre 7GB y hasta 40GB. Esto mas o menos.