Gracias por estar siempre al día. Tu canal lo veo como una especie de llamada teléfonica o teams en el que un amigo nos vas poniendo "en directo" al día en la actualidad.
Estimado te animas hablar de smollm que es una familia de modelos pequeños con 135M, 360M y 1.7B de parametros? Probe el mas pequeño en ingles y es una maravilla para su tamaño, responde mejor que cualquier otro de 1 o 2 billones de parametros. El de 360m es multilenguaje y el de 1.7b dicen que es una convinacion perfecta entre tamaño y respuestas. Pruebalo tu mismo y saca tus propias conclusiones. Muchas gracias amigo y muy feliz navidad!!! 😊
¿Por qué siempre haces alusión a la potencia de nuestros equipos? ¿Podrías hacer un vídeo explicando esto? Podríamos concretar si necesitamos cambiar de pc o no tiene sentido. Un saludo, Feliz navidad!
Los modelos de LLM necesitan cargarse en la VRAM que es la memoria de video de la GPU. Mientras mas potente el modelo, mas grande es, por lo tanto necesitas un equipo mas potente y con mas VRAM. Los modelos que puede cargar la gente normal como nosotros son los de 7b a 14b y suelen pesar entre 7GB y hasta 40GB. Esto mas o menos.
Gracias por estar siempre al día. Tu canal lo veo como una especie de llamada teléfonica o teams en el que un amigo nos vas poniendo "en directo" al día en la actualidad.
Feliz navidad 🎄!!
No haces mención de quien esta detras de este LLM.
Ah se oye bien: "democratizar la IA", no ahodar la brecha digital, y evitar la "pobreza ocacionada por GPU". Sí, gracias la aportación. Saludos.
Lo puedo instalar con ollama y utilizarlo en openwebui?
Estimado te animas hablar de smollm que es una familia de modelos pequeños con 135M, 360M y 1.7B de parametros?
Probe el mas pequeño en ingles y es una maravilla para su tamaño, responde mejor que cualquier otro de 1 o 2 billones de parametros.
El de 360m es multilenguaje y el de 1.7b dicen que es una convinacion perfecta entre tamaño y respuestas.
Pruebalo tu mismo y saca tus propias conclusiones.
Muchas gracias amigo y muy feliz navidad!!! 😊
Que pasó con con los modelos pequeños de microsoft?
Podrias explicarnos como ejecutar ese modelo en un celular sin necesidad de internet
¿Por qué siempre haces alusión a la potencia de nuestros equipos? ¿Podrías hacer un vídeo explicando esto? Podríamos concretar si necesitamos cambiar de pc o no tiene sentido. Un saludo, Feliz navidad!
Los modelos de LLM necesitan cargarse en la VRAM que es la memoria de video de la GPU. Mientras mas potente el modelo, mas grande es, por lo tanto necesitas un equipo mas potente y con mas VRAM. Los modelos que puede cargar la gente normal como nosotros son los de 7b a 14b y suelen pesar entre 7GB y hasta 40GB. Esto mas o menos.