Excelente, como le comparti en anteriores videos para mi es el mejor, ya lo llevo usando la version 7B hace mas de un mes y me ha dado excelentes resultados, es rapido y acertivo. Ahora voy a descargar las versiones 14B y 32B y anal;izare en mi pc su rendimiento.
@@finunfeeder7735 como solo corre en la computadora de uno, es totalmente gratis no tiene limite de uso. Digamos que el modelo que usted pueda correr dependera de las capacidades de su computadora en mi caso tengo un Ryzen 9 5900HX con 65G de ram y puedo correr hasta el modelos de qwen2.5-coder:32b, aunque va un poco lento y me pone a full el procesador, da los resultados en un buen tiempo. Ahora si uso los modelos mas pequeiños corre mucho mas rapido. El modelo qwen2.5-coder:7b es casi tan rapido como chatear con chat GPT
A ver vengo a portar mi experiencia con este modelo. Lo he probado el local el modelo de 7b. Tengo que decir que es mucho mejor que los otros modelos codificando por lo menos de los mismos parámetros y en forma local. Pero cuál es mi sorpresa que cuando llevo iterando varios ratos con él, me pierde el contexto de la codificación.... Y me empieza a entregar código que no le he pedido, o que no está dentro del proyecto inicial que le entregué. No sé si es culpa mía, qué hay que fine tunearlo o qué será. Repito al principio las primeras iteraciones funcionan de maravilla, pero conforme vas avanzando parece que va perdiendo un poco el contexto, y no me refiero a avanzar muchísimo, sino a la que has liado con él unas 6 o 7 veces, vas notando como empieza a perder el hilo. Estos son experiencias mías me gustaría saber si alguien más le ha sucedido eso por favor lo corrobore.
A mí me ha pasado con otros modelos, que cuando ejecuto uno pequeño, ej: 1.5b o 3b funcionan bien, y cuando lo hago con uno 7b, este al principio me funciona bien, pero luego me pasa lo que dices. Yo creo que es por la PC que en algún punto ya no puede con el modelo y empieza a fallar, porque he probado los mismos modelos con un proveedor en la nube como openrouter y funcionan bien.
@@jahbless8244 pero los modelos más pequeños se supone que razonan peor y además tienen menos ciclos de entrenamiento lo cual quiere decir que no tienen tanto conocimiento en el lenguaje de programación como por ejemplo podría ser un modelo que tiene más billones de parámetros.
@@Darporal Claro, en eso estoy de acuerdo, un modelo mas grande en la mayoria de los casos genera mejor codigo, y aunque no he probado los modelos mas grandes de qwen (solo el de 7b) personalmente me ha dado buenos resultados. Aunque tengo que aclarar que no lo he probado en un ejercicio desde cero, es decir crear algo enteramente con el codigo del modelo, solo lo hago en partes especificas del código por lo que no puedo asegurar el correcto funcionamiento tal cual lo describes.
Hagan el benchmark que hagan nadie va a superar a o1-preview, es el mejor haciendo tareas de programación, yo soy programador profesional y lo uso a diario, y tengo entendido que va a salir la versión o1-full (o algo parecido) en diciembre
Vengo usando DeepSeek y es excelente, tal vez un poco lento en comparación con otros modelos (como usar Groq combinado con un LLM). Básicamente insuperable en el tema de costos. Vamos a darle a Qwen una ojeada...
Si DeepSeek es una excelente opción que también me gusta bastante y creo que la mejor en cuanto a calidad-precio. ¡Me encantaría conocer tu opinión sobre Qwen después de probarlo! 😉
Lo he estado probando en VSCode con la extensión Continue y me parece que responde muy bien con las limitaciones que una RTX 4070 Ti puede dar para estos casos, pero tienen un muy pero muy fuerte rival y es Supermaven pero en el apartado de autocompletado, en ese sentido, no he visto nada que medio se le parezca.
estaba usando chat gpt para hacer mi juego en unity sin saber programar y he estado haciendo avances increibles pero ahora va tan mal la pagina y es tan limitada y se me borra o caen las conversaciones y es horrible, he pegado un paron, esto podria ayudarme? creo que lo que pido en cuanto a codigo es bastante sencillo
Hola, si pudiera ayudarte bastante, aunque también te recomiendo probar con Claude 3.5 Sonnet, ya que parece ser que sigue teniendo un excelente rendimiento en codificación.
este se puede usar en visual estudio? es que lo instale en local y lo intente poner en vs code y me aparece error, alguien que le funcione? yo creo que tengo mal configurado el json de continue
Alguien sabria decirme un buen modelo para RAG? Estoy probando llama3.2 11b pero no me da buenos resultados. Me encantaria encontrar algo a nivel de gpt4o-mini pero gratuito
pues según multimodales tiene llava en vision, si lo quieres para json usa phi la ultima version, gratis en local no hay tantos y si lo quieres para herramientas rAG a mi me va de lijo llama3.2:3b a ti con 11b te tendria que ir mejor
Es open source, puedes ejecutarlo de forma local, pero deberás tener en cuenta las especificaciones de tu PC, o bien puedes implementarlo a través de Open Router, que es un buen modelo y no es tan caro. Te comparto los enlaces por si quieres revisar mejor la información: 1- Local con Ollama: ollama.com/library/qwen2.5-coder 2- Open Router: openrouter.ai/qwen/qwen-2.5-coder-32b-instruct
Según los informes oficiales debe ser bueno para tareas de codificación, aún no realizo pruebas con el modelo de 32B (que se supone que debe ser el mejor para dichas tareas).
@@Conciencia_Artificial Yo recien queme todos mis tokens de openrouter como para poder probarlo, pero hay varios videos de usuarios mostarndo como con cosas simples se mete en loops o no sabe que hacer, habra que ver que onda, creo que hay una version mas orientada para estas herramientas, pero no recuerdo bien, lo vi hace ya unas horas. Quedo atento a tu canal!
Funciona muy bien y no solo para código, resuelve todo tipo de problemas que modelos más grandes no pueden
@@galvanoid2014 muchas gracias por compartir tu experiencia, saludos! 👋
Buen trabajo, siempre aprendo cosas aplicadas en tu canal. Muchas bendiciones
Excelente, como le comparti en anteriores videos para mi es el mejor, ya lo llevo usando la version 7B hace mas de un mes y me ha dado excelentes resultados, es rapido y acertivo. Ahora voy a descargar las versiones 14B y 32B y anal;izare en mi pc su rendimiento.
es totalmente gratis o tiene limite?
@@finunfeeder7735 como solo corre en la computadora de uno, es totalmente gratis no tiene limite de uso. Digamos que el modelo que usted pueda correr dependera de las capacidades de su computadora en mi caso tengo un Ryzen 9 5900HX con 65G de ram y puedo correr hasta el modelos de qwen2.5-coder:32b, aunque va un poco lento y me pone a full el procesador, da los resultados en un buen tiempo. Ahora si uso los modelos mas pequeiños corre mucho mas rapido. El modelo qwen2.5-coder:7b es casi tan rapido como chatear con chat GPT
A ver vengo a portar mi experiencia con este modelo. Lo he probado el local el modelo de 7b. Tengo que decir que es mucho mejor que los otros modelos codificando por lo menos de los mismos parámetros y en forma local. Pero cuál es mi sorpresa que cuando llevo iterando varios ratos con él, me pierde el contexto de la codificación.... Y me empieza a entregar código que no le he pedido, o que no está dentro del proyecto inicial que le entregué. No sé si es culpa mía, qué hay que fine tunearlo o qué será. Repito al principio las primeras iteraciones funcionan de maravilla, pero conforme vas avanzando parece que va perdiendo un poco el contexto, y no me refiero a avanzar muchísimo, sino a la que has liado con él unas 6 o 7 veces, vas notando como empieza a perder el hilo. Estos son experiencias mías me gustaría saber si alguien más le ha sucedido eso por favor lo corrobore.
bueno la funcion de memorizar no la tiene.
A mí me ha pasado con otros modelos, que cuando ejecuto uno pequeño, ej: 1.5b o 3b funcionan bien, y cuando lo hago con uno 7b, este al principio me funciona bien, pero luego me pasa lo que dices. Yo creo que es por la PC que en algún punto ya no puede con el modelo y empieza a fallar, porque he probado los mismos modelos con un proveedor en la nube como openrouter y funcionan bien.
@@jahbless8244 pero los modelos más pequeños se supone que razonan peor y además tienen menos ciclos de entrenamiento lo cual quiere decir que no tienen tanto conocimiento en el lenguaje de programación como por ejemplo podría ser un modelo que tiene más billones de parámetros.
@@kapipaz claro pero esa función no sé si ha de estar dentro de la interface o dentro del mismo modelo
@@Darporal Claro, en eso estoy de acuerdo, un modelo mas grande en la mayoria de los casos genera mejor codigo, y aunque no he probado los modelos mas grandes de qwen (solo el de 7b) personalmente me ha dado buenos resultados.
Aunque tengo que aclarar que no lo he probado en un ejercicio desde cero, es decir crear algo enteramente con el codigo del modelo, solo lo hago en partes especificas del código por lo que no puedo asegurar el correcto funcionamiento tal cual lo describes.
Hagan el benchmark que hagan nadie va a superar a o1-preview, es el mejor haciendo tareas de programación, yo soy programador profesional y lo uso a diario, y tengo entendido que va a salir la versión o1-full (o algo parecido) en diciembre
No es tan así como dices, muchas veces sonnet new es mejor que el o1-preview
Vengo usando DeepSeek y es excelente, tal vez un poco lento en comparación con otros modelos (como usar Groq combinado con un LLM). Básicamente insuperable en el tema de costos.
Vamos a darle a Qwen una ojeada...
Si DeepSeek es una excelente opción que también me gusta bastante y creo que la mejor en cuanto a calidad-precio. ¡Me encantaría conocer tu opinión sobre Qwen después de probarlo! 😉
Y este modelo va a ser primitivo en un par de años, fírmalo. Ya puedo imaginar hacia dónde se va a dirigir esta tecnología.
Que buen canal, gracias por compartir esta información
Gracias a ti por comentar! Saludos 👋
Lo he estado probando en VSCode con la extensión Continue y me parece que responde muy bien con las limitaciones que una RTX 4070 Ti puede dar para estos casos, pero tienen un muy pero muy fuerte rival y es Supermaven pero en el apartado de autocompletado, en ese sentido, no he visto nada que medio se le parezca.
@@JulianLasso gracias por compartir tu experiencia, aún no he tenido oportunidad de probar a fondo supermaven, espero en estos días hacerlo. Saludos!👋
Excelente mi estimado amigo
Me encanta tu modelo de voz, que usas como TTS, elevenlabs?
Hola sí, utilizo ElevenLabs
Bro muchas gracias por siempre tenernos actualizados!
¡De nada, gracias a ti por ver el video! 👋
estaba usando chat gpt para hacer mi juego en unity sin saber programar y he estado haciendo avances increibles pero ahora va tan mal la pagina y es tan limitada y se me borra o caen las conversaciones y es horrible, he pegado un paron, esto podria ayudarme? creo que lo que pido en cuanto a codigo es bastante sencillo
Hola, si pudiera ayudarte bastante, aunque también te recomiendo probar con Claude 3.5 Sonnet, ya que parece ser que sigue teniendo un excelente rendimiento en codificación.
Como veo ahora si esta super mejorado y no como algunos que tienes que pagar cada 2 segundo y te sale el mensaje en grande xd
este se puede usar en visual estudio? es que lo instale en local y lo intente poner en vs code y me aparece error, alguien que le funcione? yo creo que tengo mal configurado el json de continue
Si, con ollama puedes utilizarlos sin problema, comento con ollama porque es el que más hemos mostrado en el canal. Saludos!
lo voy a probar como me va generando codigo para react native
Al hacerle una pregunta sobre su nombre me dice qwen2.5-coder:7b me dice que es clauded de Anthropic’s
Jaja no se porque responda eso, quizá fue entrenado con datos generados de Claude, pero es curioso esa información que compartes.
Me encantaría apreneer
Alguien sabria decirme un buen modelo para RAG? Estoy probando llama3.2 11b pero no me da buenos resultados. Me encantaria encontrar algo a nivel de gpt4o-mini pero gratuito
pues según multimodales tiene llava en vision, si lo quieres para json usa phi la ultima version, gratis en local no hay tantos y si lo quieres para herramientas rAG a mi me va de lijo llama3.2:3b a ti con 11b te tendria que ir mejor
como puedo usarlo? solamente local? hay forma de usarlo online? alguien sabe algun link para usarlo online?
me parece que el video lo explica claramente como usarlo, fijate si lo podés ver de nuevo a ver que pasa, además de los link de la descripción
¿Está en Ollama?
Si, ya la puedes encontrar ahí! 👌
Ollama? Estimado, ollama es otra IA. Ud sabe que está comentando?
Ahora solo necesito 32 o 64GB de RAM para usar este modelo
el baile del oso pandabjajajjjj
😂 gracias por comentar! 👋
Los chinos hacen matemática decente (soy matemático 🤙)
gracias
Gracias a ti por comentar! 👋
Es gratis..es de pago?
Es open source, puedes ejecutarlo de forma local, pero deberás tener en cuenta las especificaciones de tu PC, o bien puedes implementarlo a través de Open Router, que es un buen modelo y no es tan caro. Te comparto los enlaces por si quieres revisar mejor la información:
1- Local con Ollama: ollama.com/library/qwen2.5-coder
2- Open Router: openrouter.ai/qwen/qwen-2.5-coder-32b-instruct
Gracias
Este modelo es horrible para usarlo con extensiones como Cline o Aider.
Según los informes oficiales debe ser bueno para tareas de codificación, aún no realizo pruebas con el modelo de 32B (que se supone que debe ser el mejor para dichas tareas).
@@Conciencia_Artificial Yo recien queme todos mis tokens de openrouter como para poder probarlo, pero hay varios videos de usuarios mostarndo como con cosas simples se mete en loops o no sabe que hacer, habra que ver que onda, creo que hay una version mas orientada para estas herramientas, pero no recuerdo bien, lo vi hace ya unas horas. Quedo atento a tu canal!