¡MEJOR QUE CHATGPT y CLAUDE: Qwen 2.5 Coder es GRATIS! Descubre el Nuevo Rey de la Programación

Поделиться
HTML-код
  • Опубликовано: 20 янв 2025

Комментарии • 61

  • @galvanoid2014
    @galvanoid2014 2 месяца назад +3

    Funciona muy bien y no solo para código, resuelve todo tipo de problemas que modelos más grandes no pueden

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад

      @@galvanoid2014 muchas gracias por compartir tu experiencia, saludos! 👋

  • @eddygok
    @eddygok 2 месяца назад

    Buen trabajo, siempre aprendo cosas aplicadas en tu canal. Muchas bendiciones

  • @nestora.a.n.995
    @nestora.a.n.995 2 месяца назад +2

    Excelente, como le comparti en anteriores videos para mi es el mejor, ya lo llevo usando la version 7B hace mas de un mes y me ha dado excelentes resultados, es rapido y acertivo. Ahora voy a descargar las versiones 14B y 32B y anal;izare en mi pc su rendimiento.

    • @finunfeeder7735
      @finunfeeder7735 2 месяца назад

      es totalmente gratis o tiene limite?

    • @nestora.a.n.995
      @nestora.a.n.995 2 месяца назад +1

      @@finunfeeder7735 como solo corre en la computadora de uno, es totalmente gratis no tiene limite de uso. Digamos que el modelo que usted pueda correr dependera de las capacidades de su computadora en mi caso tengo un Ryzen 9 5900HX con 65G de ram y puedo correr hasta el modelos de qwen2.5-coder:32b, aunque va un poco lento y me pone a full el procesador, da los resultados en un buen tiempo. Ahora si uso los modelos mas pequeiños corre mucho mas rapido. El modelo qwen2.5-coder:7b es casi tan rapido como chatear con chat GPT

  • @Darporal
    @Darporal 2 месяца назад +11

    A ver vengo a portar mi experiencia con este modelo. Lo he probado el local el modelo de 7b. Tengo que decir que es mucho mejor que los otros modelos codificando por lo menos de los mismos parámetros y en forma local. Pero cuál es mi sorpresa que cuando llevo iterando varios ratos con él, me pierde el contexto de la codificación.... Y me empieza a entregar código que no le he pedido, o que no está dentro del proyecto inicial que le entregué. No sé si es culpa mía, qué hay que fine tunearlo o qué será. Repito al principio las primeras iteraciones funcionan de maravilla, pero conforme vas avanzando parece que va perdiendo un poco el contexto, y no me refiero a avanzar muchísimo, sino a la que has liado con él unas 6 o 7 veces, vas notando como empieza a perder el hilo. Estos son experiencias mías me gustaría saber si alguien más le ha sucedido eso por favor lo corrobore.

    • @kapipaz
      @kapipaz 2 месяца назад +1

      bueno la funcion de memorizar no la tiene.

    • @jahbless8244
      @jahbless8244 2 месяца назад +1

      A mí me ha pasado con otros modelos, que cuando ejecuto uno pequeño, ej: 1.5b o 3b funcionan bien, y cuando lo hago con uno 7b, este al principio me funciona bien, pero luego me pasa lo que dices. Yo creo que es por la PC que en algún punto ya no puede con el modelo y empieza a fallar, porque he probado los mismos modelos con un proveedor en la nube como openrouter y funcionan bien.

    • @Darporal
      @Darporal 2 месяца назад

      @@jahbless8244 pero los modelos más pequeños se supone que razonan peor y además tienen menos ciclos de entrenamiento lo cual quiere decir que no tienen tanto conocimiento en el lenguaje de programación como por ejemplo podría ser un modelo que tiene más billones de parámetros.

    • @Darporal
      @Darporal 2 месяца назад

      @@kapipaz claro pero esa función no sé si ha de estar dentro de la interface o dentro del mismo modelo

    • @jahbless8244
      @jahbless8244 2 месяца назад +1

      ​@@Darporal Claro, en eso estoy de acuerdo, un modelo mas grande en la mayoria de los casos genera mejor codigo, y aunque no he probado los modelos mas grandes de qwen (solo el de 7b) personalmente me ha dado buenos resultados.
      Aunque tengo que aclarar que no lo he probado en un ejercicio desde cero, es decir crear algo enteramente con el codigo del modelo, solo lo hago en partes especificas del código por lo que no puedo asegurar el correcto funcionamiento tal cual lo describes.

  • @giancarlozevallos
    @giancarlozevallos 2 месяца назад +2

    Hagan el benchmark que hagan nadie va a superar a o1-preview, es el mejor haciendo tareas de programación, yo soy programador profesional y lo uso a diario, y tengo entendido que va a salir la versión o1-full (o algo parecido) en diciembre

    • @exxteban1
      @exxteban1 2 месяца назад +4

      No es tan así como dices, muchas veces sonnet new es mejor que el o1-preview

  • @fernandoz6329
    @fernandoz6329 2 месяца назад +1

    Vengo usando DeepSeek y es excelente, tal vez un poco lento en comparación con otros modelos (como usar Groq combinado con un LLM). Básicamente insuperable en el tema de costos.
    Vamos a darle a Qwen una ojeada...

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 месяца назад

      Si DeepSeek es una excelente opción que también me gusta bastante y creo que la mejor en cuanto a calidad-precio. ¡Me encantaría conocer tu opinión sobre Qwen después de probarlo! 😉

  • @awaken5622
    @awaken5622 2 месяца назад +2

    Y este modelo va a ser primitivo en un par de años, fírmalo. Ya puedo imaginar hacia dónde se va a dirigir esta tecnología.

  • @Moepiya
    @Moepiya 2 месяца назад +1

    Que buen canal, gracias por compartir esta información

  • @JulianLasso
    @JulianLasso 2 месяца назад +1

    Lo he estado probando en VSCode con la extensión Continue y me parece que responde muy bien con las limitaciones que una RTX 4070 Ti puede dar para estos casos, pero tienen un muy pero muy fuerte rival y es Supermaven pero en el apartado de autocompletado, en ese sentido, no he visto nada que medio se le parezca.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад +1

      @@JulianLasso gracias por compartir tu experiencia, aún no he tenido oportunidad de probar a fondo supermaven, espero en estos días hacerlo. Saludos!👋

  • @RoboticsNeuralLabs
    @RoboticsNeuralLabs 2 месяца назад

    Excelente mi estimado amigo

  • @caalca05
    @caalca05 2 месяца назад

    Me encanta tu modelo de voz, que usas como TTS, elevenlabs?

  • @KedryDev
    @KedryDev 2 месяца назад

    Bro muchas gracias por siempre tenernos actualizados!

  • @cigslit
    @cigslit Месяц назад

    estaba usando chat gpt para hacer mi juego en unity sin saber programar y he estado haciendo avances increibles pero ahora va tan mal la pagina y es tan limitada y se me borra o caen las conversaciones y es horrible, he pegado un paron, esto podria ayudarme? creo que lo que pido en cuanto a codigo es bastante sencillo

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад

      Hola, si pudiera ayudarte bastante, aunque también te recomiendo probar con Claude 3.5 Sonnet, ya que parece ser que sigue teniendo un excelente rendimiento en codificación.

  • @AviDevs
    @AviDevs 2 месяца назад +1

    Como veo ahora si esta super mejorado y no como algunos que tienes que pagar cada 2 segundo y te sale el mensaje en grande xd

  • @diegonaranjo1874
    @diegonaranjo1874 2 месяца назад

    este se puede usar en visual estudio? es que lo instale en local y lo intente poner en vs code y me aparece error, alguien que le funcione? yo creo que tengo mal configurado el json de continue

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 месяца назад

      Si, con ollama puedes utilizarlos sin problema, comento con ollama porque es el que más hemos mostrado en el canal. Saludos!

  • @inteligenciafutura
    @inteligenciafutura 2 месяца назад

    lo voy a probar como me va generando codigo para react native

  • @reevolution3d839
    @reevolution3d839 2 месяца назад

    Al hacerle una pregunta sobre su nombre me dice qwen2.5-coder:7b me dice que es clauded de Anthropic’s

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 месяца назад

      Jaja no se porque responda eso, quizá fue entrenado con datos generados de Claude, pero es curioso esa información que compartes.

  • @BarrerasSolares
    @BarrerasSolares 2 месяца назад

    Me encantaría apreneer

  • @javiercc2845
    @javiercc2845 2 месяца назад

    Alguien sabria decirme un buen modelo para RAG? Estoy probando llama3.2 11b pero no me da buenos resultados. Me encantaria encontrar algo a nivel de gpt4o-mini pero gratuito

    • @Michael-b7z8y
      @Michael-b7z8y 2 месяца назад

      pues según multimodales tiene llava en vision, si lo quieres para json usa phi la ultima version, gratis en local no hay tantos y si lo quieres para herramientas rAG a mi me va de lijo llama3.2:3b a ti con 11b te tendria que ir mejor

  • @techno-info-o9s
    @techno-info-o9s 2 месяца назад

    como puedo usarlo? solamente local? hay forma de usarlo online? alguien sabe algun link para usarlo online?

    • @horacioalberto2030
      @horacioalberto2030 2 месяца назад

      me parece que el video lo explica claramente como usarlo, fijate si lo podés ver de nuevo a ver que pasa, además de los link de la descripción

  • @Juanero-i3t
    @Juanero-i3t 2 месяца назад

    ¿Está en Ollama?

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 месяца назад +1

      Si, ya la puedes encontrar ahí! 👌

    • @carlosmunoz3675
      @carlosmunoz3675 Месяц назад

      Ollama? Estimado, ollama es otra IA. Ud sabe que está comentando?

  • @josemanuelruizgonzalez9353
    @josemanuelruizgonzalez9353 Месяц назад

    Ahora solo necesito 32 o 64GB de RAM para usar este modelo

  • @juampmiranda.4401
    @juampmiranda.4401 2 месяца назад

    el baile del oso pandabjajajjjj

  • @manuelinoparrina8027
    @manuelinoparrina8027 2 месяца назад +2

    Los chinos hacen matemática decente (soy matemático 🤙)

  • @Lv7-L30N
    @Lv7-L30N 2 месяца назад

    gracias

  • @MarysHarmonyInspiración
    @MarysHarmonyInspiración 19 дней назад

    Es gratis..es de pago?

    • @Conciencia_Artificial
      @Conciencia_Artificial  19 дней назад +1

      Es open source, puedes ejecutarlo de forma local, pero deberás tener en cuenta las especificaciones de tu PC, o bien puedes implementarlo a través de Open Router, que es un buen modelo y no es tan caro. Te comparto los enlaces por si quieres revisar mejor la información:
      1- Local con Ollama: ollama.com/library/qwen2.5-coder
      2- Open Router: openrouter.ai/qwen/qwen-2.5-coder-32b-instruct

    • @MarysHarmonyInspiración
      @MarysHarmonyInspiración 19 дней назад

      Gracias

  • @SnowFlyGG
    @SnowFlyGG 2 месяца назад

    Este modelo es horrible para usarlo con extensiones como Cline o Aider.

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 месяца назад

      Según los informes oficiales debe ser bueno para tareas de codificación, aún no realizo pruebas con el modelo de 32B (que se supone que debe ser el mejor para dichas tareas).

    • @SnowFlyGG
      @SnowFlyGG 2 месяца назад

      @@Conciencia_Artificial Yo recien queme todos mis tokens de openrouter como para poder probarlo, pero hay varios videos de usuarios mostarndo como con cosas simples se mete en loops o no sabe que hacer, habra que ver que onda, creo que hay una version mas orientada para estas herramientas, pero no recuerdo bien, lo vi hace ya unas horas. Quedo atento a tu canal!