Prueba gratis Llama 3.2 un nuevo modelo LLM con vision - No necesitas GPU para usarlo

Поделиться
HTML-код
  • Опубликовано: 11 янв 2025

Комментарии • 19

  • @javaboy6581
    @javaboy6581 3 месяца назад

    Cuanto se te echa de menos cuando no estas, maestro. Me encantan los RAGS, LORAS Y TTS en modo local, alucino con estas cosas. Que pena que para un LORA local no tengo GPU

  • @jaimemunoz3025
    @jaimemunoz3025 3 месяца назад +1

    como siempre el mejor canal de IA

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад

      Gracias por el cumplido Jaime!

  • @zonadock
    @zonadock 3 месяца назад

    Gracias, César

  • @FENIXDO0166
    @FENIXDO0166 3 месяца назад +1

    Hola a ver pruebo, gracias crack

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад

      A ver que tal te funciona este modelo! Ya nos contarás!

  • @revandarth2680
    @revandarth2680 3 месяца назад +1

    Muchas gracias

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад

      Gracias por comentar. Seguimos explorando los últimos modelos y compartiendo los resultados en abierto!

  • @FedeCiencias
    @FedeCiencias 3 месяца назад

    Hola te hago una consulta.. o a la comunidad: que modelo me recomiendan para traducir textos. son textos académicos, complejos.

  • @juanpablo9717
    @juanpablo9717 3 месяца назад

    Sabes si es posible correr estos modelos aue rscibwn imágenes de manera local? He visto aue en los modelos de Llama hay uno llamado Lava y wuisoera probar en alguna herramienta como Anything LLM para hacer pruebas como las que acabas de hacer
    Gracias por la info, nuevo sub!

  • @yosoyjose
    @yosoyjose 3 месяца назад

    Hola Cesar cómo estás? te quería preguntar qué esperas de los nuevos procesadores de AMD con NPU de 50TOPS, AMD Ryzen AI 9 HX 370, crees que será suficiente para ejecutar modelos de lenguaje de forma local? tienes alguna expectativa sobre esta nueva generación de procesadores? un saludo

  • @mariron42
    @mariron42 3 месяца назад

    Hola, me encantan tus videos. En tu experiencia cual sería el mejor dispositivo para montar un micro server arm que pueda ejecutar ia generativa? Habrá salido alguno nuevo interesante?

    • @TheJaaavier
      @TheJaaavier 3 месяца назад

      No es más barato, confiable y potente usar cualquier pc viejo?

    • @mariron42
      @mariron42 3 месяца назад

      @@TheJaaavier a corto plazo probablemente pero si tomamos en cuenta el consumo de electricidad, el tamaño que ocupa en un departamento y la necesidad de refrigeración entonces un modesto arm puede ser ideal para servidor personal en un futuro.

    • @TheJaaavier
      @TheJaaavier 3 месяца назад

      @@mariron42 a largo plazo si le quieres sacar todo el jugo posible a un servidor vas a necesitar mas ram. Todavia no hay mucho en arm las rasberry son para entretenerse corriendo juegos retro o multimedia, eso si, tendrás que cambiar las sd muy seguido que mueren solas al exigirles correr un sistema operativo. Quizas si qualcom compra intel como se rumorea la cosa podría cambiar

    • @TheJaaavier
      @TheJaaavier 3 месяца назад

      En espacial si quieres correr AI que valgan la pena necesitaras montones de ram y procesamiento. Son muy llamativas por su tamaño chiquito pero no lo valen tanto. Nvidia esta fabricando minis cacharros para correr AI. como la orin nano viene con arm. Sera mas barato y potente una mini-atx ordinaria pero si te interesa lo super mini podría ser una opción

  • @zirus8346
    @zirus8346 2 месяца назад

    cómo puedo tener esto en mi pc?

    • @Oce270
      @Oce270 Месяц назад

      con ollama

  • @Reyiman
    @Reyiman 3 месяца назад