¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!

Поделиться
HTML-код
  • Опубликовано: 18 дек 2024
  • НаукаНаука

Комментарии • 64

  • @JorgeLamaVarela
    @JorgeLamaVarela 10 месяцев назад +4

    Un gran descubrimiento el Ollama Web UI, César. A ver si lo acaban de pulir, pero está interesante.

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад

      Las últimas versiones están funcionando genial. Parte de las cosas que no funcionaban en este video, están ya resueltas y mejoradas.

  • @intelp4ht
    @intelp4ht 10 месяцев назад +2

    muy bueno este video! por favor mas de esto!!! Espero que pronto mejore el RAG, me serviria para que usemos varias personas en un equipo, para el trabajo diario.

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад

      Gracias por la idea! Los últimos videos que he creado responden precisamente a esta cuestión!

  • @royotech
    @royotech 10 месяцев назад +4

    Excelente video como siempre... sin desperdicios 👏🏻👏🏻👏🏻

  • @danielguerrero9646
    @danielguerrero9646 2 месяца назад +1

    Configuración puntual y precisa gran ayuda para el funcionamiento de mi ordenador portátil

    • @LaHoraMaker
      @LaHoraMaker  2 месяца назад

      Daniel, me alegra mucho que te resulte útil. Gracias por comentar!

  • @aitor451
    @aitor451 10 месяцев назад +1

    Hola! He probado a darle un PDF a Solar y me lo ha resumido bien. En mi caso ha funcionado.

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад +1

      Solar es un fenómenos de modelo!

  • @javaboy6581
    @javaboy6581 7 месяцев назад +1

    Grande, como siempre! Llevo tiempo probando estos modelos desde que nos enseñaste en los primeros videos y me he dado cuenta que son un churro, te aburres en seguida.
    Me quedo con gpt4 de pago, les da mil vueltas. Simplemte no hay color.
    Pero me encanta, a ver si siguen mejorando y algun dia pueden tener uso local

    • @LaHoraMaker
      @LaHoraMaker  7 месяцев назад

      Según las tareas, algunos de estos modelos pueden funcionar decentemente, pero ninguno es tan flexible ahora mismo como GPT-4.
      No se si has tenido oportunidad de probar los nuevos modelos grandes con pesos abiertos como Command R+ de Cohere, Llama 3 70B o los Mixtral de 8x7B o 8x22B. ¡Muchas novedades!

  • @JaviArte
    @JaviArte 4 месяца назад +1

    Lo primero, gracias por el mini-tuto :)
    Ahora ya está disponible el nuevo modelo, Llama 3.1, e incluso el de tamaño 8b, es bastante competente. Ya no es tan "tonto" como los anteriores ejecutados en local.
    Por otro lado, la interfaz web para interactuar con el modelo, ahora se llama "Open WebUI" en lugar de "Ollama WebUI".
    PD: para arrancar el "Open WebUI" veo que era necesario instalar Docker... y madre mía lo pesado que es y cómo ralentiza el equipo :(

  • @joc4b4r
    @joc4b4r 10 месяцев назад +1

    Buen trabajo. Simple y didáctico. El WebUI un gran descubrimiento.

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад

      ¡El ritmo al que añaden nuevas funcionalidades al proyecto es increible!

  • @gustavopelua
    @gustavopelua 7 месяцев назад +1

    Muy buen tutorial!! como se hace para cargar modelos gguf en ollama en windows?

  • @ser12369
    @ser12369 10 месяцев назад +1

    Compadre muchas felicidades por el contenido!!

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад

      Me alegra mucho que te resulten útiles todos estos contenidos nuevos!

  • @royotech
    @royotech 10 месяцев назад +2

    🔥🔥Como los hago para montarlo en un PC en la casa y que se conecten por intranet otros 4 usuarios?
    Para eso quisiera aprender a usarlo y lo pondría en una Orange Pi 5.
    Usaría Mixtral 7B.
    Luego quiero aprender a hacerle Fine Tuning, por ejemplo con codificación C para placas Arduino y ESP32.

  • @JoseLabeaga
    @JoseLabeaga 7 месяцев назад +2

    Excelente video, enormemente útil. Muchas gracias!!!

    • @LaHoraMaker
      @LaHoraMaker  7 месяцев назад

      Gracias por comentar Jose!

  • @terranovich8471
    @terranovich8471 10 месяцев назад +2

    Amigo ya salió el modelo QWEN de Alibaba y la ventaja principal es la eficacia tanto en ingles como en multi-idiomas, sería bueno probarlo y en que hardware sencillo y humilde desplegarlo! Espero pronto ese video, sería genial

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад

      Gracias por la sugerencia. Justo esta semana he estado probando Yi y tengo ganas de probar QWen (y su variante Smaug) para ver que tal se comportan en español.
      Lo único que no me acaba de convencer de Qwen es la licencia, que tiene algunas clausulas poco colaborativas.

    • @royotech
      @royotech 9 месяцев назад

      Al final ganara el que mejor use el RAG. Eso es lo que al final le da utilidad.

  • @freddyramirez4207
    @freddyramirez4207 22 дня назад

    Excelente video gracias. Algún tutorial para hacer el despliegue en un servidor y consultar vía API?

    • @LaHoraMaker
      @LaHoraMaker  21 день назад

      Hola Freddy, por defecto cuando instalas Ollama te crea una servidor que escucha en el puerto 11434 y que es compatible con la API de OpenAI.
      En este video explico el proceso en detalle: ruclips.net/video/vY-28djh334/видео.html
      Espero que te resulte muy útil.

  • @mjosepth
    @mjosepth 7 месяцев назад +1

    Gracia por tu aportes, estoy utilizando ollama con AnythingLLM, espero puedas comentar acerca de como utilizar en conjuto , por el momento estoy usado mis documento en PDF y realizar consulta .. saludos

    • @LaHoraMaker
      @LaHoraMaker  7 месяцев назад

      Gracias por las recomendaciones. Me están llegando muchos comentarios positivos acerca de AnythingLLM así que... ¡tocará probarlo!

  • @Kaesarfdez
    @Kaesarfdez 10 месяцев назад

    El video es muy educativo. Encuentro algunas diferencias en el interfaz pero supongo que serán cambios que se vayan produciendo mientras pulen la UI.
    Open WebUI Version
    v1.0.0-alpha.100
    Ollama Version
    0.1.25
    Por otra parte, no he logrado cargar el modelo "Solar" aunque he cargado "based dolphin mixtral" y "llava" sin problemas.

    • @LaHoraMaker
      @LaHoraMaker  10 месяцев назад +1

      Cambiaron el nombre del proyecto 90 minutos después de publicar el video jajaja menuda suerte la mía!

    • @LaHoraMaker
      @LaHoraMaker  10 месяцев назад

      Para más información: github.com/open-webui/open-webui/pull/777 :)

    • @Kaesarfdez
      @Kaesarfdez 10 месяцев назад

      Bueno a @LaHoraMaker , que todo sea eso en la vida. ;-D

  • @pamelavelasquez7244
    @pamelavelasquez7244 8 месяцев назад

    Buenas, por estudio voy a desarrollar un chatbot tutor lenguaje EPL, que modelo de ollama me recomienda usar, sera alimentado con documentacion especifica y ejercicios

  • @Alfretubedobeyou
    @Alfretubedobeyou 9 месяцев назад

    Gran aporte mi estimado.
    Quiero hacerte una pregunta, al estar funcionando en local, como podría llevar eso a un servidor? y que servicios recomendarías?
    Estoy aprendiendo sobre esto y pues soy relativamente nuevo en IA

  • @jazt89
    @jazt89 3 месяца назад +1

    Tengo una duda, por que cuando le doy clic a "view logs" no se abre una pantalla negra como a ti, solo me abre una carpeta con archivos de bloc, que programa debo usar o que debo hacer para que esto no ocurra?

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад +1

      Posiblemente habrán actualizado el servidor Ollama. En la versión original sólo tenían un fichero de log y las versiones más nuevas ofrecen varios. Si haces doble click en los ficheros, podrás abrirlos con tu editor de texto favorito. Espero que te resulte útil!

  • @gorkarodriguez
    @gorkarodriguez 8 месяцев назад +2

    Hola! Un video genial, puedes cambiar la carpeta de instalación de los modelos añadiendo la variable de entorno OLLAMA_MODELS. Asi los puedes instalar y usar desde D://, E:// o el que quieras.
    Un saludo

    • @LaHoraMaker
      @LaHoraMaker  8 месяцев назад

      Gracias por compartir esta opción de configuración!

  • @cazadoresdecryptos
    @cazadoresdecryptos 9 месяцев назад +2

    buenas, y como se hace para actualizar Ollama?

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад +1

      En Windows, tan sólo hay que descargarse el nuevo ejecutable y hacer doble click. Con esto actualizas el binario y ...¡listo!

  • @xxw4879
    @xxw4879 8 месяцев назад

    hola, he seguido los pasos pero no me aparece el modelo cuando despliego dentro de Ollama WebUI, tampoco me deja descargar modelos desde Models. Me da error LiteLLM: Invalid config passed in y ademas la interfaz no me sale igual.

  • @canaljoseg0172
    @canaljoseg0172 8 месяцев назад +1

    Lo que pasa es que algunos PDF vienen protegido, y no permite copiar o pegar, o tiene un certificado. Por lo cual no puede modificar el sistema.

    • @LaHoraMaker
      @LaHoraMaker  8 месяцев назад

      En ese caso puedes hacer captura de pantalla desde el sistema operativo y pasar la imagen al modelo de visión :)

  • @aitor451
    @aitor451 10 месяцев назад +1

    Esto podría ser equivalente a LM Studio, ¿verdad?

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад +1

      Hola Aitor, si, esto es equivalente a LM Studio con dos diferencias notables: tiene incluida la opción de consultar tus documentos y guardar tus prompts. Y por otra parte te permite tener el servidor y el cliente en equipos distintos, así que puede usar el mismo Ollama distinta gente o equipos con menos potencia.

  • @albertinymm
    @albertinymm 9 месяцев назад +1

    Buen aporte!

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад

      ¡Gracias por comentar!

  • @HOLASMUNDO2024
    @HOLASMUNDO2024 7 месяцев назад

    Genio!! muy buenos videos.

  • @Mike-dl7gt
    @Mike-dl7gt 5 месяцев назад +1

    la interfaz ha cambiado, hace falta actualizar este tutorial

  • @frankalghul26
    @frankalghul26 2 месяца назад

    tengo una pregunto bro esta censurado he notado que no escriben sobre temas políticos o de guerra donde los gringos son los malos jejeje

  • @MV-001A
    @MV-001A 10 месяцев назад +1

    Niceee

  • @jossejosse952
    @jossejosse952 10 месяцев назад

    Me dice que tiene virus

    • @LaHoraMaker
      @LaHoraMaker  10 месяцев назад

      ¿Qué antivirus estás utilizando? Dado que el instalador levanta un servicio con un puerto siempre activo, quizás está siendo detectado como virus erróneamente

    • @jossejosse952
      @jossejosse952 10 месяцев назад

      Puede ser que sea falso virus, uso el Windows defender de Windows 11.

  • @ithanhunt3250
    @ithanhunt3250 9 месяцев назад +1

    *EL USO MAS COMUN Q SE LE PUEDE DAR ESTANDO SIN INTERNET EN LOCAL, ES DE UNA **#ENSICLOPEDIA** Q RESPONDA TODO TIPO DE PREGUNTAS, Y OTRA SERIA DE ASISTENTE, Y OTRA SERA DE TRADUCOR Q TRADUSCA TODO EL TEXTO Q UNO LE ESCRIBA Y ESPERO Q MUY PRONTO LE AGREGEN LA FUNCION DE GENERAR IMAGENES DIRECTAMENTE YA Q DICEN Q SI LO HARAN EN UN FUTURO MUY CERCANO*

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад

      Estos modelos se han entrenado con parte del contenido de Wikipedia, así que es capaz de producir resultados similares. Ciertamente se podría emplear para acceder a documentos locales y producir nuevos contenidos relacionados. Para la parte de generaciónd de imagenes y texto integrados, puedes probar soluciones como LocalAI.

  • @royotech
    @royotech 9 месяцев назад +2

    Me parece que este es el mejor:
    💥ollama run sammcj/smaug:72b-q4_k_m (consume mucha máquina , dicen que el que le puede plantar cara ChatGPT 3.5)
    también descargue:
    👀 ollama run sammcj/smaug-mixtral-v0.1:70b-q3_k_m (lentísimo)
    👎ollama run Mistral (no sirve 💩)

  • @dario61081
    @dario61081 10 месяцев назад +1

    Excelente video!

    • @LaHoraMaker
      @LaHoraMaker  9 месяцев назад

      Gracias por tu comentario Dario.

  • @jesustomas9708
    @jesustomas9708 7 месяцев назад

    Excelente Vídeo!