Tu propio Chat GPT localmente y Gratis - con Ollama y OpenWebUI

Поделиться
HTML-код
  • Опубликовано: 28 авг 2024

Комментарии • 89

  • @fcomosan
    @fcomosan 4 месяца назад +15

    Te las mandaste Fatz.
    Con ansias de que salga el autocomplete, ahi si que la va romper ollama.

    • @DEIVIDSUPR
      @DEIVIDSUPR 4 месяца назад +3

      Parecido a copilot o amazon whisper? si es así, va a ser bestial

  • @edwinspiredev4930
    @edwinspiredev4930 4 месяца назад +19

    Tengo ollama en mi Linux, con 16G de ram funciona medianamente bien en velocidad. Es genial tener una propia IA en casa. Aunque el cpu suele irse al 100 cuando está respondiendo a una pregunta.

    • @antonioaragones2891
      @antonioaragones2891 4 месяца назад +3

      usas gpu para la generación de respuestas?

    • @edwinspiredev4930
      @edwinspiredev4930 4 месяца назад

      @@antonioaragones2891 no, solo cpu

    • @d.r1775
      @d.r1775 4 месяца назад

      @@antonioaragones2891 si usa la GPU

    • @4l3dx
      @4l3dx 4 месяца назад +4

      Phi-3 que salió recién está bueno, no tengo gpu en la laptop y va bastante bien

    • @edwinspiredev4930
      @edwinspiredev4930 4 месяца назад

      @@antonioaragones2891 no, solo cpu

  • @camiloquiroga516
    @camiloquiroga516 6 дней назад

    Muy buen video. Siguiendo los pasos pude replicar la instalación de Gemma 2B. Además de aprender a instalar las herramientas aprendí que mi equipo está corto para estos usos y me impresionó las habilidades de cómputo que deben tener los grandes para que todas las personas puedan acceder a estos modelos a través de la nube

  • @Foo678
    @Foo678 4 месяца назад +4

    por la interfaz parece que tambien se puede usar audio, buen video

  • @inteligenciafutura
    @inteligenciafutura 4 месяца назад +3

    para terminar te doy las gracias, eso de combinar modelos el resultado es muy bueno, acabo de hacer un aplicativo complejo en cuestion de minutos, en realidad esto cambia el panorama

    • @alejandrojlaeo
      @alejandrojlaeo 4 месяца назад

      Un aplicativo que hace uso de esto ? O realizaste un aplicativo con ayuda de varios modelos?

    • @inteligenciafutura
      @inteligenciafutura 4 месяца назад +1

      @@alejandrojlaeo llama3 con mistral y hoy le estoy haciendo ya la parte grafica

    • @Angel-gc1zp
      @Angel-gc1zp 4 месяца назад

      Manda tuto🥹

    • @inteligenciafutura
      @inteligenciafutura 4 месяца назад

      @@Angel-gc1zp por ahora tengo el de como comunicarse via API, voy a hacer uno de como entrenarlo mediante RAG de forma que no tenga tantas alucinaciones ya que el modelo si tiende a alucinar

  • @inteligenciafutura
    @inteligenciafutura 4 месяца назад +2

    por otro lado tu canal siempre me ayuda mucho.

  • @DanielAcosta
    @DanielAcosta 4 месяца назад +4

    ¡Gracias!

  • @Giozar04
    @Giozar04 4 месяца назад +1

    Fazt podrías hacer un vídeo más a profundidad y dónde expliques cómo usar los modelos con el GPU?? y otras configuraciones

  • @mwmg704
    @mwmg704 4 месяца назад +2

    Gracias por el video :D

  • @inteligenciafutura
    @inteligenciafutura 4 месяца назад

    no he instalado la interface grafica aun pero lo otro ha funcionado y es relativamente facil de instalar y probar, le pregunte de react con redux y respondio bien, le pregunte de unity y codigos de ejemplo y fue buenas las respuestas, este modelo promete mucho falta ver si uno lo puede entrenar asi sea por medio de langchain

    • @inteligenciafutura
      @inteligenciafutura 4 месяца назад

      como dato adicional esto tienen un potencial muy alto

  •  3 месяца назад +1

    Hola, instale bien Ollama y luego open web ui , pero luego de correr localhost:3000 y abrir la interfaz gráfica, no me carga ningun modelo . Ya cargué vía "ollama run mistral" el modelo Mistral pero aun asi no lo reconoce. Además reinicié docker para poder aplicar cambios, pero no tengo resultados. Alguna idea de lo que puede estar sucediendo? Gracias.

  • @ByFrank98
    @ByFrank98 2 месяца назад

    es la primera vez que veo tu canal, muchas gracias por este gran tutorial y me gustaría saber como tienes el terminal de esa forma xd

  • @miguelangelmarcos
    @miguelangelmarcos 29 дней назад

    Hola, podrias indicar caracteristicas minimas de hardware para un funcionamiento aceptable?

  • @Alex29196
    @Alex29196 4 месяца назад +3

    Hola, funciona el texto a voz?

  • @Alex29196
    @Alex29196 4 месяца назад +1

    no corre en cuda nvidia

  • @fir3flyshaitan
    @fir3flyshaitan 4 месяца назад +1

    Consulta, puede hacer que conteste con tu propia base de datos?

  • @edwinspiredev4930
    @edwinspiredev4930 4 месяца назад +1

    He buscado como cargar un archivo a ollama para poder extraer información de él pero no he encontrado. Igual he buscado tambien algo parecido a "functions" pero tampoco hay. Para iniciar con algo privado en casa ollama es mas que suficiente

  • @martinfloresdev
    @martinfloresdev 4 месяца назад

    Genial hermano, acabo de seguir tu ejemplo y funciono 100%

  • @lucianocosta4062
    @lucianocosta4062 4 месяца назад +3

    Podes hacer proyecto de nextjs más completos . No solo CRUD . UN PROYECTO MAS COMOETO COMO PAGINA DE INGORMACION CON RUTAS DIMAMICAS O ECOMERCE o un gestor de turnos

    • @mauriciofernandez669
      @mauriciofernandez669 4 месяца назад

      Hola, te recomiendo el curso de @fernandoherrera, vale 10 dólares. Pero tiene lo que pides.

    • @ivanaburto5164
      @ivanaburto5164 4 месяца назад

      Pagaria por eso...

    • @Ross17
      @Ross17 4 месяца назад

      Tienes que pagar

    • @lucianocosta4062
      @lucianocosta4062 4 месяца назад

      @@Ross17 ya soy premium. Si es por mi pago más por ese servicio

    • @Ross17
      @Ross17 4 месяца назад

      @@lucianocosta4062 no me referia a este canal, me refiero a que esos cursos puedes tomarlos en otras plataformas

  • @oscarcano184
    @oscarcano184 Месяц назад

    a mi no me sirve dice que cuando lo descargo se habre una terminal a mi no me abre

  • @Osdamart
    @Osdamart 2 месяца назад

    A mí me da curiosidad si se pueden hacer cosas alocadas con Ollama de manera interna.

  • @NeoFalangistaPR
    @NeoFalangistaPR 4 месяца назад

    Buen video hermano pero se podrá instalar todo eso en un dispositivo móvil o hacer una app?

  • @arielass11
    @arielass11 4 месяца назад +1

    Coonsulta a ver si no estoy equivocado.... Podria tener el modelo con un promt y documentos propios y que reponda solo consultas de esos documentos??? Gracias a quien pueda ayudar con la repuesta....🥃🥃🥃

  • @lautarotomaspairuna9529
    @lautarotomaspairuna9529 4 месяца назад

    Hola Fazt, en tu anterior video sobre implementar Llama 3:8b en visual studio code mencionaste que esta IA utilizaba la GPU para poder correr... Pero a la hora de aplicarlo me di cuenta que utiliza mas el CPU y la memoria RAM mas que la misma GPU
    Sera por una mala configuracion?? O es por que nativamente ya funciona con el CPU y la RAM??

  • @tomasvi2953
    @tomasvi2953 4 месяца назад

    A diferencia de Chat GPT, Ollama no tiene problemas con la ética y demás? Ya que muchas veces toca replantear la pregunta a Chat GPT por lo limitado que está en cuanto a ciertas automatizaciones y demás.

  • @mauriciocorrea6607
    @mauriciocorrea6607 4 месяца назад

    Yo tengo un problema, el open WebUi no me reconoce ninguno de los modelos descargados, ¿Que puedo hacer en esos casos?

  • @publicwolf
    @publicwolf 2 месяца назад

    Excelente video, te ganaste un suscriptor. Muchas gracias. Solo un par de dudas por favor, si no es molestia. Luego de instalar Ollama, un software de protección de mi máquina me envío un mensaje que un software posiblemente mal intencionado intentó cambiar mi DNS. ¿Es normal ese comportamiento de Ollama? y la 2da. ¿cómo hago para utilice GPU AMD en vez del CPU? Muy agradecido. ☺

    • @toied0
      @toied0 Месяц назад

      Tienes que instalar Ollama pero para ROCm y tener en la maquina ROCm instalado tambien

  • @PedroVerdes
    @PedroVerdes 3 месяца назад

    Gracias muy util

  • @johanzunigacordova2492
    @johanzunigacordova2492 3 месяца назад

    Hola, como puedo obtener el dataset generado desde el archivo PDF que he subido? Muchas gracias, un subscriptor más.

  • @tiposamuel
    @tiposamuel 4 месяца назад

    Damn Fazt, la velocidad de bajada que tienes JAJAJAJA a mí me tomo 10 min descargar el modelo de Llama3 con mis humildes 11mb/s.

  • @salomonjedidias
    @salomonjedidias 4 месяца назад

    Otro!!! Genial 😅

  • @joancermeno5971
    @joancermeno5971 4 месяца назад

    Que hardware se recomienda para éstoe modelo de lenguaje ?

  • @takemyhandarg.3023
    @takemyhandarg.3023 4 месяца назад

    Hola Fatz podrías subir una implementación de Atlas Search y Vector Search de MongoDB, saludos : )

  • @juanbetancourt5106
    @juanbetancourt5106 4 месяца назад

    Hola, se ve muy interesante, cuáles son los requerimientos mínimos de ram para ejecutarlo en local? necesita GPU? por favor considera un video de portátiles recomendados para ejecutar estas aplicaciones de inteligencia artificial que van saliendo en el mercado.

  • @pyromiko
    @pyromiko 2 месяца назад

    Que placa de video se recomienda?

  • @martinvalenciaalejo523
    @martinvalenciaalejo523 4 месяца назад

    hola y muchas gracias por el tutorial, esto me evita pagar el servicio de chatgpt hehe, sabes tengo 2 GPUS y cuando corre Ollama, consume recursos de las 2 gpus, me gustaria limitarla a una sola GPU, donde puedo configurar esto?, saludos

  • @mrtembo1995
    @mrtembo1995 3 месяца назад

    Pudieras hacer un tutorial de como correrlo en cloud? Tengo una cuenta en Lightning studio AI y logro correr todo pero no me aparece ningun modelo cuando lo intento seleccionar :/

  • @pumpbit11
    @pumpbit11 4 месяца назад

    supongo que puedo montarlo en mi propio servidor cierto? y tenerlo en la web

  • @Programadork100
    @Programadork100 4 месяца назад

    bravo me gusta

  • @Diiego37
    @Diiego37 4 месяца назад +1

    Se puede crear un api local que consulte llama3?

    • @inteligenciafutura
      @inteligenciafutura 4 месяца назад +1

      teoricamente si, yo estoy tratando de hacer eso tambien para poder mas bien desplegar esto en una instancia de aws

    • @arielass11
      @arielass11 4 месяца назад +2

      ​@@inteligenciafutura si lo logras o sabes cómo hacerlo ....seria un golazo!!! Avisa si se puede llegar a realizarse....por favor saludos 🥃🥃🥃

    • @inteligenciafutura
      @inteligenciafutura 4 месяца назад +1

      @@arielass11 ya descubrí como hacerlo mañana hago un vídeo del proceso

    • @arielass11
      @arielass11 4 месяца назад +2

      @@inteligenciafutura genial!!! Muchas gracias por la info ...me paso por el Canal....🥃🥃🥃

    • @Diiego37
      @Diiego37 4 месяца назад +2

      @@inteligenciafutura genial! Yo también estaré pendiente del video que crack

  • @FranMore_Dev
    @FranMore_Dev Месяц назад

    consume cpu o gpu? 😮 xq tengo una gpu desocupads para armar algun juguete 😂❤

  • @user-sx8cx5pd2d
    @user-sx8cx5pd2d 4 месяца назад

    Fazt hay otra alternativa para descargar ollama y llama3 8b , soy de Cuba y no tengo a la descarga por el powershell ni al sitio en general de ollama

    • @rhengo5550
      @rhengo5550 4 месяца назад +1

      Utilizar una vpn no te serviría?

    • @someday6
      @someday6 4 месяца назад

      Usa VPN colega

    • @user-sx8cx5pd2d
      @user-sx8cx5pd2d 4 месяца назад

      @@rhengo5550 si la descarga fuera desde el navegador si , pero no es el caso

  • @neoriddle
    @neoriddle 3 месяца назад

    Saludos

  • @LuxuNick27
    @LuxuNick27 4 месяца назад

    pregunta, para que quisiera descargarlo si ya hay hugging face ?

    • @FaztCode
      @FaztCode  4 месяца назад +2

      Es otra opcion, pero hay algunos que quieren mantener el modelo ejecutando en su maquina para que pueda funcionar sin internet, o pueden cargar cuqluier dato sin sensura.

    • @LuxuNick27
      @LuxuNick27 4 месяца назад

      @@FaztCode gracias, tienes por cierto discord o alguna comunidad de programadores o de IAs ?

  • @JoseRodriguez-fi3ui
    @JoseRodriguez-fi3ui 4 месяца назад

    me va muy lento, que puedo hacer

    • @FaztCode
      @FaztCode  4 месяца назад +1

      Hola Jose, el tema con esos LLM es que requieren mucho hardware de momento. Te dejo un enlace donde detallo los requerimientos: ruclips.net/video/pZGm-FTFa9w/видео.html

    • @JoseRodriguez-fi3ui
      @JoseRodriguez-fi3ui 4 месяца назад

      @@FaztCode muchas gracias

  • @inteligenciafutura
    @inteligenciafutura 4 месяца назад

    y en el contexto y en los tokens tiene algun limite?

    • @inteligenciafutura
      @inteligenciafutura 4 месяца назад

      bueno me autorespondo ajjajaja porque le pregunte al modelo y me responde esto Excelente pregunta!
      Como modelo de lenguaje basado en inteligencia artificial, mi capacidad para entender y responder preguntas
      depende del tamaño del contexto en que se encuentra la conversación.
      En mi caso, mi contexto tiene un límite aproximado de 2048 caracteres (alrededor de 350-400 palabras). Esto
      significa que puedo procesar y responder a preguntas que contienen hasta ese número de caracteres sin problemas.
      Si la pregunta o respuesta supera este límite, puede ocurrir que mi capacidad para entender y responder se vea
      afectada. En estos casos, es posible que no pueda proporcionar una respuesta completa o correcta.
      Sin embargo, es importante destacar que mi contexto es dinámico y puede adaptarse a las necesidades de la
      conversación en tiempo real. Si es necesario, puedo procesar información adicional para responder a preguntas más
      complejas o largas.
      En resumen, mi límite de contexto es aproximadamente de 2048 caracteres, pero mi capacidad para adaptarme a las
      necesidades de la conversación sigue siendo una fuerza muy potente!

  • @AdriGomezD
    @AdriGomezD 4 месяца назад

    Genial! ¿como se puede instalar esa terminal que tienes?

    • @FaztCode
      @FaztCode  4 месяца назад +1

      aqui hay un tutorial: ruclips.net/video/d9y0l7yY404/видео.html

  • @steventabango4790
    @steventabango4790 4 месяца назад

    espera, la inteligencia artificial es portatil? He aqui la evidencia.

  • @manolomaru
    @manolomaru 4 месяца назад

    ✨👌😎😎😎👍✨

  • @carlosquirozvega1187
    @carlosquirozvega1187 2 месяца назад

    como puedo acceder al servicio por medio de mi ip, es decir que desde otra pc pueda enviar la pregunta al asistente por medio del metodo POST, localhost:11434/api/chat, funciona bien, pero si desde postman remoto en mi misma red, me dice connection refused (192.168.1.2:11434/api/chat)... ya se esta ejecutando el comando ollama serve