Crea tu Propio Sistema de IA GRATIS y en LOCAL

Поделиться
HTML-код
  • Опубликовано: 7 ноя 2024

Комментарии • 26

  • @NovedadesInteligenciaArtifical
    @NovedadesInteligenciaArtifical 26 дней назад +1

    Que loco justo ahorita estaba buscando esto y en este momento lo subiste

  • @garriola007
    @garriola007 22 дня назад

    Muy buen video!!! Espero que sigas profundizando en el tema

  • @gabirabbit9470
    @gabirabbit9470 20 дней назад

    huaauuu.. muchas gracias por tremendo aporte!!

  • @dannuvercabezas4797
    @dannuvercabezas4797 26 дней назад +1

    Excelente 🎉

  • @danijaguar
    @danijaguar 18 дней назад

    Gracias genio

  • @glenncuracao
    @glenncuracao 24 дня назад +1

    Hola Nico! primero que nada MUCHAS GRACIAS por todas tus enseñanzas, y una pregunta, en el minuto no me aparece en el desplegable la opcion de Documents, de hecho me aparece que no hay ningún resultado para escoger (minuto 14:29), entonces al ejecutar el chat me da error, como puedo arreglar ese detalle por favor? es en Qdrant Collection (From list), he buscado para solucionarlo y no sé he podido hacerlo

  • @pategoubusinesscenter1307
    @pategoubusinesscenter1307 7 дней назад

    como almacenar datos personales en qdrant y recuperarlos con langchain por ejemplo

  • @rocalde
    @rocalde 25 дней назад +2

    que tal estimado ? una consulta . es mejor tener n8n en local o en googlecloud? en la nube?. pregunto porque si tengo automatizaciones y apago el pc. se cortaria la automatizacion? . saldos desde Chile

    • @stevenlucero8108
      @stevenlucero8108 23 дня назад

      ??

    • @Pekarnick
      @Pekarnick 21 день назад

      Claro, si tenes "schedule" (o como se escriba), algún evento como recibir un correo o algo así como para iniciar el flujo lo mejor es que siempre este encendido, en google cloud, aws o azure es lo ideal en estos casos.... pero si quieres un entorno cerrado local es un tu propio ordenador. Depende del objetivo y de los requerimientos que necesites. Saludos!!

  • @lucassegovia4795
    @lucassegovia4795 22 дня назад +1

    Muy bueno el material, sólo que quizás me gustaría saber si hay posibilidad de hacer un tutorial así sólo que un poco más despacio

  • @hdcopyrotulatuvida1865
    @hdcopyrotulatuvida1865 25 дней назад

    Esto si que peta

  • @Dimarcot11
    @Dimarcot11 12 дней назад

    Gracias por el aporte , pero me sale este error y no carga ollama: Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: error running hook #0: error running hook: exit status 1, stdout: , stderr: Auto-detected mode as 'legacy'
    nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown
    ojala me puedas contestar, saludos

  • @yordanistissert8673
    @yordanistissert8673 25 дней назад

    Buenos dias me gustaría hacerte algunas preguntas, como hacer para agendar una llamada?

  • @hsimosa
    @hsimosa 18 дней назад

    Estimado, en tu procedimiento para la instalación de Docker dices: "Simplemente te lo descargas y te creas una cuenta." Crear una cuenta sin decir para que o porque. Como se debe interpretar ese requerimiento? Gracias mil.

  • @TvIA-fn4lt
    @TvIA-fn4lt 25 дней назад

    Nico si esta en local como tu lo has hecho ¿si apagas el ordenador sigue el sistema funcionando? gracias

    • @Romusic1
      @Romusic1 22 дня назад

      CREO que la respuesta es obvia... si esta en local es decir existe solamente en tu ordenador.....obvio que una vez apagado ..el ordenador que es tu "local" se apaga..todo!

  • @jluquefl
    @jluquefl 20 дней назад

    Pues yo no lo he hecho funcionar, me sale este mensaje de error [ERROR: time: invalid duration ""] que me dice que está en el AI Agent (Pero lo cierto es que lo he hecho con Llama 2.2:latets que es el que me ha instalado por defecto. Alguien que lo haya resuelto?

  • @matzcontreras
    @matzcontreras 19 дней назад +1

    al final de todo la conclusion es que chateas con ollama, tienes que crear agentes o algo mas complejo, lo que hiciste ya es de conocimiento general podria decirce, la diferencia que ocupas plataformas que interactuan con ollama, no hiciste ni un rag que normalmente se ocupan estas tools.

  • @respada86
    @respada86 26 дней назад +3

    Cuales son los requisitos para tener instalada la IA sin que vaya a pedales para decirte "Hola"? Porque hace como 1 mes intenté con Llama la más pequeña y madre de Dios... Lo que tardaba...

    • @NovedadesInteligenciaArtifical
      @NovedadesInteligenciaArtifical 26 дней назад +1

      yo ahora lo voy a probar en una tablet que me salió por unos $400 super básica, pero como no es URG las respuestas creo que me podría venir bien, si estas pruebas salen bien, podría pasar a una más potente y hací hasta llegar a necesitar una tarjeta de vídeo ya les cuento como me va

    • @respada86
      @respada86 26 дней назад +1

      @@NovedadesInteligenciaArtifical Yo lo probé en un PC con gráfica integrada, es el que uso para trabajar programando, y la verdad, es que no podía con el alma... Imagino, que habrá que tener cierta cantidad de RAM libre, así como SSD libre y una RAM de la gráfica considerable, ya que recuerdo, que el modelo más grande, consumía unos 128GB de RAM (no recuerdo si de gráfica o RAM de la normal).
      Entre este y el año que viene, intentaré hacerme con un servidor para poder meterle varias gráficas, pero primero quiero testear cómo va el tema de la libertad de poder hacer lo que se quiera (nada ilegal, pero sabes que hay cosas que te dice que no "puede").
      Si la de OpenAI ya está segada, la de Facebook imagino, que lo estará más aún... Te leo por aquí! :)

    • @emiliorull
      @emiliorull 26 дней назад

      Buenas! Que ordenador utilizas?

    • @NovedadesInteligenciaArtifical
      @NovedadesInteligenciaArtifical 26 дней назад

      @@respada86 Pues para programar te recomiendo que user el "IDE"/Editor de texto cursor, o en el VScode integres con el plugin Continue y lo enlaces con groq y en local con llama o qwen2.5-coder

    • @xmagcx1
      @xmagcx1 25 дней назад

      depende de al menos 15gb de ram