Buscador con IA local - Combinando resultados con modelos LLM usando LLocalSearch

Поделиться
HTML-код
  • Опубликовано: 27 окт 2024

Комментарии • 40

  • @santiagocastillo1719
    @santiagocastillo1719 6 месяцев назад +1

    Muchas gracias por facilitar esta información (como los otros vídeos) de esta materia en español y de forma tan accesible.

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад

      Gracias a ti por tu comentario!

  • @SonGoku-pc7jl
    @SonGoku-pc7jl 6 месяцев назад +1

    muchas gracias por estas infos tan buenas!

  • @ser12369
    @ser12369 6 месяцев назад +1

    Muchas gracias !! por este increible contenido

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад

      Mil gracias por comentar!

  • @juanjesusligero391
    @juanjesusligero391 6 месяцев назад +1

    ¡Fantástico vídeo, como siempre! ^^
    Por cierto, ahora que ha salido Llama-3, sería genial que grabases un tutorial explicando cómo finetunearlo o entrenar un LORA (de una versión cuantizada, Q4 por ejemplo, para que más gente pueda hacerlo), y preferiblemente explicándolo todo paso a paso, sin saltar nada (desde la creación o preparación del dataset hasta la inferencia desde el modelo o el LoRA entrenados). ¡Ojalá te guste la idea! :D

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад +2

      Primero voy a publicar uno sobre cómo probar llama-3 tanto si tienes GPU como si no, y luego nos ponemos con el finetuning!

    • @juanjesusligero391
      @juanjesusligero391 6 месяцев назад

      @@LaHoraMaker ¡Estupendo! :D

  • @GoodSapiens
    @GoodSapiens 6 месяцев назад

    De nuevo, mil gracias por la maravillosa inciativa y el contenido que nos facilitas a las personas que te seguimos. En otro de tus videos vimos como la AI utilizando modelos en abierto podía identificar elementos de una foto y en este vídeo como interactuar con contenido online. Combinando ambas ideas me surge una pregunta: ¿es posible o será posible utilizar modelos abiertos y que, igual que súbiamos una foto, podamos subir documentos y que combine las capacidades del LLM y de los documentos en el contexto y en la respuesta del _prompt_? Mil gracias por todo lo valioso que aportas.

  • @cbanow
    @cbanow 6 месяцев назад +1

    Si .... excelente video como siempre !!!! Habria alguna forma de cambiar el LLM modelo ......ya que el que utiliza es realmente pesado para la mayoria de las PC, quizas con una versión cuantizada, Q4 por ejemplo, o directamente otro como mistral para que corra mejor !!!!

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад

      En el menú de la esquina superior derecha te detecta los modelos que tienes instalados. Si eliges uno más liviano debería cargártelo sin problemas

    • @cbanow
      @cbanow 6 месяцев назад

      @@LaHoraMaker Muchas Gracias !!! Exactamente lo que estaba buscando !!!!!..... De nuevo Felicitaciones por el contenido de tus videos,... mucho mas detallado y preciso, y directamente al grano, mucho mejor que la mayoria de similares en Ingles !!........Son todo un privilegio para lo que hablamos Español !!!!!!

  • @jcrm5762
    @jcrm5762 6 месяцев назад

    Sos un maestro. Me gustaría más adelante contactaros tengo en mente unos proyectos y me gustaría contar con su guía y sapiencia maestro Maker... Por lo demás felicitaciones por el buen contenido👍🏼

  • @piero_0912
    @piero_0912 6 месяцев назад +1

    genial, justo estoy haciendo tareas con modelos de lenguajes y descubri este canal, la verdad contenido de este tipo y con esa claridad no hay mucho en español,tenia una duda, sabes de algun modelo de para entender texto? actualmente estoy haciendo un buscador semantico y uso bert para extraer vectores del texto pero no es suficente para entender oraciones aveces mal redactadas o que son redundantes ,mi otro plan seria usar la api de chatgpt o usar algun otro modelo similar atraves de lm studio pero no se si tal vez por mi faltas de conocimiento me este saltando alguna otra solucion

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад

      Justo estuve hablando esta semana con el desarrollador del buscador este sobre modelos de embeddings multilingües. En su caso decidió probar con los embeddings de Nomic (que pueden usarse en Ollama directamente).
      En el hilo del Github tienes todos los detalles del modelo que mejor funcionan en multilingüe con la licencia abierta: github.com/nilsherzig/LLocalSearch/issues/49

    • @piero_0912
      @piero_0912 6 месяцев назад

      @@LaHoraMaker muchas gracias

  • @cristianquiroga7609
    @cristianquiroga7609 9 дней назад

    hola hay alguna forma de usarlo con el proyecto strom de stanford?

  • @hellracer0
    @hellracer0 6 месяцев назад

    Olé ahi mi querido señor barbudo. Es usted un crack

  • @r4m3200
    @r4m3200 6 месяцев назад +1

    Hola buenas, una pregunta que modelo en lm studio recomiendas para programas en python ?

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад +1

      Dale un vistazo a este leaderboard con los modelos evaluados para programación de mejor a peor: evalplus.github.io/leaderboard.html
      Está bastante actualizado y el mejor abierto suele ir variando con el tiempo

  • @daniwarindie
    @daniwarindie 6 месяцев назад +1

    Parece interesante

  • @erikamoonreeves6462
    @erikamoonreeves6462 6 месяцев назад +1

    Te paso un like... ..

  • @luismoroco4972
    @luismoroco4972 6 месяцев назад +1

    Una pregunta @hora maker y acompañantes saben de casualidad de algun modelo para ollama que funcione en vision o captions? he probado llava y no puede con ocr seimpre lee cosas distintas, de hecho inventa aún con temperatura cero. mil gracias
    pd sugiero preguntar en ingles y pedir traducir el resultado a español, saludos y gracias por tus videos.

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад +1

      De los modelos abiertos que he probado el mejor para este tipo de tareas ha sido Qwen-VL. Ahora bien, no está disponible en Ollama, sino que hay que cargarlo con Transformers. Tienes aquí un notebook de ejemplo: github.com/elsatch/awesome-multimodal-experiments/tree/main/Notes2JSON

    • @luismoroco4972
      @luismoroco4972 6 месяцев назад

      @@LaHoraMaker mil gracias! Lo probaré

  • @Javier_Espinoza
    @Javier_Espinoza 3 месяца назад

    Muy buen video, y se puede hacer con phi 3?

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад

      Hola Javier,
      Muchas gracias por tu comentario. En principio se podría hacer con cualquiera de los modelos que soporta Ollama, incluido Phi3.
      Ya nos contarás qué tal los resultados!

  • @canaljoseg0172
    @canaljoseg0172 6 месяцев назад +2

    🤔 Para que no ocurra ese salto cuando va escribiendo, se coloca el objeto dentro de otra división y mediante JavaScript se hace un desplazamiento inteligente.

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад

      Gracias por el comentario Jose. Creo que lo han resuelto en la última release!

  • @insecureup
    @insecureup 6 месяцев назад +1

    Me funciona fatal, pero la idea es muy buena. gracias por el video

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад

      ¿Te ocurre sobre todo al buscar en español? ¿O con cualquier tipo de búsqueda? ¿Estás probando con el modelo por defecto o con algún otro?

  • @zuone19
    @zuone19 6 месяцев назад +1

    has probado open devin???

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад +1

      No, de momento sólo he probado Devika y Cosel. Todavía no he encontrado uno que funcione demasiado estable como para contarlo (sin que sea compartir un poco el sufrimiento de hacer que funcione :D )

    • @zuone19
      @zuone19 6 месяцев назад

      Te preguntaba porque estoy intentando hacer funcionar open Devin con ollama y está siendo interesante por llamarlo de alguna manera jajaja

  • @corleone2009
    @corleone2009 6 месяцев назад +4

    sigues empecinado con la pandemia y COVID-19.... Te quedaste traumatizado?😷

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад +4

      Bueno, sobre todo lo utilizo para detectar hasta que punto los modelos son capaces de incorporar información específica y de localizar referencias. En muchos casos los modelos más pequeños incorporan alucinaciones en la respuesta. Esto es muy fácil de fechar con este prompt.
      También como lo llevo utilizando desde el principio, así se puede comparar la salida entre los modelos distintos.
      ¿Tienes alguna otra sugerencia para preguntar a los distintos modelos? ¡Soy todo oídos!

    • @corleone2009
      @corleone2009 6 месяцев назад +1

      @@LaHoraMaker Vale, el fundamento que cometas tienes su coherencia. Acabas de cerrarme la boca👍.

    • @corleone2009
      @corleone2009 6 месяцев назад +1

      @@LaHoraMaker muchísimas gracias por compartir tus conocimientos. 👍

    • @LaHoraMaker
      @LaHoraMaker  6 месяцев назад

      @@corleone2009 Encantado de seguir aprendiendo junto a todos vosotros!

    • @Alex29196
      @Alex29196 6 месяцев назад

      Muchos quedaron afectados, especialmente aquellos que perdieron a sus seres queridos. Continúa utilizando la IA para educarte mejor.