Consulta tu servidor IA 100% local desde tu móvil iOS usando la app Enchanted LLM

Поделиться
HTML-код
  • Опубликовано: 11 сен 2024

Комментарии • 17

  • @cybereye7366
    @cybereye7366 3 месяца назад

    Fuerza y gracias por compartir tus conocimientos

  • @Kaesarfdez
    @Kaesarfdez 4 месяца назад +2

    ¡Qué bonito detalle el recuerdo a Carlos Cervilla 'CaCer'!

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад

      Gracias César por compartir el recuerdo!

  • @jribesc
    @jribesc 4 месяца назад +2

    Muchas gracias Cesar. Mi más sincero pésame.

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад

      Muchas gracias por compartir tus condolencias.

  • @javaboy6581
    @javaboy6581 4 месяца назад

    Qué grande eres! El mejor sysadmin del reino! Estoy estudiando como meter el RAG con la LLM de phi3, pero con la interaz de ollama. Todos los contenidos que veo por youtube siempre hacen la consulta en la pregunta y luego lanzan el scrypt python, pero eso es feo y no lo puedo usar para preguntarle cosas sobre mis apuntes. A ver si se te ocurre algo para tener una interfaz web tipo ollama para hacerle preguntas a mi RAG.
    Muy grande!
    Post data, animos por lo del compañero y suscribo lo que te decia el compañero, César,, siempre software libre por Dios!.
    Un abrazote.

  • @bull4c183
    @bull4c183 3 месяца назад

    Hola Cesar que tal, mi nombre es Rafa, agradecerte estos videos, te he descubierto hace 2 días y estoy ¨enganchado¨ a los videos y directos pasados, tengo una pregunta que no se si lo has comentado en algún directo pero no lo he visto, y es que si por ejemplo, yo quiero usar lm studio como back alojando todo en un linux y configuro una vpn par conectarme en remoto hasta ahí ok, pero mi duda es si tengo opción de montar un front encima de esto, o si tengo que usar como has explicado en otro video uso Rivet a la cual le meto un hook esperando el triger del front y de ahí que haga todo y lo devuelva como post al front (creo que lo estoy complicando demasiado XD)
    edito: mejor usar Anything llm para tener alojados los vectores?

  • @Edu2pc
    @Edu2pc 2 месяца назад

    Nos tienes un mes sin videos!

  • @FaRLam
    @FaRLam 4 месяца назад +1

    Rip Carlos. Mis pésame a su flia

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад

      Muchas gracias por compartir tus condolencias.

  • @mariron42
    @mariron42 3 месяца назад +1

    Hola, estoy intentado ajustar mistral 7b para que imite mi personalidad usando mis chat de whatsapp, ¿cómo le doy formato a los datos de entrenamiento para que pueda seguir conversaciones enteras y no solo sea pregunta respuesta?

  • @ivanngv
    @ivanngv 2 месяца назад

    Estaba buscando desde hace un mes una solución así tengo una Mac y pc con tarjeta gráfica tipo gamer. Pero donde trabajo más es en la Mac. Yo quería acceder desde la Mac al pc gamer para usar chatgpt local.

  • @flg-play7284
    @flg-play7284 2 месяца назад

    Este te encatara :
    VOIP en local le Damos una extension y cuando llame puedo hablar con la iA
    1. VOIP + Ollama
    2. LLM ONLY VOICE + OLLAMA en caso de que tengas un video con este tema favor de adjuntar link

  • @galdakaMusic
    @galdakaMusic 4 месяца назад +1

    Buenas. Se puede hacer un servidor OpenUI con una Rpi y una Google Coral?

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад

      La Coral tiene muy poca memoria así que no permite cargar estos modelos para acelerarlos.

  • @danielperez9362
    @danielperez9362 4 месяца назад +1

    disculpa para android ?

    • @LaHoraMaker
      @LaHoraMaker  3 месяца назад

      El único programa que tenía fichado para Android lo ha abandonado su creador :(