¡Mi propio ChatGPT en Casa! : Así lo he hecho (Mini PC Geekom A8)

Поделиться
HTML-код
  • Опубликовано: 14 июн 2024
  • He aprovechado la potencia y el bajo consumo de este Geekom A8 para montar el cerebro de mi Inteligencia Artificial en casa: Ollama junto a Llama3, Whisper y otros modelos para interactuar desde Home Assistant.
    ✅ Existen dos modelos del Geekom A8 con diferente modelo de CPU:
    ► Official ES:www.geekom.es/geekom-a8-mini-pc/
    Descuento: UNA8YTB
    ► Versión Ryzen 9 en Amazon: unloco.link/LBDJB
    Descuento: V3BQ9AKY
    ► Versión Ryzen 7 en Amazon: unloco.link/iMOkL
    Descuento: UNR7YTB24
    ⚡ Apúntate a la newsletter del canal y recibe consejos y trucos: unloco.link/newsletter
    Blog: unlocoysutecnologia.com/
    🔴 Tienda de domótica en Amazon: www.amazon.es/shop/unlocoysut...
    👍 🅳🅰🅻🅴 🅻🅸🅺🅴 🅰🅻 🆅🅸🅳🅴🅾 🚀
    // 👍 𝗔𝗣𝗢𝗬𝗔 𝗔𝗟 𝗖𝗔𝗡𝗔𝗟 🛑
    Puedes 𝗶𝗻𝘃𝗶𝘁𝗮𝗿𝗺𝗲 a un café: www.buymeacoffee.com/ccorderor
    🛑 Puedes convertirte en miembro del canal en RUclips: / @unlocoysutecnologia
    🛑 o puedes hacerlo en Patreon:
    / unlocoysutecnologia
    💥 𝗦𝗨𝗦𝗖𝗥𝗜𝗕𝗘𝗧𝗘 𝗔𝗟 𝗖𝗔𝗡𝗔𝗟 𝗬 𝗗𝗔𝗟𝗘 𝗔 𝗟𝗔 𝗖𝗔𝗠𝗣𝗔𝗡𝗜𝗧𝗔. 𝗚𝗥𝗔𝗖𝗜𝗔𝗦! 💥
    ⚡ 𝗧𝗘𝗟𝗘𝗚𝗥𝗔𝗠 ► t.me/unlocoysutecnologia
    📱 𝗧𝗜𝗞𝗧𝗢𝗞 ► / unlocoysutecnologia
    📸 𝗜𝗡𝗦𝗧𝗔𝗚𝗥𝗔𝗠 ► / unlocoysutecnologia
    ==== ENLACES Y OTROS VÍDEOS DEL CANAL ====
    Enlaces de todo lo visto en el vídeo:
    www.ollama.com/
    www.amd.com/en/products/softw...
    Override Ollama para usar GPU Radeon 780M: github.com/ollama/ollama/issu...
    Ollama GPU con iGPUs: github.com/ollama/ollama/issu...
    Force allocate VRAM: github.com/segurac/force-host...
    Hugging Face: huggingface.co/
    Home LLM para HACS: github.com/acon96/home-llm/tr...
    Llama 3: ai.meta.com/blog/meta-llama-3/
    Open WebUI: docs.openwebui.com/
    Te recomiendo que veas estos vídeos para entender algunos conceptos:
    🔝 Scheduler para Home Assistant - • Programador VISUAL par...
    🔝 Migramos a Z-Wave JS - • Migramos de ZWave a ZW...
    🔝 ¿Cómo actualizar Home Assistant? - • ¿Cómo actualizar Home ...
    🔝 Instalación de HACS en Home Assistant - • Instalación de HACS en...
    🔝 Home Assistant Cloud - • Pagarías por Home Assi...
    🔝 Conectar Node-Red y Home Assistant - • Home Assistant y Node ...
    #chatpgt #inteligenciaartificial #geekom
  • НаукаНаука

Комментарии • 73

  • @adiazlopez8
    @adiazlopez8 Месяц назад +10

    A mi más q estos modelos lo que más me atrae es q empiecen a salir soluciones locales de altavoces para home assistant. Que funcionen bien y q no haya q dejarse los dos riñones para comprarlos y ser ingeniero informático para hacerlos correr :)

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад +2

      Todavía queda para tener una solución plug and play, pero supongo que todo llegará

  • @SuCondegr
    @SuCondegr Месяц назад

    Gran video! Y realmente increíble lo que se viene!!!

  • @enmoto82
    @enmoto82 20 дней назад

    Muy interesante. Gran trabajo. Gracias por compartir. Saludos.

  • @milicsantiago
    @milicsantiago Месяц назад

    Gracias, Carlos! Saludos desde Argentina

  • @FEEDSRRSS
    @FEEDSRRSS Месяц назад

    Muy buenas. Uno de los puntos de inflexión sería el poder crear un sistema para dar órdenes mediante voz a la implementación de IA y que ejecutara acciones domóticas. Lo que vendría a ser un sustituto real e inteligente a los ladrillos de Alexa y Google.

  • @MrRabeliyo
    @MrRabeliyo Месяц назад

    Estaba esperando un video tuyo de esto!!
    La integración llm local a mi no le funciona, uso extended conversation pero no me funciona bien.
    Deseando la segunda parte del video!!!

  • @rkcyanide
    @rkcyanide Месяц назад +2

    Buenas Loco, con chatgpt plis se podria llamar a la Api de Openai que ya es multimodal? Aunque se pierda ese plus de privacidad? Saludos y muchas gracias por tu contenido.

  • @aparre
    @aparre Месяц назад

    Es posible meter whisper por docker en un Nas Asustor6704t gen2 con 20gb de ram?

  • @carlesmesquidajoanes5823
    @carlesmesquidajoanes5823 Месяц назад

    Me ha gustado las referéncias a Star Trek. El saludo vulcaniano mientras aludias a la típica frase de los Borg "Toda resisténcia es futil". El video como siempre, muy bien explicado. Habrá que ir aprendiendo de IA...

  • @gersong1350
    @gersong1350 Месяц назад

    Vaya crack da gusto ver tus videos. Gracias

  • @mariogonzalezdelafuente1828
    @mariogonzalezdelafuente1828 Месяц назад

    Respecto al tema de las librerias solo compatibles con Ubuntu, seguramente se pueda a llegar ejecutar en la version de Debian de la que hereda Ubuntu 22 solo que con trabajo extra, me paso en su momento con las librerias OpenVINO de Intel y al final si que pude.

  • @jlfloresvideos
    @jlfloresvideos Месяц назад +1

    No habrá Borgs por ahí?

  • @unobuscando
    @unobuscando Месяц назад

    Hola Carlos. Te resultaría interesante hacer un vídeo sobre cómo controlar un extractor de aire bidireccional en función de dos termómetros, uno interior y otro exterior a la vivienda? Requisitos: debe poderse elegir entre modo invierno (introduzco aire caliente diurno) y verano (introduzco aire fresco nocturno y extraigo aire caliente diurno), además de un interruptor de parada. Gracias. Saludos.

  • @jorgermartinez
    @jorgermartinez Месяц назад +1

    Pues un video de como mandarle todos esos datos, calendar, sensores, etc y que te diga un resumen si que sería interesante!

  • @MaximoFernandezNunez
    @MaximoFernandezNunez Месяц назад

    Te recomiendo también los modelos GGUF, ollama los acepta. Hay que hacer un modelfile como en docker, pero se pueden usar. Son mopdelos cuantizados y los de 4 bits funcionan bien. La documentación de ollama para hacer los modelfiles es muy mala si no sabes Go. Yo tengo un post explicándo cómo hacerlos, no lo pongo para no hacer spam, pero si te interesa te lo paso

  • @ch0wch0w83
    @ch0wch0w83 Месяц назад

    Buen trekkie

  • @stan.s.stanman
    @stan.s.stanman Месяц назад

    Menuda locura de video! No me importaria el dia de mañana tener que cambiar mi extremadamente humilde NUC por algo bastante mas potente para meterle IA a la domotica. Pero ademas de mejorar, tendra que ser mas user friendly su implementacion. Esto ya se me escapa 😂

  • @lelito4
    @lelito4 Месяц назад

    Jajaja, pues tanto por los borg de star trek como los bogones de la guía de autoestopista galáctico (obviamente los segundos parodian a los primeros) 😂

  • @ScorgeRudess
    @ScorgeRudess Месяц назад

    el modelo GPT-4o es gratuito para su uso con chatgpt pero solo que limitado a cierta cantidad de prompts, se puede pagar por aumentar 5x con la suscripcion plus.

  • @Erosgenuino
    @Erosgenuino Месяц назад

    Yo, lo que busco es una IA local que le des ordenes por voz y te entienda, que me encienda la cafetera , que le eche la comida a los gatos y el agua, y que me riege las lechugillas.

  • @miquelbotanch6170
    @miquelbotanch6170 Месяц назад

    Star Trek… como vas a hablar con ella, le podías haber puesto Locutus.por cierto mírate borg backup. El sistema de backup más geek que hay. Es como un Git+rsync. La resistencia también es futil. Hace copias de los cambios y guarda los datos con deduplicacion. Un saludo

  • @teamgaesgarminbyorbea6002
    @teamgaesgarminbyorbea6002 Месяц назад

    Entiendo que en un Nodo de proxmox como lxc también se podría?

  • @Guinnberg
    @Guinnberg Месяц назад +1

    Gran video! Y justo ahora que estoy pensando en comprar un servidor más potente.
    Crees que este podría correr junto a Llama, home assistant, frigate y reconocimiento facial?
    Con el nuc que tengo ahora, whisper en small me tarda cerca de 3s en transcribir algo como "enciende la luz de la oficina" 😂

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад +1

      Ojo con whisper que tiene sus cosillas. En amd la aceleración no va tan fina como con nvidia. No he sacado tiempos porque lo utilizo para transcribir asi que la inmediatez no es un problema, aunque desde luego potencia tiene por un tubo

    • @Guinnberg
      @Guinnberg Месяц назад

      @@unlocoysutecnologia entonces crees que podría correr todo en el mismo servidor?

  • @javituh
    @javituh Месяц назад

    Grande Carlos. Cuando le quites el HDMI tal vez tienes que usar un HDMI headless para no desactivar la aceleración por HW... Ya comentarás sí hace falta o no.

  • @MaximoFernandezNunez
    @MaximoFernandezNunez Месяц назад

    Te recomiendo qwen2 7B, tiene mejores métricas en benchmarks que llama3 8B. Entiende bien el español y al tener 7B en vez de 8B ira un poco más rápido

  • @groger9388
    @groger9388 Месяц назад

    Tienes pensado hacer algun video paso a paso de como instalar una IA que pueda controlar la casa automáticamente? Me interesa para un nuc de pocas prestaciones, siilar a raspi5, gracias

  • @charlie663
    @charlie663 Месяц назад

    Carlos, podrias hacer un video acerca de como montar uno potente con una grafica dedicada?. Sería interesante tener una IA donde podamos hacer uso de un LLM similar a chatGPT sin las limitaciones que este tiene. Ejemplo: limitación de datos a años anteriores o pedirle cosas que no te las puede responder: predicciones de cosas, etc

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад

      Si tienes un equipo con una dedicada de nvidia, montate ollama, es super sencillo y se pueden hacer cosas muy chulas

  • @galdakaMusic
    @galdakaMusic Месяц назад +1

    Ha salido el módulo Hailo 8L como Hat para Rpi5. Quizás el vídeo interesante sería HAOS sobre Rpi5 con Hat doble SSD y modulo Hailo 8L. Y ver rendimiento con Frigate.

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад

      Hay que tener cuidado con meter mucho hat, la line pcie que tiene es 1x. En cualquier caso, si consigo hacerme con uno a un precio decente, si, quiero probarlo

    • @galdakaMusic
      @galdakaMusic Месяц назад

      Yo el futuro lo veo por ahí el Hailo 8L original para Frigate y otra Rpi en paralelo para la IA general de tu casa y conexión privada Ollama con HAOS

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад

      @@galdakaMusicla rpi no tiene potencia suficiente por si misma para los llm, la jetson es otro cantar, pero el precio es otro

    • @galdakaMusic
      @galdakaMusic Месяц назад

      ​@@unlocoysutecnologiaDesde mi punto de vista estás equivocado. Hay modelos pequeños y tuneados para ejecutarse en Rpi5 sin problema. A día de hoy para pisos de 50 a 120 M2 con 60 dispositivos Zigbee y 3/4 cámaras RTSP es suficiente una Rpi 8GB con Coral o Hat AI oficial y disco duro SSD. Si le metes IA otra Rpi5 dedicada sería suficiente para el grueso de usuarios.

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад

      @@galdakaMusic Todo depende de lo que signifique para ti "sin problemas". Si te refieres a un llm que tarda 1 minuto en contestar y con una tasa de alucinaciones enorme, entonces si, hay modelos que entran en una raspi. Con respecto a lo de la casa, seguro que si, pero económicamente no tiene ningún sentido. Entre raspi, accesorios y los hats son más de 200€. Por ese precio tienes mini pcs de buena calidad y mucha más potencia. Un cosa es utilizar la raspi pelada para lo que es, que ahí tiene encaje, pero irte a más de 200€...

  • @CoDeC__
    @CoDeC__ Месяц назад

    lo que he observado, que ya lo comentas en el vídeo, es que las IAs tienen respuesta para todo y si es necesario se lo inventan y esto en según que entornos es hasta peligroso. Incluso en entornos profesionales y acotados, l@s "jodid@s" te contestan. Grande como siempre Carlos.

  • @Atmel4fun
    @Atmel4fun Месяц назад

    Muy interesante poder tener un modelo en local, pero eso no va a evitar que todos seamos asimilados.....

  •  Месяц назад

    🖖

  • @MaximoFernandezNunez
    @MaximoFernandezNunez Месяц назад

    Deberías probar una Nvidia Orin Nano

  • @sergimaurimoreno3298
    @sergimaurimoreno3298 Месяц назад

    Estoy 100% de acuerdo en la apreciación de que tarde o temprano la IA controlara nuestras casas, es el siguiente escalon lógico.
    Por ahora lo veo un poco verde, me gustaría trastear con todo esto pero no dispongo del tiempo y recursos suficientes.
    De todas maneras se agradece esta actualización y quedamos pendientes de saber cual sera el camino a seguir.... porsupuesto en español.
    Now me voy a tomar un "fucking" cafe con leche de mileurista bro...

  • @elialogeek
    @elialogeek Месяц назад

    mejor que los belink de 200€?

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад

      No son comparables, son dos productos completamente distintos y con specs distintas

  • @gbm3050
    @gbm3050 Месяц назад +1

    Tienes algunos mini errores de conceptos (lo cual es perfectamente normal si no tu especialidad) pero como comentario constructivo si que queria comentar que el uso de LLMs es mas secundario, es una cosa que se puede delegar a la api de openAI perfectamente. Lo importante aqui a nivel local para mi es el uso de RAGs para acceser a tu información ya sea de documentos o sensorica

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад

      Segurísimo, soy aprendiz de todo esto. Si que te agradecería que comentases los errores de conceptos, asi puedo añadirlos a la descripción. Con respecto a openai, siempre está la opción, y buena es… pero barata no sale

    • @gbm3050
      @gbm3050 Месяц назад

      ​@@unlocoysutecnologiaPues mira, te voy diciendo con tiempos 5:54 no exactamente. Chatgpt si que es un modelo, me explico, una LLM como funciona tradicionalmente es tu escribes algo le das a enter y sigue escribiendo. Por ejemplo empiezas un cuento y continúa con lo que estás escribiendo. Eso sería GPT, la base, luego está chatgpt que es un fine tunning en las ultimas capas para que acepte la estructura de chat, que es lo que te ofrece la web pero que también es un modelo. Voy a vuela pluma, no sé si me he explicado.
      6:55 yo tiraría de mixtral. Me fío más de ellos que de meta. No he probado meta para ser honesto pero por compliance estoy poniendo mixtral a mis clientes (o API de openai). Es más interesante por ser europeo y más transparente.
      13:04 justo esto es lo que te digo que debería hacer un RAG pero que también lo puedes hacer de una manera "hardcodeada" como lo has hecho tú.
      14:50 aquí está el otro fallo. No es que este menos entrenado, el modelo es el mismo lo que haces es reducirle bits. Me suena que le vi un vídeo del tema dotcsv, te intento buscar enlace.
      Te busco también una serie de artículos sobre arquitectura básica de estos chismes. Otra cosa, a mí la API de chatgpt para pruebas me consume mierda tbh baratísima. Meto 10€ hace 6 meses y ahí siguen 9€ y pico todavía. A nivel corpo es cuando sale caro por la escalabilidad

    • @Mouta77
      @Mouta77 Месяц назад

      No, si usas la api de openAi, tienes que enviar tus datos a ellos. La ventaja de instalar una IA local también está en que no tenga acceso a tus datos

    • @gbm3050
      @gbm3050 Месяц назад

      Puse dos respuestas largas pero como le etiquete directamente y no sale la respuesta xD supongo que lo tendrá capado. Si efectivamente, con la API yo llevo gastado menos de 50 cts en tres meses en la API de pruebas que tengo para mis clientes. Y le doy caña. Pero claro, esto se encarece con la escalabilidad y no porque un usuario haga cosas

  • @lroqcor
    @lroqcor Месяц назад

    We are the Borg. You will be assimilated. xD

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад +1

      We will add your biological and technological distinctiveness to our own. Your culture will adapt to service us. Resistance is futile.

  • @crstnmtchll8650
    @crstnmtchll8650 Месяц назад

    lastima que el saludos es de la serie original y el borg cube es next generation jajjajajajaaja

  • @GEEKOMPC
    @GEEKOMPC Месяц назад

    Gracias por comentar sobre nuestro producto. ¡Sus comentarios sobre los productos GEEKOM son muy valiosos para nosotros!

  • @yeasturianin
    @yeasturianin Месяц назад +1

    Has considerado un mac mini? Diría que te permitiría correr modelos más grandes y consume muy poco.
    Edito: ¿Y una Jetson Nano?

    • @unlocoysutecnologia
      @unlocoysutecnologia  Месяц назад +1

      El problema es el precio. El mac mini con 16gb se va a más de 1500 euros

    • @aioras
      @aioras Месяц назад

      si no te importa el tamaño, hay bastantes servidores usados con potencia de sobra para que funcione todo a un precio mínimo.

    • @ch0wch0w83
      @ch0wch0w83 Месяц назад +1

      @@aioras demasiado consumo

    • @Paw_Low
      @Paw_Low Месяц назад

      Una jetson podría correr el modelo completo de llama? O al menos el mismo que el del video sin retraso alguno?

    • @aioras
      @aioras Месяц назад

      @@ch0wch0w83 el consumo en mi opinión es relativo al precio de coste del ordenador, ya que si hay que gastar x8 en cuanto tardas en amortizar ese sobre coste? todo es hacer números y ya te adelanto que yo no he hecho

  • @galicianatura
    @galicianatura Месяц назад

    Primero!

  • @MaximoFernandezNunez
    @MaximoFernandezNunez Месяц назад

    Ya paro de escribir