Cómo INSTALAR en tu PC un CHATGPT...¡GRATIS! 🤯 Chatea con la IA y tus DOCUMENTOS

Поделиться
HTML-код
  • Опубликовано: 30 сен 2024

Комментарии • 89

  • @XavierMitjana
    @XavierMitjana  5 месяцев назад +5

    SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:
    👉 bit.ly/ia-newsletter_

  • @juliocorral
    @juliocorral 5 месяцев назад +9

    Esta tendencia de poder alimentar modelos con nuestra propia información para temas internos sin el riesgo a que nuestros datos sean utilizados por terceros me parece que va a crecer mucho en breve.

  • @faustoorozcocoy1256
    @faustoorozcocoy1256 5 месяцев назад +8

    Hola @XavierMitjana gracias por el video, tan solo quiero apuntar que en LMStudio también se puede usar la tarjeta gráfica para ejecutar rápidamente los modelos, para ello a la derecha de la interfaz hay un campo, lo activas y ya.
    Por otra parte, como idea para otro video y relacionado con este asunto de ejecutar modelos en local, una de las principales ventajas es que podemos encontrar modelos sin censura, convendría un video con los principales modelos con esta característica que estén disponibles actualmente. ¡Saludos!

  • @juanjesusligero391
    @juanjesusligero391 5 месяцев назад +9

    Ollama + OpenWebui también tiene RAG por defecto, y los dos son 100% open source, con Llama3 desde el primer día :)

    • @y0._.
      @y0._. 4 месяца назад

      Pasa tuto xd

    • @juanjesusligero391
      @juanjesusligero391 4 месяца назад +2

      @@y0._. Hay uno hecho ya, en un canal llamado "La Hora Maker". El vídeo se llama "¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!".
      Lo único es que ahora la GUI (interfaz gráfica) se llama OpenWebui (el vídeo es de hace dos meses, de cuando se llamaba OllamaWebui), pero se instala igual (yo seguí ese tutorial para instalarlo todo).

    • @y0._.
      @y0._. 4 месяца назад

      @@juanjesusligero391 muchas gracias!

  • @jneon66
    @jneon66 5 месяцев назад +4

    @Xavier este modelo de Chat RTX, es porsible agregarles modelos o solo los que trae? Saludos desde Rep Dom :D

  • @airdany
    @airdany 5 месяцев назад +13

    Lo único que me disgusta de la novedad de la IA actual, es que sacan casi todo para ordenadores con recursos potentes. Si tienes un ordenador con más de 5 años te dan la espalda. Mi macmini va genial a dia de hoy, maqueto libros mientras navego y retoco imágenes.. holgadamente. Pero LM Studio ya no tiene versión para mi sistema operativo, he de parchear el sistema para intentar cargarle la siguiente (Big Sur) y aun asi no sé si podria usar LM Studio. He descargado JAN que hace lo mismo, y el listado de modelos ya me adieverten en más de la mitad que mi memoria es justa (8 GB Ram) diciendo que iria lento el sistema. He descargado con OLLAMA en mi terminal algunos modelos de IA de 4 gigas y van despacio, descargué uno de 25 gigas e iba tan lento que no lo usé. Xavier! independientemente de LM Studio, JAN o lo que sea... ¿hay alguno que en local te permita analizar PDFs?. Me va genial darle PDFs a alguna IA y decirle sumame todas estas facturas o buscame tal cosa y local seria más privado.

    • @felixcanosa6819
      @felixcanosa6819 5 месяцев назад +6

      Podrías usar Gpt4ALL o JAN, y usar el nuevo modelo de Microsoft Phi-3 . En mi caso tengo la RAM justa (8GB) y una CPU Intel I7 de cuarta generación y corriendo con el modelo phi-3 me va bastante bien (los mas grandes como mistral 7x8 o los de LLAMA van como hombre picando en piedra).

    • @elsubidonk
      @elsubidonk 5 месяцев назад

      que modelo de Mac mini tienes? yo tengo un macbook pro del 2012, con una Nvidia de 1gb mas o menos. Te funciona bien? Si no es asi, puedes ponerle windows o linux y te ahorras de subir a Big sur u otra version mas moderna de MacOS.

    • @felixcanosa6819
      @felixcanosa6819 5 месяцев назад +2

      @@elsubidonk si, tengo un procesador Intel (no mac), usando Gpt4ALL Y con un S.O linux mint, con el modelo que te especifique va muy bien,

    • @elsubidonk
      @elsubidonk 5 месяцев назад

      @@felixcanosa6819 mmm bueno habra que probar.

  • @theemperorprotects83
    @theemperorprotects83 9 дней назад

    Ni tan seguros, yo lo uso de todas maneras, le pregunte a llama de como se actualiza sino la conecto a internet, y me dijo que almacena información en la cache en disco y según el tamaño así puede continuar trabajando desconectada de internet, pero una ves conectes tu internet, ella se conectará a los servidores de meta para actualizarse; ahora el punto es si se conecta a los servidores de meta que le impide subir las conversaciones realizadas?, nada incluso no tenemos ninguna certeza de que lo hace o no. Pero a Don Mark ya lo conocemos por su manía con los datos ajenos.

  • @nchtblut
    @nchtblut Месяц назад

    Model Meta-Llama-3.1-8B-Instruct-Q4_K_M failed to start. ni modo RIP

  • @nchtblut
    @nchtblut Месяц назад

    11:27 lol eso me paso una vez con bing chat hace como 3 meses xd la deje que escribiera y lo grabe no paro de escribir por 5 minutos cosas sin sentido y al final numeros y simbolos

  • @Daphne2342
    @Daphne2342 27 дней назад

    qué modelos son recomendables para correr en una Macbook M1 con 8 gigas de ram?

  • @enriquediaz-s9r
    @enriquediaz-s9r 5 месяцев назад +1

    Hola Xavier hay manera de que me ayudaras en capacitar como poder hacer esto conectando a una base de datos y que funcione en modo Local del IA para analisis de datos

  • @entey2011
    @entey2011 9 дней назад

    Cuando no quiere cargar el modelo que se puede hacer??

  • @Jesulex82
    @Jesulex82 20 дней назад

    si si pero se puede hablar por micro? y que te lea sus respuestas?

  • @Smylaw
    @Smylaw 5 месяцев назад +1

    Llama 3,le he preguntado cuantos parámetros tiene gpt4 y ha respondido lo que le ha dado la gana, no sé si es mucho de fiar

    • @XavierMitjana
      @XavierMitjana  5 месяцев назад

      Hola, los modelos de lenguaje su principal uso no debería ser esperar que sean precisos a la hora de devolver información factual, sino sobre todo como herramientas de manipulación de textos y lenguaje en base a conocimiento aportado.

  • @Charlysam-g3t
    @Charlysam-g3t Месяц назад

    diablos me pase 15minutos viendo y yo solo queria saber si podia crear imagenes en local y nunca lo dijo. Mal servicio!🙃

    • @XavierMitjana
      @XavierMitjana  Месяц назад +1

      Es un vídeo sobre Llama 3, Llama 3 es un modelo de lenguaje, ¿cómo va a generar imágenes?

  • @pm9327
    @pm9327 5 месяцев назад

    ¿Alguien sabe por que ChatGPT4 manda este mensaje? “New responses will use GPT-3.5 until your GPT-4 limit resets” (Las nuevas respuestas utilizarán GPT-3.5 hasta que se restablezca su límite de GPT-4), ¿“límite”?, ¿como que hay límites si es una cuenta pagada?.
    Gracias por sus comentarios.

    • @XavierMitjana
      @XavierMitjana  5 месяцев назад +2

      Sí, incluso con la versión de pago ChatGPT impone límites de uso. Antes te lo decía explícitamente, 40 mensajes cada 3 horas, ahora es algo un poco más difuso.

    • @pm9327
      @pm9327 5 месяцев назад

      @@XavierMitjana Pero no debería ser así ¿cierto?, es casi como si el robot me dijera que necesita descansar. Creo que si lo de la AI va a ser así nadie debería temer el que te quiten el empleo 😂😂😂😂😂

  • @nchtblut
    @nchtblut Месяц назад

    9:25 no me pidio nada asi que como lo instalo?

  • @yockmercado
    @yockmercado 5 месяцев назад +1

    En qué aplicación haces tus avatares? Tienes vídeo sobre eso?

    • @XavierMitjana
      @XavierMitjana  5 месяцев назад

      Lo hago con Midjourney+CREF+FaceSwap+Upscale en Krea o Leonardo, tutorial como tal paso a paso no tengo, pero de cada una de las partes están los vídeos en el canal.

  • @michel316-f1t
    @michel316-f1t 2 месяца назад

    Mi maquina no es compatible con ML Studios, me dice que los Backends son incompatibles. Que puedo hacer para solucionar este problema

  • @Nousenesp
    @Nousenesp 4 месяца назад

    Para los que sepan se podría usar Llama 3 con chatRTX?
    Y en ese caso iría más rápido que con LMstudio?

  • @jorgeosmar5429
    @jorgeosmar5429 5 месяцев назад

    Hasta ahora no encontré otra IA mejor que PI. Hablo con la aplicación como si fuera una persona en cuanto su fluidez. Y en cuanto a contenido es suficiente hasta para nivel profesional. Llama es una tortuga por lo que veo y hay que ingresar Pront? y una tarjeta especial? Gracias me quedo con PI.

  • @testerdsdddd
    @testerdsdddd 5 месяцев назад +1

    Pues el de RTX es muy tonto, he tratado de hacer que escriba relatos y lo hace fatal, chatgpt3 lo hace mucho mejor.

    • @georyittgorayeb1900
      @georyittgorayeb1900 5 месяцев назад

      Si pruebas el de 8b claramente el gpt 3.5 esta a otro nivel. El de 70b es más decente pero creo que igualmente está un peldaño más arriba gpt

    • @testerdsdddd
      @testerdsdddd 5 месяцев назад

      @@georyittgorayeb1900 he instalado todo el pack...

  • @JOSE-GRIMALT-Temático
    @JOSE-GRIMALT-Temático 13 дней назад

    que lio ¡¡¡¡¡

  • @canaljoseg0172
    @canaljoseg0172 5 месяцев назад

    He montado llama 3, le falta pulirse un poco más, tengo otros modelos que son mejores, en los modelos pequeño deben estar orientado a cosas necesaria y no tanta información que no es necesaria. Por eso este modelo pasara por un proceso de reajuste, como hacen con los modelos de automatic111. Para que trabaje muy rápido el modelo debe estar configurado en la gpu al ancho de banda de la tarjeta, y en la parte de tokens que tiene un valor 2048, se divide lo del ancho de la tarjeta entre 64 y la cantidad te indique lo multiplicas por 2048. si tiene mucha memoria lo puedes dividir entre 32 o 16.
    No me justa ollama, mi favorito sigue siendo LM Studio y la interfaz Web-UI de ollama, para modo local.
    Una cosa si es cierta es más preciso el 70b de tokens, que el de 7b, pero como asistente desarrollo es bueno.
    Hay que aprovechar llama 3 en Huggins mientras siga gratis, pero creo debe aún pulirse para ser tan bueno como ChatGPT.
    Ojala que se diseñe server para tener su propios modelos y que sean de 300b de tokens, sería la Ostia !!! ☺

  • @juliangomez4543
    @juliangomez4543 Месяц назад

    Una pregunta necesito pasar imagenes a texto que prompts o IA recomendais?

  • @alejandroaltamirano9884
    @alejandroaltamirano9884 5 месяцев назад +1

    Yo ya hice eso, pero sólo está disponible el modelo de 8B de parámetros.
    ¿Todavía no está disponible el mediano?

    • @georyittgorayeb1900
      @georyittgorayeb1900 5 месяцев назад +1

      parece que para ellos el mediano es el de 70b

    • @alejandroaltamirano9884
      @alejandroaltamirano9884 5 месяцев назад +1

      @@georyittgorayeb1900 Así es. Se supone que ya está liberado, pero no estaba disponible en LLM studio.

    • @georyittgorayeb1900
      @georyittgorayeb1900 5 месяцев назад

      @@alejandroaltamirano9884 aaa dle que yo con ollama me descargue el de 70b

  • @burnoutcycle
    @burnoutcycle 5 месяцев назад

    No se yo, es más rápido que ChatGPT pero personalmente por ejemplo en scripting de powershell esta un poco flojo

  • @PacoGoro
    @PacoGoro 5 месяцев назад

    Xavier, ¿conoces algún modelo que no esté censurado y que se pueda cargar en local? Muchas gracias por tus excelentes vídeos.

  • @jjen9595
    @jjen9595 5 месяцев назад

    Para chatRTX se necesita 8GB VRAM por si acaso, lo probe en mi 3060m de laptop y no funciono 😢

  • @xavifont7206
    @xavifont7206 4 месяца назад

    Y para instalar una API local que de servicio de chatboot por ejemplo a una app propia, como lo harias?

  • @osito1701
    @osito1701 5 месяцев назад

    Javier, abordas herramientas actuales de IA. ¿Conoces alguna herramienta para diseñar en solidworks? Con los vídeos de youtube, no es posible interactuar cuando surgen dudas.

  • @martinsanchez6628
    @martinsanchez6628 Месяц назад

    Excelente, buena información, gracias

  • @gstvgrc
    @gstvgrc 5 месяцев назад

    Mañana lo pruebo en un Mac Mini. Pregunta: para qué sirve la integración de LM Studio dentro de Jan?

  • @jodter1
    @jodter1 5 месяцев назад

    ya, pero como puedo usar modelos de ia por python, no hablo de colaide hable de ide para proyectos reales.

  • @mekagenden
    @mekagenden 4 месяца назад

    PrivateGPT

  • @IAMKTINM
    @IAMKTINM 5 месяцев назад

    Muchas gracias 🎉 ChatPDF pienso que es similar a la última opción.

  • @akasha6287
    @akasha6287 5 месяцев назад

    Buenos dias amigo gracias por tus videos, un favor que IA es recomendable para revisar codigo

  • @yomairaparaguaica2594
    @yomairaparaguaica2594 25 дней назад

    bla bla bla

  • @UrsulaCallistis
    @UrsulaCallistis 5 месяцев назад +1

    En caso de que algún día los desarrolladores logren hacer esto de manera fácil en un celular con Android, ojalá puedas hacer un vídeo hablando de eso, ya que todas las novedades de IA las conozco gracias a ti, por ejemplo, Poe lo conocí gracias a ti. Sé que hoy en día ya se pueden instalar este tipo de cosas en Android, pero es muy engorrosos, ya que hay que usar comandos en Termux. Si se pudiera hacer una APK y descargar un modelo y luego cargar a la aplicación el modelo ya descargado (algo así como funcionan los emuladores de consolas de videojuegos) sería más fácil. Aunque no sé qué tan posible sea esto, ya que si todavía no se ha hecho, quizá es porque no se puede. Así sería más fácil, ya que además de no tener que estar poniendo comandos, en caso de que algo te dé error después que te haya funciona y tangas que desinstalar la aplicación, no tendrías que volver a descargar otra vez el modelo y podrías hacerlo todo de manera verdaderamente offline, ya que tendrías el APK y el modelo descargado, creo que con los años esto se va a poder resolver.

    • @jjen9595
      @jjen9595 5 месяцев назад +1

      Donde vives? En la era de la cavernas? Eso ya se puede, la aplicación se llama "Layla Lite" instale phi 3, pero mi móvil no es muy poderoso así que tardo algo en responde 🤪

    • @UrsulaCallistis
      @UrsulaCallistis 5 месяцев назад

      @@jjen9595 Oye amigo, gracias por avisar, yo no sé cómo se hace eso ¿Me puedes explicar, por favor?, y gracias por avisar, yo no sabía. Tengo un celular más o menos potente, creo que uno de esos modelos ultra pequeños me podrían correr, pero no tengo computadora, siempre e intentado buscar alguna APK parecida lo que hace LM Studio, pero para Android, ya que LM Studio solo está para computadora. Estar usado Termux no es práctico para mí, sobre todo porque en caso de que tengas que desinstalar Termux por algún motivo, y quieres volver a usar otrs vez el modelo que tenías, vas a necesitar sí o sí una conexión a inter para hacer todo ese proceso otra vez con comandos.

    • @UrsulaCallistis
      @UrsulaCallistis 5 месяцев назад

      ​@@jjen9595 O sea, ¿se puede interpretar Phi 3 en Layla Lite?

    • @jjen9595
      @jjen9595 5 месяцев назад

      @@UrsulaCallistis igual a lo que hacen en este video, le puedes preguntar y todo

    • @jjen9595
      @jjen9595 5 месяцев назад

      @@UrsulaCallistis descarga el modelo, pesa 2 GB y ponlo en una carpeta en tu teléfono y después en Layla pon custom llm y ahí te pregunta dónde está, una vez que le haces click ya no puedes mover el archivo porque creo que se buguea y con eso ya puedes hablar con el chat, es posible ya que phi tiene 3 días de haber salido y está dedicado para teléfonos, aunque la versión de 2gb está bastante recortada así que para pruebas está bien

  • @cativaman
    @cativaman 5 месяцев назад

    Hola Xavier. Gracias x compartir info de alto valor.
    Una consulta: Existe algun tipo de Recurso Basado en la Nube que me permita instalar un chat bot basado en IA y configurarlo de manera que "Aprenda ' como responder o sea mantener un diálogo en base a Respuestas y contenidos PreArmados en PDF?
    Aguardo respuesta.
    Gracias.

    • @XavierMitjana
      @XavierMitjana  5 месяцев назад

      Entiendo que si buscas algo sencillo, necesitarías una herramienta tipo "Chatbase". Luego si tienes conocmientos técnicos puedes armarlo a partir de una API de Google, Microsoft u OpenAI.

  • @JorgeVazquezB
    @JorgeVazquezB 5 месяцев назад

    Acabo de actualizar Jan y aparece Llama 3 8B Q4

  • @11020tony
    @11020tony 5 месяцев назад +1

    muy bueno, gracias

  • @manudetierra
    @manudetierra 2 месяца назад

    Graciasss increiblemente util este video

  • @TICdoc_
    @TICdoc_ 5 месяцев назад

    ¿Degoteo? ... no puedes negar de donde eres¡, ¡muy buen vídeo¡

  • @javier.vallejos
    @javier.vallejos 5 месяцев назад

    Esta muy bueno el video, graicas por compartir. No sé si existe alguno que admita cualquier tipo de archivo? (tipo xml, html, jpg, bat, py, xlsx, etc) y si hay alguna que pueda "entrenarse" en algo y que considere los avances que se hayan hecho en el tiempo en relación a cómo abordar ciertas tareas... eso existe en local a día de hoy?

    • @javier.vallejos
      @javier.vallejos 5 месяцев назад

      Algo así como fine-tuning :D

    • @XavierMitjana
      @XavierMitjana  5 месяцев назад +1

      Hola Javier, puede realizarse fine tuning de modelos en la nube y luego ejecutarlos en local. Creo que es lo más parecido a lo que necesitas.

    • @javier.vallejos
      @javier.vallejos 5 месяцев назад

      @@XavierMitjana Podrías hacer un video de cómo sería el proceso? no me imagino haciendo fine-tuning en la nube (idealmente gratis) entregándole archivos, sería ideal conocer el proceso a grandes rasgos y así cada quién en su área pueda hacer sus primeros desarrollos con eso. Saludos y muy buenos videos!

  • @andyaguilar434
    @andyaguilar434 5 месяцев назад

    Pregunta de novato: que espacio ocuparia en el disco duro de una laptop.

    • @user-sx6nd8zl5k
      @user-sx6nd8zl5k 5 месяцев назад

      Entre 4 a 5 gb el modelo llama 3 , anque tambien esta el modelo PHI 3 de 2,5 gb y 500mb mas si instalas LM Studio si tu laptopva algo corta en recursos

  • @MrMoisheLebowitz
    @MrMoisheLebowitz 5 месяцев назад

    Gracias x colocar llamita 🇵🇪 ❤

  • @soniadiaz1174
    @soniadiaz1174 Месяц назад

    Gracias!!

  • @pedroguzmanasmat7371
    @pedroguzmanasmat7371 5 месяцев назад

    excelente aporte.

  • @manolomaru
    @manolomaru 5 месяцев назад

    ✨👌😎😮😎👍✨

  • @gustechdurany1878
    @gustechdurany1878 5 месяцев назад +1

    estan muy buenos me interesa todo esto

  • @airdany
    @airdany 5 месяцев назад

    Que bueno! JAN lleve esa función de "charlar" con PDFs, a ver si doy con un modelo que me funcione... sino seguiremos indagando. Muy bueno este video con ideas.

  • @CheatPeru
    @CheatPeru 5 месяцев назад +1

    le das muchas vueltas, en LM studio tmb tiene la opcion de hacer que el modelo cargue en la GPU sin tener que instalar nada.