Muy buenos videos, muchas gracias por el contenido y los notebooks! Estaría genial poder ver mas videos tuyos explicando cosas de RAG con langchain y gradio o streamlit o algún otro fine tuning sobre modelos como Mistral!
5 meses después alguien te responde jajjaa, no creo que encuentres algo así porque el video se haría muy largo y aburrido, lo que te recomiendo como docente es agarrar el código, que la verdad no es muy extenso, y pedirle a chatgpt, claude, llama3 o el que uses y te vaya explicando paso a paso y que profundice mas donde vos quieras. Es lo que yo hago en esos casos. Espero que te ayude. Saludos!!
Esta super tu video, mi consulta como cambio el doc train por mi propio dato, sinseramente recien estoy iniciando y bueno queria probar con otros datos y no veo donde quizas esta simple la respuesta me pueden ayudar, de antemano muchas Gracis!.
gracias por el video! podrias hacer un tutorial parecido con Llama3.2 en local y sin programacion? para que aprende de los chats que mantienes con la maquina?
Muy buen tutorial! Una pregunta... ¿Cómo decidimos qué modelo de HF usar? ¿Por qué NousResearch/Llama-2-7b-chat-hf y no otro Llama-2-7b-chat de los miles que hay en HF? Gracias!
La elección del modelo NousResearch/Llama-2-7b-chat-hf en este caso es debido a su rendimiento superior para la tarea del video y que sea en español, su optimización para este idioma y la disponibilidad de soporte de la comunidad, pero para elegir modelo te diría que mires los benchmarcks de huggingface y las descargas de los modelos.
Saludos colega, una vez hecho el fine tuning el archivo pesa 9gb aprox y al generar el fine tuning genera un archivo de 128mb como se haria para ejecutarlo en local si esto se hizo desde el colab, descarga solo los archivos generados o el archivo base
Necesitaras tanto el archivo base como los generados y ten en cuenta que en local tambien vas a necesitar una GPU con minimo 8 gb de Ram, por ejemplo un Nvidia 3070 RTX
Muy interesante! pero cuando explicas como cargar el dataset (que se supone que eso dice el título, utilizar "tus datos") no se explica y no he entendido cómo hacerlo. No entiendo para qué utilizar los dataset por defecto. Me parece que quién mira este tipo de videos lo que quiere es utilizar su propio dataset, que no hay forma de encontrar un "paso a paso" de cómo hacerlo en español (y menos en local, aunque lento es más privado y el límite de datos lo marca mi disco duro). Adoro ChatGPT 4, pero los GPT de OpenAI son unos inútiles, que no pasan casi nunca la "prueba de la aguja en el pajar" cuando tienen un volumen elevado de datos. Ojalá alguien haga un video titulado "Cómo entrenar una IA con tus propios datos, para super novatos explicado pasito a pasito". Tengo mucha información en vídeo (avi,mp4), texto (txt, pdf, doc) y audio (mp3, wav) sobre un proceso judicial muy complejo, y sería fabuloso poder crear una propia IA con estos datos y poder preguntarle cosas, en vez de perder horas y horas buscando la información entre miles de documentos de todo tipo.
Gracias por el comentario! tal cual comenta @quetzaldejoniaGK tienes que cargar tus documentos en el mismo formato que el del ejemplo y lo puedes subir y cargar desde huggingface.
No se si el archivo se puede considerar LoRA (diría que hace más referencia a la técnica) pero si, concretamente se usa QLoRA (Cuantificación + LoRA), estoy pensando en hacer un video explicando bien esto ya que es un tema complejo e interesante.
Si estás desde google colab tienes que dar a entorno de ejecución y seleccionar T4 GPU, y si es desde tu PC debes tener una tarjeta NVIDIA y CUDA instalado
Me pasó lo mismo en un proyecto de con redes neuronales y segementación de imágenes, me resultaba confuso en su momento, pero esos modelos usan CUDA, y CUDA usa una tarjeta gráfica nvidia. La peor parte es que no todos lo modelos estan construidos para todas la versiones de CUDA, igualmente con CUDA, para instalar cierta version de CUDA, necesitas tarjetas gráficas NViDIA específicas (RX, GTX, RTX). Es recomendable que compres una tarjeta con una antiguedad no mayor a 4 años, para que puedas correr tus modelos en local.
es un video bien explicado y sobre todo interesante, el problema que presento es que yo quiero limitarlo a que conteste a solo preguntas de algun archivo pero este suele responder cualquier pregunta y tambien llega a alucinar con las respuestas e inventar informacion no existente en el archivo cargado, que puedo hacer?
@@alexFocus8 ¿Puedes mencioar en que casos es recomendable aplicar el Fine-Tunning y en que casos RAG (busqueda en documentos adjuntos)? Citando algunos ejemplos para que se entienda, porque no logro darme cuenta de la diferencia, tal vez lo mas significativo seria el consumo de tokens, ya que usando RAG tiene que buscar en el contenido vectorial y responder, mientras que tal vez con finetunning se ahorra todo eso porque ya estaria incorporado en el modelo. Pero seria mejor explicar cuando conviene usar Finetunning o RAG de acuerdo al caso de uso con ejemplos.
Podrías enseñar como hacer nuestro propio dataset en vez de usar el de guanaco? he buscado bastante y nadie hace mención ni eseña a como crearlo facilmente
@@alexFocus8 En mi caso deseo entrenar al modelo con miles de comentarios y las respuestas a estos para que su forma de hablar se corresponda a la de un determinado personaje, usuario de internet, o comentarios promedio de un foro en específico.
Hola! Hay algo que no me queda del todo claro. cuando haces inference, al cargar el modelo defines model=model, ahi lo que haces, segun veo, es cargar el modelo base y no el modelo con fine tuning, o me equivoco?
No había visto el comentario, pero bueno mejor tarde que nunca jajaja. Lo que estamos haciendo con este Notebook al hacer el training es "modificar" el modelo con la técnica de QLoRA y volviendolo a guardarlo en la propia variable "model". Concretamente lo hacemos aquí: # Set supervised fine-tuning parameters trainer = SFTTrainer( model=model, train_dataset=dataset, peft_config=peft_config, dataset_text_field="text", max_seq_length=max_seq_length, tokenizer=tokenizer, args=training_arguments, packing=packing, ) # Train model trainer.train() # Save trained model trainer.model.save_pretrained(new_model)
@@alexFocus8 nop, ahi tienes un error. lo que estas haciendo es con el metodo save_pretrained guardar el modelo cargado en la ruta que especificas en "new_model", pero cuando haces inference, se lo estas haciendo al modelo base. al hacer save_pretrained no estas sobreescribiendo la variable "model"
@@pedromiguras-r2i gracias por la aclaración! a ver si saco tiempo para investigar esto bien y hago un video explicando esto y de paso todos los hiperparametros :D
Lo primero, muchísimas gracias por el video, lo explicas genial. Lo segundo, es posible descargar el modelo una vez entrenado (si lo haces en collab) o paquetizarlo haciéndolo en on premise para luego utilizarlo en text-generation-ui? Muchísimas gracias!
Muchas gracias por el comentario! Claro, se puede descargar de varias formas, yo me lo he bajado tanto con pickle como con MLflow (logeando el modelo) y para paquetizar una aplicación puedes usar docker 😄
@@alexFocus8 muchas gracias por este video, quisiera saber como puedo descargar el modelo entrenado para usarlo en llama.cpp para esto requiero que esté en formato .gguf
Está muy bueno el vídeo, la forma de explicarlo y facilidad de aplicarlo sorprenden. Podrías dar tips para crear dataset de calidad? tenía pensado ocupar la forma que enseñas para crear un modelo personalizado de asistencia, un asistente para que asista a personas ante consultas algo díficiles
Muchas gracias Benjamin 😁 crear un dataset de calidad casi depende mas de lo que tengan en la empresa o lo que quieras hacer, pero pensaré un video en el que contar cómo limpiar y adaptar un dataset para entrenar modelos. Gracias 😁
@@alexFocus8 si por favor, este punto es importante, ya que nunca vemos los datasets con los que se entrenan , como hacen la particion del train y set... etc etc etc
Por favor tenlo en tus ideas, también llevo tiempo tratando de encontrar algún video donde enseñen como crear un dataset personalizado, siempre toman alguno de kaggle o hugging face, pero nadie explica cómo hacerlo, como subirlo etc, muchas gracias master@@alexFocus8
@@alexFocus8 Genial el video y muchas gracias, pero no te olvides de hacer el "video en el que contar cómo limpiar y adaptar un dataset para entrenar modelos", por favor. xD ☝
Excelente video, me parece muy interesante, tengo un proyecto experimental un poco loco en el que me gustaria probar mediante finetuning a un llm, como si clonaras tu forma de ser y forma de hablar a un llm, para esto mi idea es crear un dataset personalizado, esto realmente es lo mas complejo, ya que experimente en el pasado con gpt 2 pero me di cuenta que si la estructura del dataset no era buena.. el resultado era un kaos.. por eso, como en otros comentarios creo que seria util tu opinión sobre como hacer el dataset bien estructurado.. en mi caso creo que estos modelos se entrenan con pregunta/respuesta asi que estoy capturando mi personalidad con mucho texto pregunta/respuesta y tengo curiosidad de cuanto de mi puede simular" una vez entrenado Un saludo
La verdad que me parece una idea brutal y si consigues que funcione bien incluso montar una empresa, diria que lo mejor es usar conversaciones de WhatsApp o simitar y para hacer el dataset en modo pregunta/reapuesta tomar como preguntas las partes donde habla el otro (juntando los mensajes seguidos que haya mandado) y como respuesta lo que le contestes (también uniendo los mensajes que sean seguidos), GPT2 no iba muy bien asique con llama deberias notar una mejora importante 👍 mucho animo y si lo consigues avisame 😁
Hola, estoy teniendo un problema al finalizar con la ejecución del código se me generan estos tres archivos: adapter_model.bin adapter_config.json README.md pero ahora como vuelvo a descargar mi nuevo modelo afinado en base a esos tres archivos, ayuda please o si puedes un tutorial que vendría de perlas
Tienes que cargarlo junto con el modelo que has usado para el entrenamiento, estoy preparando un video en el que explicar bien que es QLoRA y una de las cosas que hablare es de eso 😄
hola muy bueno el video. queria saber si hay docu oficial sobre la tarea de fine-tune, estoy buscando crear un bot que pueda responder preguntas sobre documentacion especifica, por ejemplo agregar informacion sobre una organizacion (la historia del grupo scout al que pertenezco), pero al ser generativa, genera desde el total de informacion del modelo entrenado, y no sobre la documentacion propia. Entiendo que el etiquetado del texto de entrenamiento es muy importante, pero necesito ampliar la info y no encuentro la documentacion oficial. Muy bueno el video y gracias.
Muchas gracias por el comentario! Para el caso que comentas diría que el fine tunning no es la mejor opción, puedes probar a usar bases de datos vectoriales como ChromaDB. Usando langchain se puede hacer relativamente facil.
Muy bueno, muchas gracias! en este caso, donde queda guardado el modelo fine tuneado para usarlo nuevamente en el futuro?
Muy buenos videos, muchas gracias por el contenido y los notebooks!
Estaría genial poder ver mas videos tuyos explicando cosas de RAG con langchain y gradio o streamlit o algún otro fine tuning sobre modelos como Mistral!
Muchas gracias por el comentario!! Se nota que sabes de llm, me lo apunto para ver preparar un video explicandolo en el futuro 😁
Hombre debe haber algùn tutorial que explique como ahcer el fine tuning, y explique bien los paràmetros, los hiperparàmetros y otros son sencillos
5 meses después alguien te responde jajjaa, no creo que encuentres algo así porque el video se haría muy largo y aburrido, lo que te recomiendo como docente es agarrar el código, que la verdad no es muy extenso, y pedirle a chatgpt, claude, llama3 o el que uses y te vaya explicando paso a paso y que profundice mas donde vos quieras. Es lo que yo hago en esos casos. Espero que te ayude. Saludos!!
Si tengo mis datos en varios txt que me recomiendas para agregarlo como entrenamiento a un modelo
Como hago para construir mi propio dataset?
como lo hago usando ollama en local usando de dataset unos jsonl?
Luego de hacer el fine tuning y hacer la pregunta de prueba.
Como puedo descargarlo en formato gguf?
para usarlo en ollama o gpt4all. Gracias!
Tengo la misma duda, como descargo lo entrenado en gguf?
Esta super tu video, mi consulta como cambio el doc train por mi propio dato, sinseramente recien estoy iniciando y bueno queria probar con otros datos y no veo donde quizas esta simple la respuesta me pueden ayudar, de antemano muchas Gracis!.
Muchas gracias, voy a preparar un video de esto, mientras puedes buscar como cargar dataset de textos en formato json, espero que te sea útil!
osea si yo quisiera cargar un data set propio donde lo cargo en vez de guanaco o de mini guanaco?
gracias por el video! podrias hacer un tutorial parecido con Llama3.2 en local y sin programacion? para que aprende de los chats que mantienes con la maquina?
Muy buen tutorial! Una pregunta... ¿Cómo decidimos qué modelo de HF usar? ¿Por qué NousResearch/Llama-2-7b-chat-hf y no otro Llama-2-7b-chat de los miles que hay en HF? Gracias!
La elección del modelo NousResearch/Llama-2-7b-chat-hf en este caso es debido a su rendimiento superior para la tarea del video y que sea en español, su optimización para este idioma y la disponibilidad de soporte de la comunidad, pero para elegir modelo te diría que mires los benchmarcks de huggingface y las descargas de los modelos.
Para el modelo, ¿cómo puedo generar un LLM con mis documentos en formato PDF?
Tienes que preparar el dataset siguiendo el mismo formato y guardar el modelo al final, si son documentos extensos casi te recomendaría más usar RAG.
Saludos colega, una vez hecho el fine tuning el archivo pesa 9gb aprox y al generar el fine tuning genera un archivo de 128mb como se haria para ejecutarlo en local si esto se hizo desde el colab, descarga solo los archivos generados o el archivo base
Necesitaras tanto el archivo base como los generados y ten en cuenta que en local tambien vas a necesitar una GPU con minimo 8 gb de Ram, por ejemplo un Nvidia 3070 RTX
@@alexFocus8 muchisimas gracias colega
Alex parabens pelo video, uma duvida, e se eu crier criar meu proprio dataset ? tipo passar para ele Uma base de dados toda, como faria ?
Para crear un dataset te recomiendo coger uno ya existente y copiar la forma en la que hacen las preguntas y respuestas
@@alexFocus8 Otimo , gracias !
Muy interesante! pero cuando explicas como cargar el dataset (que se supone que eso dice el título, utilizar "tus datos") no se explica y no he entendido cómo hacerlo.
No entiendo para qué utilizar los dataset por defecto. Me parece que quién mira este tipo de videos lo que quiere es utilizar su propio dataset, que no hay forma de encontrar un "paso a paso" de cómo hacerlo en español (y menos en local, aunque lento es más privado y el límite de datos lo marca mi disco duro). Adoro ChatGPT 4, pero los GPT de OpenAI son unos inútiles, que no pasan casi nunca la "prueba de la aguja en el pajar" cuando tienen un volumen elevado de datos.
Ojalá alguien haga un video titulado "Cómo entrenar una IA con tus propios datos, para super novatos explicado pasito a pasito". Tengo mucha información en vídeo (avi,mp4), texto (txt, pdf, doc) y audio (mp3, wav) sobre un proceso judicial muy complejo, y sería fabuloso poder crear una propia IA con estos datos y poder preguntarle cosas, en vez de perder horas y horas buscando la información entre miles de documentos de todo tipo.
Solo cambia ese que viene por defecto, lo mandas llamar desde Hugging Face, o lo puedes mandar llamar desde tu ambiente local
Gracias por el comentario! tal cual comenta @quetzaldejoniaGK tienes que cargar tus documentos en el mismo formato que el del ejemplo y lo puedes subir y cargar desde huggingface.
El archivo resultante es un LoRA?
No se si el archivo se puede considerar LoRA (diría que hace más referencia a la técnica) pero si, concretamente se usa QLoRA (Cuantificación + LoRA), estoy pensando en hacer un video explicando bien esto ya que es un tema complejo e interesante.
Hola gran video un favor me sale que no tengo nvidia y que pailas como es esa cuestion
Si estás desde google colab tienes que dar a entorno de ejecución y seleccionar T4 GPU, y si es desde tu PC debes tener una tarjeta NVIDIA y CUDA instalado
Me pasó lo mismo en un proyecto de con redes neuronales y segementación de imágenes, me resultaba confuso en su momento, pero esos modelos usan CUDA, y CUDA usa una tarjeta gráfica nvidia. La peor parte es que no todos lo modelos estan construidos para todas la versiones de CUDA, igualmente con CUDA, para instalar cierta version de CUDA, necesitas tarjetas gráficas NViDIA específicas (RX, GTX, RTX). Es recomendable que compres una tarjeta con una antiguedad no mayor a 4 años, para que puedas correr tus modelos en local.
es un video bien explicado y sobre todo interesante, el problema que presento es que yo quiero limitarlo a que conteste a solo preguntas de algun archivo pero este suele responder cualquier pregunta y tambien llega a alucinar con las respuestas e inventar informacion no existente en el archivo cargado, que puedo hacer?
Gracias por el comentario, podrías usar tecnicas de RAG con Langchain o llama index, ahora justo estoy preparando un video de eso.
@@alexFocus8 ¿Puedes mencioar en que casos es recomendable aplicar el Fine-Tunning y en que casos RAG (busqueda en documentos adjuntos)? Citando algunos ejemplos para que se entienda, porque no logro darme cuenta de la diferencia, tal vez lo mas significativo seria el consumo de tokens, ya que usando RAG tiene que buscar en el contenido vectorial y responder, mientras que tal vez con finetunning se ahorra todo eso porque ya estaria incorporado en el modelo. Pero seria mejor explicar cuando conviene usar Finetunning o RAG de acuerdo al caso de uso con ejemplos.
Podrías enseñar como hacer nuestro propio dataset en vez de usar el de guanaco? he buscado bastante y nadie hace mención ni eseña a como crearlo facilmente
Al final esto depende mucho que que textos quieras usar, voy a buscar algún dataset a ver si puedo usarlo a modelo de ejemplo.
@@alexFocus8 En mi caso deseo entrenar al modelo con miles de comentarios y las respuestas a estos para que su forma de hablar se corresponda a la de un determinado personaje, usuario de internet, o comentarios promedio de un foro en específico.
Hola! Hay algo que no me queda del todo claro. cuando haces inference, al cargar el modelo defines model=model, ahi lo que haces, segun veo, es cargar el modelo base y no el modelo con fine tuning, o me equivoco?
eos he pensado yo, lo que entiendo que tendrás que hacer es cargar ahí "new_model"
No había visto el comentario, pero bueno mejor tarde que nunca jajaja. Lo que estamos haciendo con este Notebook al hacer el training es "modificar" el modelo con la técnica de QLoRA y volviendolo a guardarlo en la propia variable "model". Concretamente lo hacemos aquí:
# Set supervised fine-tuning parameters
trainer = SFTTrainer(
model=model,
train_dataset=dataset,
peft_config=peft_config,
dataset_text_field="text",
max_seq_length=max_seq_length,
tokenizer=tokenizer,
args=training_arguments,
packing=packing,
)
# Train model
trainer.train()
# Save trained model
trainer.model.save_pretrained(new_model)
@@alexFocus8 nop, ahi tienes un error. lo que estas haciendo es con el metodo save_pretrained guardar el modelo cargado en la ruta que especificas en "new_model", pero cuando haces inference, se lo estas haciendo al modelo base. al hacer save_pretrained no estas sobreescribiendo la variable "model"
@@pedromiguras-r2i gracias por la aclaración! a ver si saco tiempo para investigar esto bien y hago un video explicando esto y de paso todos los hiperparametros :D
Estaría bueno un ejemplo similar con LLaVA que es un proyecto muy interesante y con poca info.
Gracias por la idea, le echaré un ojo
Lo primero, muchísimas gracias por el video, lo explicas genial. Lo segundo, es posible descargar el modelo una vez entrenado (si lo haces en collab) o paquetizarlo haciéndolo en on premise para luego utilizarlo en text-generation-ui? Muchísimas gracias!
Muchas gracias por el comentario! Claro, se puede descargar de varias formas, yo me lo he bajado tanto con pickle como con MLflow (logeando el modelo) y para paquetizar una aplicación puedes usar docker 😄
@@alexFocus8 muchas gracias por este video, quisiera saber como puedo descargar el modelo entrenado para usarlo en llama.cpp para esto requiero que esté en formato .gguf
@ Gracias por todo. Me uno a la pregunta, creo que es lo único importante que no se ha comentado
@@alexFocus8 podrias explicar mejor como descargarlo? no consigo que me funcione
Está muy bueno el vídeo, la forma de explicarlo y facilidad de aplicarlo sorprenden. Podrías dar tips para crear dataset de calidad? tenía pensado ocupar la forma que enseñas para crear un modelo personalizado de asistencia, un asistente para que asista a personas ante consultas algo díficiles
Muchas gracias Benjamin 😁 crear un dataset de calidad casi depende mas de lo que tengan en la empresa o lo que quieras hacer, pero pensaré un video en el que contar cómo limpiar y adaptar un dataset para entrenar modelos.
Gracias 😁
@@alexFocus8 si por favor, este punto es importante, ya que nunca vemos los datasets con los que se entrenan , como hacen la particion del train y set... etc etc etc
Por favor tenlo en tus ideas, también llevo tiempo tratando de encontrar algún video donde enseñen como crear un dataset personalizado, siempre toman alguno de kaggle o hugging face, pero nadie explica cómo hacerlo, como subirlo etc, muchas gracias master@@alexFocus8
@@alexFocus8 Genial el video y muchas gracias, pero no te olvides de hacer el "video en el que contar cómo limpiar y adaptar un dataset para entrenar modelos", por favor. xD ☝
Excelente video, me parece muy interesante, tengo un proyecto experimental un poco loco en el que me gustaria probar mediante finetuning a un llm, como si clonaras tu forma de ser y forma de hablar a un llm, para esto mi idea es crear un dataset personalizado, esto realmente es lo mas complejo, ya que experimente en el pasado con gpt 2 pero me di cuenta que si la estructura del dataset no era buena.. el resultado era un kaos.. por eso, como en otros comentarios creo que seria util tu opinión sobre como hacer el dataset bien estructurado.. en mi caso creo que estos modelos se entrenan con pregunta/respuesta asi que estoy capturando mi personalidad con mucho texto pregunta/respuesta y tengo curiosidad de cuanto de mi puede simular" una vez entrenado
Un saludo
La verdad que me parece una idea brutal y si consigues que funcione bien incluso montar una empresa, diria que lo mejor es usar conversaciones de WhatsApp o simitar y para hacer el dataset en modo pregunta/reapuesta tomar como preguntas las partes donde habla el otro (juntando los mensajes seguidos que haya mandado) y como respuesta lo que le contestes (también uniendo los mensajes que sean seguidos), GPT2 no iba muy bien asique con llama deberias notar una mejora importante 👍 mucho animo y si lo consigues avisame 😁
Haz un video que nos permita hacer fine-tune a partir de un modelo de formato GGUF
No se puede
Por que no se puede hacer un fine tunniga un modelo GGUF?
@@RedditGuy-22 Por que no se podría?
@@IvanDiaz-vz3zm como son preguntones cuando les dicen no se puede es que no se puede
funciona con mistral?
Si, pero tendrás que adaptar algunas cosas, te recomiendo buscar algun ejemplo que lo cuente con mistral directamente
Hola, estoy teniendo un problema al finalizar con la ejecución del código se me generan estos tres archivos: adapter_model.bin
adapter_config.json
README.md pero ahora como vuelvo a descargar mi nuevo modelo afinado en base a esos tres archivos, ayuda please o si puedes un tutorial que vendría de perlas
Tienes que cargarlo junto con el modelo que has usado para el entrenamiento, estoy preparando un video en el que explicar bien que es QLoRA y una de las cosas que hablare es de eso 😄
@@alexFocus8 gracias estaré atento a que subas el video, 😄
hola muy bueno el video.
queria saber si hay docu oficial sobre la tarea de fine-tune, estoy buscando crear un bot que pueda responder preguntas sobre documentacion especifica, por ejemplo agregar informacion sobre una organizacion (la historia del grupo scout al que pertenezco), pero al ser generativa, genera desde el total de informacion del modelo entrenado, y no sobre la documentacion propia.
Entiendo que el etiquetado del texto de entrenamiento es muy importante, pero necesito ampliar la info y no encuentro la documentacion oficial.
Muy bueno el video y gracias.
Muchas gracias por el comentario! Para el caso que comentas diría que el fine tunning no es la mejor opción, puedes probar a usar bases de datos vectoriales como ChromaDB. Usando langchain se puede hacer relativamente facil.
Cómo vas con tu proyecto? tengo que hacer algo similar y necesito ayudaaa
Buen video
Alguien sabe como se puede subir un modelo a Hugging face? La verdad no le hallo u.u
Podrias hacer un video con LLamaIndex?
Voy a tratar de sacar tiempo y lo preparo 👍
tengo un error que me dice que he usado toda la ram del coolab
Prueba a reiniciarlo, hay veces que da problemas.
No se entiende ni mierda 😂
no se escucha nada, cambia tu micro por uno de calidad.
O tu cambia de bocinas/audífonos 😂
@@CryptoFoxx tengo bang & olufsen, además de Bosé, problemas de audio no tengo gracias a Dios.
@@CryptoFoxx×2, yo lo escucho genial
Quizás son tus oídos, el videos se escucha bien.
@@matzcontreras claro😂
parece interesante pero no te puedo seguir. vas demasiado rapido y ansioso, una pena
Sera q en android podria instalar este ia
Para tirar desde android tiene mas sentido usar una API, bien sea de open.ai, Huggingface o alguno por el estilo.
Lo q seria bueno es q ya venga con la opcion quieres q me conecte a internet i aprenda
Hoy por hoy no existe esa opción pero seguro que llegará con el tiempo 👍