LLAMA-2 🦙: la MEJOR MANERA de hacer FINE-TUNE con TUS DATOS 🔥

Поделиться
HTML-код
  • Опубликовано: 29 ноя 2024
  • НаукаНаука

Комментарии • 90

  • @germanlujan
    @germanlujan 4 месяца назад +2

    Muy bueno, muchas gracias! en este caso, donde queda guardado el modelo fine tuneado para usarlo nuevamente en el futuro?

  • @rocio6454
    @rocio6454 11 месяцев назад +3

    Muy buenos videos, muchas gracias por el contenido y los notebooks!
    Estaría genial poder ver mas videos tuyos explicando cosas de RAG con langchain y gradio o streamlit o algún otro fine tuning sobre modelos como Mistral!

    • @alexFocus8
      @alexFocus8  11 месяцев назад +2

      Muchas gracias por el comentario!! Se nota que sabes de llm, me lo apunto para ver preparar un video explicandolo en el futuro 😁

  • @MrMadmaggot
    @MrMadmaggot Год назад +11

    Hombre debe haber algùn tutorial que explique como ahcer el fine tuning, y explique bien los paràmetros, los hiperparàmetros y otros son sencillos

    • @Pekarnick
      @Pekarnick 6 месяцев назад +4

      5 meses después alguien te responde jajjaa, no creo que encuentres algo así porque el video se haría muy largo y aburrido, lo que te recomiendo como docente es agarrar el código, que la verdad no es muy extenso, y pedirle a chatgpt, claude, llama3 o el que uses y te vaya explicando paso a paso y que profundice mas donde vos quieras. Es lo que yo hago en esos casos. Espero que te ayude. Saludos!!

  • @hugoeduardorodriguez
    @hugoeduardorodriguez Месяц назад

    Si tengo mis datos en varios txt que me recomiendas para agregarlo como entrenamiento a un modelo

  • @WilliamLopez-zx6uu
    @WilliamLopez-zx6uu 4 месяца назад +2

    Como hago para construir mi propio dataset?

  • @matzcontreras
    @matzcontreras 9 месяцев назад +1

    como lo hago usando ollama en local usando de dataset unos jsonl?

  • @LudenAsu
    @LudenAsu 4 месяца назад +2

    Luego de hacer el fine tuning y hacer la pregunta de prueba.
    Como puedo descargarlo en formato gguf?
    para usarlo en ollama o gpt4all. Gracias!

    • @mattiasperalta
      @mattiasperalta 4 месяца назад

      Tengo la misma duda, como descargo lo entrenado en gguf?

  • @nerakrojas244
    @nerakrojas244 Год назад +2

    Esta super tu video, mi consulta como cambio el doc train por mi propio dato, sinseramente recien estoy iniciando y bueno queria probar con otros datos y no veo donde quizas esta simple la respuesta me pueden ayudar, de antemano muchas Gracis!.

    • @alexFocus8
      @alexFocus8  11 месяцев назад

      Muchas gracias, voy a preparar un video de esto, mientras puedes buscar como cargar dataset de textos en formato json, espero que te sea útil!

  • @renzovicentecastro7024
    @renzovicentecastro7024 7 месяцев назад

    osea si yo quisiera cargar un data set propio donde lo cargo en vez de guanaco o de mini guanaco?

  • @samsaraAI2025
    @samsaraAI2025 2 месяца назад

    gracias por el video! podrias hacer un tutorial parecido con Llama3.2 en local y sin programacion? para que aprende de los chats que mantienes con la maquina?

  • @Cristian-dg6qg
    @Cristian-dg6qg 8 месяцев назад

    Muy buen tutorial! Una pregunta... ¿Cómo decidimos qué modelo de HF usar? ¿Por qué NousResearch/Llama-2-7b-chat-hf y no otro Llama-2-7b-chat de los miles que hay en HF? Gracias!

    • @alexFocus8
      @alexFocus8  8 месяцев назад

      La elección del modelo NousResearch/Llama-2-7b-chat-hf en este caso es debido a su rendimiento superior para la tarea del video y que sea en español, su optimización para este idioma y la disponibilidad de soporte de la comunidad, pero para elegir modelo te diría que mires los benchmarcks de huggingface y las descargas de los modelos.

  • @jsalgadop
    @jsalgadop 8 месяцев назад +1

    Para el modelo, ¿cómo puedo generar un LLM con mis documentos en formato PDF?

    • @alexFocus8
      @alexFocus8  8 месяцев назад

      Tienes que preparar el dataset siguiendo el mismo formato y guardar el modelo al final, si son documentos extensos casi te recomendaría más usar RAG.

  • @xalchemistxx1
    @xalchemistxx1 10 месяцев назад +1

    Saludos colega, una vez hecho el fine tuning el archivo pesa 9gb aprox y al generar el fine tuning genera un archivo de 128mb como se haria para ejecutarlo en local si esto se hizo desde el colab, descarga solo los archivos generados o el archivo base

    • @alexFocus8
      @alexFocus8  10 месяцев назад

      Necesitaras tanto el archivo base como los generados y ten en cuenta que en local tambien vas a necesitar una GPU con minimo 8 gb de Ram, por ejemplo un Nvidia 3070 RTX

    • @xalchemistxx1
      @xalchemistxx1 10 месяцев назад

      @@alexFocus8 muchisimas gracias colega

  • @Sarmoung-Biblioteca
    @Sarmoung-Biblioteca 10 месяцев назад +1

    Alex parabens pelo video, uma duvida, e se eu crier criar meu proprio dataset ? tipo passar para ele Uma base de dados toda, como faria ?

    • @alexFocus8
      @alexFocus8  10 месяцев назад +1

      Para crear un dataset te recomiendo coger uno ya existente y copiar la forma en la que hacen las preguntas y respuestas

    • @Sarmoung-Biblioteca
      @Sarmoung-Biblioteca 10 месяцев назад

      @@alexFocus8 Otimo , gracias !

  • @arepaforever3981
    @arepaforever3981 8 месяцев назад +3

    Muy interesante! pero cuando explicas como cargar el dataset (que se supone que eso dice el título, utilizar "tus datos") no se explica y no he entendido cómo hacerlo.
    No entiendo para qué utilizar los dataset por defecto. Me parece que quién mira este tipo de videos lo que quiere es utilizar su propio dataset, que no hay forma de encontrar un "paso a paso" de cómo hacerlo en español (y menos en local, aunque lento es más privado y el límite de datos lo marca mi disco duro). Adoro ChatGPT 4, pero los GPT de OpenAI son unos inútiles, que no pasan casi nunca la "prueba de la aguja en el pajar" cuando tienen un volumen elevado de datos.
    Ojalá alguien haga un video titulado "Cómo entrenar una IA con tus propios datos, para super novatos explicado pasito a pasito". Tengo mucha información en vídeo (avi,mp4), texto (txt, pdf, doc) y audio (mp3, wav) sobre un proceso judicial muy complejo, y sería fabuloso poder crear una propia IA con estos datos y poder preguntarle cosas, en vez de perder horas y horas buscando la información entre miles de documentos de todo tipo.

    • @quetzaldejoniaGK
      @quetzaldejoniaGK 8 месяцев назад

      Solo cambia ese que viene por defecto, lo mandas llamar desde Hugging Face, o lo puedes mandar llamar desde tu ambiente local

    • @alexFocus8
      @alexFocus8  8 месяцев назад

      Gracias por el comentario! tal cual comenta @quetzaldejoniaGK tienes que cargar tus documentos en el mismo formato que el del ejemplo y lo puedes subir y cargar desde huggingface.

  • @CreadorDefinitivo
    @CreadorDefinitivo 10 месяцев назад +2

    El archivo resultante es un LoRA?

    • @alexFocus8
      @alexFocus8  9 месяцев назад +1

      No se si el archivo se puede considerar LoRA (diría que hace más referencia a la técnica) pero si, concretamente se usa QLoRA (Cuantificación + LoRA), estoy pensando en hacer un video explicando bien esto ya que es un tema complejo e interesante.

  • @andresmesa5020
    @andresmesa5020 9 месяцев назад

    Hola gran video un favor me sale que no tengo nvidia y que pailas como es esa cuestion

    • @alexFocus8
      @alexFocus8  9 месяцев назад

      Si estás desde google colab tienes que dar a entorno de ejecución y seleccionar T4 GPU, y si es desde tu PC debes tener una tarjeta NVIDIA y CUDA instalado

    • @francogionardo
      @francogionardo 8 месяцев назад

      Me pasó lo mismo en un proyecto de con redes neuronales y segementación de imágenes, me resultaba confuso en su momento, pero esos modelos usan CUDA, y CUDA usa una tarjeta gráfica nvidia. La peor parte es que no todos lo modelos estan construidos para todas la versiones de CUDA, igualmente con CUDA, para instalar cierta version de CUDA, necesitas tarjetas gráficas NViDIA específicas (RX, GTX, RTX). Es recomendable que compres una tarjeta con una antiguedad no mayor a 4 años, para que puedas correr tus modelos en local.

  • @emmanuelgarcia5451
    @emmanuelgarcia5451 Год назад +1

    es un video bien explicado y sobre todo interesante, el problema que presento es que yo quiero limitarlo a que conteste a solo preguntas de algun archivo pero este suele responder cualquier pregunta y tambien llega a alucinar con las respuestas e inventar informacion no existente en el archivo cargado, que puedo hacer?

    • @alexFocus8
      @alexFocus8  11 месяцев назад

      Gracias por el comentario, podrías usar tecnicas de RAG con Langchain o llama index, ahora justo estoy preparando un video de eso.

    • @guus7893
      @guus7893 6 месяцев назад

      @@alexFocus8 ¿Puedes mencioar en que casos es recomendable aplicar el Fine-Tunning y en que casos RAG (busqueda en documentos adjuntos)? Citando algunos ejemplos para que se entienda, porque no logro darme cuenta de la diferencia, tal vez lo mas significativo seria el consumo de tokens, ya que usando RAG tiene que buscar en el contenido vectorial y responder, mientras que tal vez con finetunning se ahorra todo eso porque ya estaria incorporado en el modelo. Pero seria mejor explicar cuando conviene usar Finetunning o RAG de acuerdo al caso de uso con ejemplos.

  • @hubhub44
    @hubhub44 11 месяцев назад +1

    Podrías enseñar como hacer nuestro propio dataset en vez de usar el de guanaco? he buscado bastante y nadie hace mención ni eseña a como crearlo facilmente

    • @alexFocus8
      @alexFocus8  11 месяцев назад

      Al final esto depende mucho que que textos quieras usar, voy a buscar algún dataset a ver si puedo usarlo a modelo de ejemplo.

    • @hubhub44
      @hubhub44 11 месяцев назад

      @@alexFocus8 En mi caso deseo entrenar al modelo con miles de comentarios y las respuestas a estos para que su forma de hablar se corresponda a la de un determinado personaje, usuario de internet, o comentarios promedio de un foro en específico.

  • @pedromiguras-r2i
    @pedromiguras-r2i 10 месяцев назад

    Hola! Hay algo que no me queda del todo claro. cuando haces inference, al cargar el modelo defines model=model, ahi lo que haces, segun veo, es cargar el modelo base y no el modelo con fine tuning, o me equivoco?

    • @llamamesaito
      @llamamesaito 10 месяцев назад

      eos he pensado yo, lo que entiendo que tendrás que hacer es cargar ahí "new_model"

    • @alexFocus8
      @alexFocus8  9 месяцев назад

      No había visto el comentario, pero bueno mejor tarde que nunca jajaja. Lo que estamos haciendo con este Notebook al hacer el training es "modificar" el modelo con la técnica de QLoRA y volviendolo a guardarlo en la propia variable "model". Concretamente lo hacemos aquí:
      # Set supervised fine-tuning parameters
      trainer = SFTTrainer(
      model=model,
      train_dataset=dataset,
      peft_config=peft_config,
      dataset_text_field="text",
      max_seq_length=max_seq_length,
      tokenizer=tokenizer,
      args=training_arguments,
      packing=packing,
      )
      # Train model
      trainer.train()
      # Save trained model
      trainer.model.save_pretrained(new_model)

    • @pedromiguras-r2i
      @pedromiguras-r2i 9 месяцев назад

      @@alexFocus8 nop, ahi tienes un error. lo que estas haciendo es con el metodo save_pretrained guardar el modelo cargado en la ruta que especificas en "new_model", pero cuando haces inference, se lo estas haciendo al modelo base. al hacer save_pretrained no estas sobreescribiendo la variable "model"

    • @alexFocus8
      @alexFocus8  9 месяцев назад

      @@pedromiguras-r2i gracias por la aclaración! a ver si saco tiempo para investigar esto bien y hago un video explicando esto y de paso todos los hiperparametros :D

  • @rafaelramosr
    @rafaelramosr Год назад +1

    Estaría bueno un ejemplo similar con LLaVA que es un proyecto muy interesante y con poca info.

    • @alexFocus8
      @alexFocus8  Год назад

      Gracias por la idea, le echaré un ojo

  • @eiron2k
    @eiron2k Год назад

    Lo primero, muchísimas gracias por el video, lo explicas genial. Lo segundo, es posible descargar el modelo una vez entrenado (si lo haces en collab) o paquetizarlo haciéndolo en on premise para luego utilizarlo en text-generation-ui? Muchísimas gracias!

    • @alexFocus8
      @alexFocus8  Год назад

      Muchas gracias por el comentario! Claro, se puede descargar de varias formas, yo me lo he bajado tanto con pickle como con MLflow (logeando el modelo) y para paquetizar una aplicación puedes usar docker 😄

    • @Mpniv14
      @Mpniv14 Год назад

      @@alexFocus8 muchas gracias por este video, quisiera saber como puedo descargar el modelo entrenado para usarlo en llama.cpp para esto requiero que esté en formato .gguf

    • @antoniomontano6128
      @antoniomontano6128 Год назад

      @ Gracias por todo. Me uno a la pregunta, creo que es lo único importante que no se ha comentado

    • @llamamesaito
      @llamamesaito 10 месяцев назад

      @@alexFocus8 podrias explicar mejor como descargarlo? no consigo que me funcione

  • @benjaminalonso4630
    @benjaminalonso4630 Год назад

    Está muy bueno el vídeo, la forma de explicarlo y facilidad de aplicarlo sorprenden. Podrías dar tips para crear dataset de calidad? tenía pensado ocupar la forma que enseñas para crear un modelo personalizado de asistencia, un asistente para que asista a personas ante consultas algo díficiles

    • @alexFocus8
      @alexFocus8  Год назад +1

      Muchas gracias Benjamin 😁 crear un dataset de calidad casi depende mas de lo que tengan en la empresa o lo que quieras hacer, pero pensaré un video en el que contar cómo limpiar y adaptar un dataset para entrenar modelos.
      Gracias 😁

    • @ambrosionguema9200
      @ambrosionguema9200 Год назад +1

      @@alexFocus8 si por favor, este punto es importante, ya que nunca vemos los datasets con los que se entrenan , como hacen la particion del train y set... etc etc etc

    • @juanrozo95
      @juanrozo95 10 месяцев назад

      Por favor tenlo en tus ideas, también llevo tiempo tratando de encontrar algún video donde enseñen como crear un dataset personalizado, siempre toman alguno de kaggle o hugging face, pero nadie explica cómo hacerlo, como subirlo etc, muchas gracias master@@alexFocus8

    • @DevDes-AE
      @DevDes-AE 8 месяцев назад

      @@alexFocus8 Genial el video y muchas gracias, pero no te olvides de hacer el "video en el que contar cómo limpiar y adaptar un dataset para entrenar modelos", por favor. xD ☝

  • @digitalartist8987
    @digitalartist8987 10 месяцев назад

    Excelente video, me parece muy interesante, tengo un proyecto experimental un poco loco en el que me gustaria probar mediante finetuning a un llm, como si clonaras tu forma de ser y forma de hablar a un llm, para esto mi idea es crear un dataset personalizado, esto realmente es lo mas complejo, ya que experimente en el pasado con gpt 2 pero me di cuenta que si la estructura del dataset no era buena.. el resultado era un kaos.. por eso, como en otros comentarios creo que seria util tu opinión sobre como hacer el dataset bien estructurado.. en mi caso creo que estos modelos se entrenan con pregunta/respuesta asi que estoy capturando mi personalidad con mucho texto pregunta/respuesta y tengo curiosidad de cuanto de mi puede simular" una vez entrenado
    Un saludo

    • @alexFocus8
      @alexFocus8  10 месяцев назад +1

      La verdad que me parece una idea brutal y si consigues que funcione bien incluso montar una empresa, diria que lo mejor es usar conversaciones de WhatsApp o simitar y para hacer el dataset en modo pregunta/reapuesta tomar como preguntas las partes donde habla el otro (juntando los mensajes seguidos que haya mandado) y como respuesta lo que le contestes (también uniendo los mensajes que sean seguidos), GPT2 no iba muy bien asique con llama deberias notar una mejora importante 👍 mucho animo y si lo consigues avisame 😁

  • @IvanDiaz-vz3zm
    @IvanDiaz-vz3zm 8 месяцев назад +1

    Haz un video que nos permita hacer fine-tune a partir de un modelo de formato GGUF

    • @RedditGuy-22
      @RedditGuy-22 8 месяцев назад +1

      No se puede

    • @juliandejesuscamposbrandt8357
      @juliandejesuscamposbrandt8357 7 месяцев назад

      Por que no se puede hacer un fine tunniga un modelo GGUF?

    • @IvanDiaz-vz3zm
      @IvanDiaz-vz3zm 7 месяцев назад

      @@RedditGuy-22 Por que no se podría?

    • @danielperez9362
      @danielperez9362 6 месяцев назад

      @@IvanDiaz-vz3zm como son preguntones cuando les dicen no se puede es que no se puede

  • @ANIMAKER-ou6qn
    @ANIMAKER-ou6qn 8 месяцев назад

    funciona con mistral?

    • @alexFocus8
      @alexFocus8  8 месяцев назад

      Si, pero tendrás que adaptar algunas cosas, te recomiendo buscar algun ejemplo que lo cuente con mistral directamente

  • @PyAIAcademy
    @PyAIAcademy 9 месяцев назад

    Hola, estoy teniendo un problema al finalizar con la ejecución del código se me generan estos tres archivos: adapter_model.bin
    adapter_config.json
    README.md pero ahora como vuelvo a descargar mi nuevo modelo afinado en base a esos tres archivos, ayuda please o si puedes un tutorial que vendría de perlas

    • @alexFocus8
      @alexFocus8  9 месяцев назад +1

      Tienes que cargarlo junto con el modelo que has usado para el entrenamiento, estoy preparando un video en el que explicar bien que es QLoRA y una de las cosas que hablare es de eso 😄

    • @PyAIAcademy
      @PyAIAcademy 9 месяцев назад

      @@alexFocus8 gracias estaré atento a que subas el video, 😄

  • @octacba84
    @octacba84 Год назад

    hola muy bueno el video.
    queria saber si hay docu oficial sobre la tarea de fine-tune, estoy buscando crear un bot que pueda responder preguntas sobre documentacion especifica, por ejemplo agregar informacion sobre una organizacion (la historia del grupo scout al que pertenezco), pero al ser generativa, genera desde el total de informacion del modelo entrenado, y no sobre la documentacion propia.
    Entiendo que el etiquetado del texto de entrenamiento es muy importante, pero necesito ampliar la info y no encuentro la documentacion oficial.
    Muy bueno el video y gracias.

    • @alexFocus8
      @alexFocus8  Год назад

      Muchas gracias por el comentario! Para el caso que comentas diría que el fine tunning no es la mejor opción, puedes probar a usar bases de datos vectoriales como ChromaDB. Usando langchain se puede hacer relativamente facil.

    • @CuentaSupercell-s3b
      @CuentaSupercell-s3b Год назад

      Cómo vas con tu proyecto? tengo que hacer algo similar y necesito ayudaaa

  • @pptmtz
    @pptmtz 6 месяцев назад

    Buen video

  • @quetzaldejoniaGK
    @quetzaldejoniaGK 8 месяцев назад

    Alguien sabe como se puede subir un modelo a Hugging face? La verdad no le hallo u.u

  • @XGiral
    @XGiral Год назад

    Podrias hacer un video con LLamaIndex?

    • @alexFocus8
      @alexFocus8  Год назад

      Voy a tratar de sacar tiempo y lo preparo 👍

  • @DigitalDaemonOF
    @DigitalDaemonOF Год назад

    tengo un error que me dice que he usado toda la ram del coolab

    • @alexFocus8
      @alexFocus8  11 месяцев назад

      Prueba a reiniciarlo, hay veces que da problemas.

  • @PraexorVS
    @PraexorVS Месяц назад

    No se entiende ni mierda 😂

  • @matzcontreras
    @matzcontreras 9 месяцев назад +2

    no se escucha nada, cambia tu micro por uno de calidad.

    • @CryptoFoxx
      @CryptoFoxx 6 месяцев назад +1

      O tu cambia de bocinas/audífonos 😂

    • @matzcontreras
      @matzcontreras 6 месяцев назад

      @@CryptoFoxx tengo bang & olufsen, además de Bosé, problemas de audio no tengo gracias a Dios.

    • @SonNata
      @SonNata 6 месяцев назад +1

      ​@@CryptoFoxx×2, yo lo escucho genial

    • @javierchiquitoavellan1666
      @javierchiquitoavellan1666 6 месяцев назад +2

      Quizás son tus oídos, el videos se escucha bien.

    • @CryptoFoxx
      @CryptoFoxx 5 месяцев назад

      @@matzcontreras claro😂

  • @centrokairos-arg
    @centrokairos-arg 6 месяцев назад

    parece interesante pero no te puedo seguir. vas demasiado rapido y ansioso, una pena

  • @OscarBenitez-sp7rk
    @OscarBenitez-sp7rk 10 месяцев назад

    Sera q en android podria instalar este ia

    • @alexFocus8
      @alexFocus8  10 месяцев назад

      Para tirar desde android tiene mas sentido usar una API, bien sea de open.ai, Huggingface o alguno por el estilo.

  • @OscarBenitez-sp7rk
    @OscarBenitez-sp7rk 10 месяцев назад

    Lo q seria bueno es q ya venga con la opcion quieres q me conecte a internet i aprenda

    • @alexFocus8
      @alexFocus8  10 месяцев назад

      Hoy por hoy no existe esa opción pero seguro que llegará con el tiempo 👍