Файнтюнинг на примере Llama 3 + QLoRA. ПРОЩЕ и ЭФФЕКТИВНЕЕ чем когда-либо

Поделиться
HTML-код
  • Опубликовано: 26 дек 2024

Комментарии •

  • @ruslandev
    @ruslandev  7 месяцев назад +1

    Вышла новая часть - Файнтюнинг и квантизация Llama-3-70B ruclips.net/video/ML4M1UQHxbU/видео.html
    Я обучил самую большую пока Ламу на мультиязычном датасете, и она начала следовать инструкциям на русском.
    А также я показал процесс квантизации модели с сохранением в формат gguf.

  • @kirillkirilenkov9610
    @kirillkirilenkov9610 8 месяцев назад +10

    Квантизацию модели с последующей конвертацией в GGUF поддерживаю.

  • @ПетрФомин-щ9ж
    @ПетрФомин-щ9ж 8 месяцев назад +33

    Честно говоря я ожидал большего. В начале видоса был радостный возглас: "наконец-то мы получили модель сопоставимую по качеству с GPT-4"!!! Речь шла конечно о Llama-3-70b И потом автор с покер-фейсом просто берёт для своего фантюнинга модель Llama-3-8b-4bit. То есть не только модель в на порядок меньше так ещё и квантизованую по самое нибалуйся. Я ожидал увидеть процесс обучения 70b квантизованой до 8 бит модели на A100 GPU камне и понять примерно сколько времени это может занять. И дообучать чему-то полезному например вопросам и ответам на русском языке. В этом видосе кстати сам процесс обучения скипнут хотя это самое интересное можно было показать минуту начала и минуту конца. Просто так скипать весь процесс это не правильно потому что ради этого процесса все эти подготовительные танцы с бубном и проделывались.

    • @TheMr0day
      @TheMr0day 8 месяцев назад +10

      Согласен. Тоже хотелось бы увидеть работу с моделью 70B и обучение на русском датасете, потому что инференс на русском языке у llama 3 из коробки местами весьма корявенький (по крайней мере, то, что я увидел на 8B). Если аренда ресурсов под обучение 70B окажется довольно дорогой по стоимости, то показать хотя бы расчеты и минимально необходимые ресурсы для запуска.
      В любом случае, ролик полезен и автору спасибо за то, что делится знаниями! Квантизацию и конвертацию в GGUF тоже ждем.

    • @dolotube
      @dolotube 3 месяца назад

      Оставлю здесь для истории ответ на вопрос "время дообучения 70b на одной А100 три эпохи" - около 5 дней (взято из следующего видео на канале).
      Время также зависит от кода обучалки, объема докидываемой информации и прочего железа, но уже можно прикинуть порядок чисел для своего компа. Ну или стоимость аренды.

  • @MultiAccordionman
    @MultiAccordionman 8 месяцев назад +9

    Спасибо большое за ролик. Было бы здорово увидеть ролик про квантизацию и разбор Вашей библиотеки.

  • @ДмитрийГерасименко-м2е
    @ДмитрийГерасименко-м2е 8 месяцев назад +7

    Было бы ещё Здорово эту модель залить на хостинг через фласк или Джанго чтобы она там отвечала на вопросы,(конечно в закрытом режиме для безопасности) также было бы интересно посмотреть как реализовывается Telegram бот с её помощью, конечно после того как квантизация будет сделана. Думаю что это были бы очень ценные ролики для многих.

  • @infomed100
    @infomed100 8 месяцев назад +5

    Квантизацию модели с последующей конвертацией в GGUF поддерживаю!

  • @КравчукІгор-т2э
    @КравчукІгор-т2э 7 месяцев назад +2

    Да это интересно. Спасибо за Вашу работу.

  • @hinomuratomisaburo4901
    @hinomuratomisaburo4901 2 дня назад

    Круто ) Ничего не понятно пока .. но шикарно и доступным языком сказано

  • @astrauser-n4x
    @astrauser-n4x 7 месяцев назад +1

    Хорошее видео, спасибо! Интересно увидеть продолжение видео.

  • @SuperKostick
    @SuperKostick Месяц назад

    Этоочень инетресное видео как и следующая тема, котороую мы будем очень сильно ждать!! ПРодолжай пожалуйста, очень не хватает информации подобной на рускоязычной части Ютуб

  • @PhoenixDivus
    @PhoenixDivus Месяц назад

    Все чаще охота услышать шаг за шагом обучение нейронки добавление новых данных, как это работает и прочее.

  • @150vit
    @150vit 8 месяцев назад +2

    Квантизация очень интересна! И не сколько для мобильных устройств, сколько запуск тяжёлых моделей (70-30B) на 24Gb видеокартах, Tesla P40, например. Запуск на нескольких видеокартах, оптимизация под разные архитектуры...

  • @Александр-ь4и2ц
    @Александр-ь4и2ц 8 месяцев назад +1

    Интересно! И ещё полную подготовку датасета для обучения.
    А если обучить на своём датасете по определённому домену, насколько хорошо она будет отвечать по этому домену без подгрузки контекста

  • @Alexandr_Ogorodnik
    @Alexandr_Ogorodnik 4 месяца назад

    Это очень интересно спасибо

  • @2009Spread
    @2009Spread 8 месяцев назад +2

    Сколько ресурсов ест в процессе обучения, и сколько когда модель готова . Есть метрики?

  • @malysh86
    @malysh86 4 месяца назад +1

    Вот это контент) Только я почти ничего не понимаю. Например, я хочу обучить, что б она кодила. Что нужно? Какие то примеры из гит хаб, или простые функции?

  • @СергейПетров-ц3ъ
    @СергейПетров-ц3ъ 7 месяцев назад +1

    Первое предложение автору. Если тебе не хватает денег на те или иные эксперименты, то предлагаю делать краудфандинг. Можно прям тут на ютубе - типа хотите посмотреть на файн-тюнинг и квантизацию llama 3 70b - скидывайте бабосы

  • @ДмитрийЛеснов-ч5з
    @ДмитрийЛеснов-ч5з 5 месяцев назад

    Привет! Спасибо за видео! Чем вы генерировали голос?

  • @АнтонТай
    @АнтонТай 8 месяцев назад +1

    Добрый день! Было бы очень интересно как вы конвертируете модель в формат для TensorRT и запускаете её, собственно на TensorRT. Особенно интересно было бы измерить прирост в скорости.

  • @alexanderponomarev8171
    @alexanderponomarev8171 15 дней назад

    А можно ли на том сервисе дообученную модель загрузить потом не на Hugging Face, а к себе на комп? В Гугл коллабе вроде можно так сделать через гугл диск. И можно ли свой датасет сделать из текстовых файлов (книжек)?

  • @Roma_Ro-e3d
    @Roma_Ro-e3d 4 месяца назад

    как сделать чтобы задавать вопросы голосом и получать ответы голосом ?

  • @Ad-rc4dy
    @Ad-rc4dy 8 месяцев назад +1

    Отличное видео, спасибо!Можете подсказать какие ещё есть популярные датасеты для файнтюнинга кроме Саманты и их предназначение

    • @ruslandev
      @ruslandev  8 месяцев назад

      Dolphin - uncensored датасет от того же разработчика. В целом много чего есть на HF

  • @IvanOldan
    @IvanOldan 2 месяца назад

    Я вот только не понял зачем ваш спонсор предлагает покупать 3090 за потинник в месяц?

  • @tetraocean
    @tetraocean 4 месяца назад

    а что можно обучить на локальном компьютере? chatgpt предлагает использовать Bert для обучение своего ассистента. Можете ли подобное разобрать?

  • @ValentinYefimov
    @ValentinYefimov 7 месяцев назад

    Да. Очень интересно! Продолжи пожалуйста по квантизацию и создание gguf

  • @userpupkin499
    @userpupkin499 8 месяцев назад +1

    Спасибо за видео. Да, интерересно было бы продолжение с получением gguf

  • @jonymnimonik-ff7dg
    @jonymnimonik-ff7dg 8 месяцев назад +1

    Да , интересно

  • @sharksgangs
    @sharksgangs 7 месяцев назад

    спасибо. это нужное видео

  • @snowiedigga
    @snowiedigga 7 месяцев назад

    Интересно, продолжай в том же духе 👍

  • @ЛюКан-э7ч
    @ЛюКан-э7ч 7 месяцев назад

    Мужик спасибо. Давно хотел что-то подобное 🔥

  • @ЯроміръТелгинъ
    @ЯроміръТелгинъ Месяц назад

    Такъ какую кнопку мнѣ нажать? )

  • @mr.grixakrushkas5667
    @mr.grixakrushkas5667 8 месяцев назад +1

    Было бы интересно про метрики и сравнение качества моделей, а то на глаз такое себе. Вдруг при обучении она позабыла все.

  • @IT_psychopath
    @IT_psychopath 7 месяцев назад

    Да, было бы интересно. Так же было бы интересно стоимости на подобные обучения. и цены на развертывание обученных моделей. к примеру Llama3 8B и Llama3 70B в какую сумму влетит если развернуть на данном сервисе?
    Заранее спасибо!

  • @softgpt
    @softgpt 7 месяцев назад

    Всё интересно, квантизация тоже, но также интересует дообучение модели и практические рекомендации по сбору хорошего датасета для русского языка

  • @СергейПетров-ц3ъ
    @СергейПетров-ц3ъ 7 месяцев назад

    Можешь показать, как сделать автономный, эффективный переводчик (чем больше языков, тем лучше, но для начала русский- английский хватило бы)? Какую модель лучше использовать и как?

  • @alnibl
    @alnibl 6 месяцев назад

    Здравствуйте! Подскажите пожалуйста, какая лучше модель llm подойдет для задачи вытаскивания из текста названия книги, автора, года и издательства. Текст подается в промте, но он с ошибками и неточностями, так как распознается по фото книги моделью ocr)

    • @ruslandev
      @ruslandev  6 месяцев назад +1

      можно поискать на Huggingface модели для задач Named Entity Recognition. Но вообще любая LLM уровня GPT-3.5 и выше для этого подойдет

  • @sergeykartyshov2846
    @sergeykartyshov2846 8 месяцев назад

    Спасибо, очень интересно. Квантизацию поддерживаю. Интересно познакомиться поближе с библиотекой.

  • @goradiog8145
    @goradiog8145 8 месяцев назад +1

    Как обучить whisper? Нигде не могу найти видео на эту тему. Мне постоянно необходимо расшифровывать аудиозаписи в текст. Необученный whisper плохо работает с русским языком. Хотелось бы допилить модель, но не знаю как.

    • @ПетрФомин-щ9ж
      @ПетрФомин-щ9ж 8 месяцев назад +1

      попробуй Silero она лучше русский распознаёт

    • @ruslandev
      @ruslandev  8 месяцев назад +2

      на HF в разделе automatic speech recognition есть файнтюнинг-версии whisper, некоторые с кодом

  • @noino5458
    @noino5458 7 месяцев назад

    Было бы интересно получить инструкцию по дообучения на своих данных. Например у меня есть excel таблица с данными, скормили эту таблицу LLM, а она после отвечает по таблице. Такое возможно?

    • @vlad-n-ag
      @vlad-n-ag 7 месяцев назад

      Это возможно и уже реализовано в некоторых сервисах на основе LLM. Думаю они для этого могут не дообучать исходную модель, а конвертировать данные в векторную форму и хранить в векторной базе данных. Сервис, получая запрос пользователя, выполняет поиск в базе данных и передаёт близкие по смыслу вложения в качестве подсказки модели. На основе запроса, подсказки и собственных данных, модель формирует ответ.

  • @barkalov
    @barkalov 8 месяцев назад

    Интересно запустить инференс на чем-нибудь вроде Raspberry pi

  • @Dryg-o5c
    @Dryg-o5c 7 месяцев назад

    Привет 👋 было бы круто если бы она в конце ответа не как обычно говорила бы чем ещё помочь а сначала бы предложила свой собственный вопрос для продления темы которая рассказывала только что, что бы вопрос её был на столько интересным от которого не возможно было-бы удержатся и сказать ей , да я хочу знать ответ на этот вопрос , тем самым она могла бы затягивать общение все глубже и обширней в той теме которая началась из начально !)

  • @19_xyz
    @19_xyz 7 месяцев назад

    Добрый день а вашу модель можно скачать и потестить на мак ос в ml studio?

    • @19_xyz
      @19_xyz 7 месяцев назад

      Там как раз вроде бы guff если не ошибаюсь

    • @ruslandev
      @ruslandev  7 месяцев назад +1

      Следующее видео про квантизацию, файл gguf из него - на моем Huggingface

    • @19_xyz
      @19_xyz 7 месяцев назад

      @@ruslandev спасиб

  • @goga-pro2024
    @goga-pro2024 7 месяцев назад

    да хотим увидеть квантилизацию

  • @SeregaZinin
    @SeregaZinin Месяц назад

    Я так и не понял, что такое Fine Tuning - это обучение на НОВЫХ данных, то есть к примеру о рассеянии света в атмосфере или просто примеры, как отвечать. Из видео ни черта не понятно.

  • @pacman777
    @pacman777 6 месяцев назад

    привет,
    hi, it's not clear. This is probably an advertisement for those in the know.нихера непонятно. Наверно это реклама или что?

  • @newocom
    @newocom 8 месяцев назад

    Так, дуже цікаво!

  • @unzerror8208
    @unzerror8208 7 месяцев назад

    Квантизацию модели с последующей конвертацией в GGUF поддерживаю.