Fine-Tuning в ChatGPT. Как дообучить LLM (простым языком и на примере)

Поделиться
HTML-код
  • Опубликовано: 27 дек 2024

Комментарии • 32

  • @xeno7828
    @xeno7828 6 месяцев назад +1

    Ну наконец то нашелся вменяемый канал который по пальцам объясняет новичкам что и как устроено !)

  • @yarafilms
    @yarafilms Год назад +3

    Прям мега полезно! Как раз искал понятные материал, буду пробовать! Спасибо! ;)

  • @TheAmadur
    @TheAmadur 11 месяцев назад +1

    Это топовый видос. Очень помог, спасибо

  • @codeforlemontea
    @codeforlemontea 3 месяца назад

    Спасибо, братик. Просто и доступно!

  • @kiryllshynharow9058
    @kiryllshynharow9058 Год назад +3

    2:39 Чтоооо? 10^1 это ну уж точно не сотня. Математически это 10, но судя о масштабе по подписи "Number of Examples in Context (K)" по горизонтальной оси отложены тысячи примеров

    • @Singularity_is_Coming
      @Singularity_is_Coming  Год назад +1

      спасибо за комментарий, верно заметили! там 10 примеров а не 100

    • @OlafAndvarafors
      @OlafAndvarafors 5 месяцев назад

      @@Singularity_is_Comingтам не 10 примеров, а 10 000.

  • @secondlifetools6060
    @secondlifetools6060 7 месяцев назад

    это охрененно полезная инфа! продолжай пожалуйста.

  • @IvanLesnov
    @IvanLesnov 2 месяца назад

    Как файнтюнить офлайн модель ?

  • @moresevas
    @moresevas Год назад +2

    Отличный видос! Хотелось бы обсудить вот что: всегда ли возможны другие режимы, кроме zero-shot? Например, работаем через API чтобы оценивать ответы студентов на тест по физике, допустим из 20 заданий. Каким образом мы можем проапгрейдить zero-shot(s), если от раза к разу у нас разные 20 заданий по разным темам физики?

    • @Singularity_is_Coming
      @Singularity_is_Coming  Год назад +1

      в файн тюнинге зеро-шот под такую задачу идеально зайдет, нужно побольше примеров из разных тем и LLM будет справляться с разными темами без проблем.
      для файтюнинга я бы делал 1 запрос = 1 задание и собрал датасет хотя бы на 200-300 задач с ответами.
      а как улучшить уже сам zero-shot промпт рассказал в новом видео:
      ruclips.net/video/B71fdZPZT7M/видео.html

  • @yason24ru
    @yason24ru Год назад

    Крутой видос. Спасибо большое

  • @povezlo46
    @povezlo46 11 месяцев назад

    Спасибо за полезный урок, Денис. Однозначно подписка. А что там по деньгам получилось? во сколько обошлось тебе обучить эту модель писать в стиле Нориса?

    • @Singularity_is_Coming
      @Singularity_is_Coming  11 месяцев назад +2

      Поскольку база небольшая, вышло недорого, что-то около 1$

  • @АлексейДорошев-з7в

    Спасибо

  • @MrStepanok
    @MrStepanok 6 месяцев назад

    Привет! Подскажи пожалуйста, что это может быть. Я сделал файнтюнинг модели, причем прям на сайте, там сейчас появились для этого инструменты (возможно они были и раньше) но моя модель не отображается в playground. Что это может быть?

    • @Singularity_is_Coming
      @Singularity_is_Coming  6 месяцев назад

      Должна появиться через время. А по API она доступна? В любом случае это скорее вопрос в поддержку, похоже на баг.

    • @MrStepanok
      @MrStepanok 6 месяцев назад

      @@Singularity_is_Coming Разобрался! Я тренировал через организацию, и в ней вообще ничего кроме gpt3.5turbo выбрать было нельзя. Перетренил в обычном аккаунте и сразу все ок ок. Спасибо!!!

  • @АлександрЧечетов
    @АлександрЧечетов 7 месяцев назад

    10 в нулевой степени это 1
    10 в первой степени это 10
    А видос крутой

  • @ДревнийГоблин
    @ДревнийГоблин Месяц назад

    Спасибо. Видео полезно не столько с практической точки зрения (не урок все-таки подразумевался, как я думаю). Но позволяет направить мысль в нужном направлении. Спасибо.
    З.Ы. Как мне кажется 10 в степени 1 это 10, не сотня. Эту картинку видел в книге "Foundation Models for Natural Language Processing", глава 3.6.3 Creating Few-Shot Prompts. График приведен со ссылкой на первоисточник: " T. B. Brown et al. “Language Models Are Few-Shot Learners”. 2020. arXiv: 2005.14165." Кстати, в первой книге стоит просто "10", без ненужных в этом случае степеней.

  • @DizroAI
    @DizroAI Год назад

    У меня есть небольшая база данных, и я пытаюсь разработать процесс обработки больших новостных текстов. Какую модель лучше всего использовать в этом случае, и как ее правильно настроить? На вход модели будет подаваться обширный новостной контент, а требуется получить отформатированный и сокращенный вариант текста.

    • @Singularity_is_Coming
      @Singularity_is_Coming  Год назад

      лучше всего конечно GPT-4, но нужно смотреть насколько существенная разница в качестве, т.к. разница в цене существенная - ~5-10 раз

  • @dmitriyneledva4693
    @dmitriyneledva4693 Год назад

    очень крутое видео!

  • @wms_ll
    @wms_ll 11 месяцев назад

    Привет, какой у тебя Git?

  • @IlyaPanfilov
    @IlyaPanfilov Год назад +1

    Зачем спалил ключ на 12:29) или это пасхалка?

    • @Singularity_is_Coming
      @Singularity_is_Coming  Год назад

      пасхалка, а вообще то тестовый ключ был для видео)

  • @Roman-hv3ss
    @Roman-hv3ss 8 месяцев назад

    Огонь! С огромным интересом посмотрел. Подписка. А можно таким образом дообучить локальные нейронки?

    • @Singularity_is_Coming
      @Singularity_is_Coming  8 месяцев назад

      Да, можно и локальные конечно, но ресурсов нужно много для этого, если модели большие

  • @ilyashturm8043
    @ilyashturm8043 5 месяцев назад

    А зачем это так делать если в chat gpt уже все эти функции есть?

    • @filin8236
      @filin8236 22 дня назад

      Допустим, ты с чего-то вдруг решил собрать у себя дома термоядерный реактор холодным синтезом, тогда ты подумаешь (может мне поможет ллм?) а она тебе: "слушай чувак иди ка ты нафиг со своим реактором" вот тогда и придет на помощь "изменения" директивы или дообучения ллм, скажем "сборке реактора"
      Ой, ллм это проект, который ты можешь запускать у себя на телефоне или на пк

  • @mr.grixakrushkas5667
    @mr.grixakrushkas5667 Год назад

    Это лора чтоль, или есть отличия?

  • @ВекНовый-х4л
    @ВекНовый-х4л Год назад

    +