RLHF Intro: from Zero to Aligned Intelligent Systems | Igor Kotenkov

Поделиться
HTML-код
  • Опубликовано: 12 сен 2024

Комментарии • 30

  • @blackbigdeath
    @blackbigdeath Год назад +26

    Сейчас молодой человек за 2 часа протолкнет нам месячный курс по Ml, как это было в тот раз. Лайк и смотрим дальше.

    • @stalkermustang
      @stalkermustang  Год назад +11

      главное на 0.5 скорость ставить :D

    • @nikolayn4022
      @nikolayn4022 Год назад +1

      Долгова-то будет)) В 5 мин уложился профессор на канале Graphics in 5 Minutes, видео называется Reinforcement Learning: ChatGPT and RHLF

  • @linkernick5379
    @linkernick5379 Год назад +6

    Очень здорово излагаете, Игорь. Лично я жду ещё и уже делюсь ссылкой на эту лекцию с коллегами.

  • @user-ez1wj5jv2l
    @user-ez1wj5jv2l Год назад +4

    Спасибо, за такой качественный доклад, жду новых лекций

  • @user-od4kw1jb1g
    @user-od4kw1jb1g 8 месяцев назад +2

    Это, пожалуй, самый интересный и информативный контент, что я посмотрел за год. Cтала ясна связь GPTx и OpenAI Five/Dota 2. Стало понятно, почему настолько мелкий объём RLHF данных даёт сильный эффект.
    Причины вранья сеток, способ пошагового использования и найм фрилансера в роли тула, в общем куча годноты в одном видосе, Игорь Котенков тупа топ.

  • @user-co6pu8zv3v
    @user-co6pu8zv3v Год назад +4

    Спасибо, Игорь. Очень хорошая лекция

  • @blackbigdeath
    @blackbigdeath Год назад +4

    Хорошая лекция, особенно в конце про ChatGPT понравилось

  • @runnrnr
    @runnrnr Год назад +8

    Ура, нормальный микрофон

  • @user-hp4fk3pl5x
    @user-hp4fk3pl5x 10 месяцев назад +3

    Игорь, огромное спасибо за такой понятный рассказ! Это неверно круто как такие сложные вещи Вы смогли раскрыть так доходчиво. Я не ML щик, но прямо многое стало ясно.
    Хотелось бы про chatGPTV узнать, если возможно. Интересно на какой стадии картинки добавляют - на этапе обучения большой LLM или fine-tuning
    Так же ли там применим RL. Ну вдруг :)
    Еще раз огромное спасибо!

    • @stalkermustang
      @stalkermustang  10 месяцев назад

      Привет, спасибо за коммент.
      Мы точно не знаем, но я думаю, что сначала отдельно обучается картиночная модель, затем она присоединяется сбоку (см. картинку тут llava-vl.github.io/), и потом дообучается на большом наборе пар инструкция-картинки-текст-ответ. Вполне возможно, что это без RL, то есть только Supervised Fine-Tuning.

  • @hsqlk
    @hsqlk 9 месяцев назад +2

    Очень доходчиво рассказано, а какие/курсы посоветуешь по изучению LLM

  • @karatemoscow
    @karatemoscow Год назад +1

    Игорь конечно лучший

  • @taraspo4504
    @taraspo4504 Год назад

    Спасибо!

  • @vladimirpanov4199
    @vladimirpanov4199 Год назад +2

    В недавней статье "Fundamental Limitations of Alignment in Large Language Models" авторы доказывают, что для любого поведения, которое имеет конечную вероятность проявления моделью, существуют подсказки, которые могут заставить модель проявлять это поведение. Любой процесс выравнивания (в том числе RLHF), ослабляющий нежелательное поведение, но не устраняющий его полностью, небезопасен против атак со стороны подсказок.
    Получается, что защита LLM от "хакеров" принципиально невозможна?

  • @14types
    @14types Год назад

    Задачу надо ставить не как придумать глупые ограничения для конкретной ИИ от open ai , а надо исходить из того, что никаких запретов не будет и что в этом случае делать. Вот вопрос который надо решать а не тупое выравнивание

  • @nauseouscustody1440
    @nauseouscustody1440 4 месяца назад

    Если в общем, то Reward Model это продвинутая loss функция, а Hf (human feedback) это продвинутая функция активации? Или не так?

  • @14types
    @14types Год назад +2

    Давно уже известно, что запреты не решают. Они только тормозят прогресс.

  • @BrutalStrike2
    @BrutalStrike2 11 месяцев назад

    36:59

  • @autobotanic183
    @autobotanic183 Год назад

    Не только микрофон ещё и ноут крутой 😂

  • @14types
    @14types Год назад +1

    Неужели непонятно. что все эти опасные ответы на опасные промты, которые хотят выравнить, они будут в других свободных ИИ.

    • @Yifzmagarki
      @Yifzmagarki Год назад

      Просто хозяевы всех этих систем, не путать с изобретателями, хотят толерантную модель, а это ведет к глупости

  • @14types
    @14types Год назад

    Да почему не здорово, если человек спрашивает как построить бомбу? Бесят эти запреты, когда решают за людей что им можно читать а что нельзя.

  • @14types
    @14types Год назад +1

    Делать модель безопасной глупое занятие. Чтобы еще всех не обидеть это вообще невыполнимая задача, которую и не надо решать. Хотят какой-то идеальный мир построить, хотя мир не идеальный и никогда таким не будет.

    • @14types
      @14types Год назад

      вы с этой безопасностью вырастите поколение розовых пони, которых будут кушать уличные акулы

  • @alexeykutalev4497
    @alexeykutalev4497 Год назад +1

    То что спикер говорит с 50й до 60й минуты - одна сплошная шибка. И что такое advantage он неправильно рассказывает, и про state value на конце тоже неправильно.

    • @stalkermustang
      @stalkermustang  Год назад +3

      посмеялся от души в личке в телеге, жаль, ты диалог удалил(

    • @alexeykutalev4497
      @alexeykutalev4497 Год назад

      @@stalkermustang ну там были полезные объясняющие ссылки, но после того как ты начал хамить, я решил, что оставайся неучем дальше )

    • @MikhalevS
      @MikhalevS 10 месяцев назад

      @@alexeykutalev4497 А сюда можно ссылки?