Взламываем LLM | ChatGPT Jailbreak Prompts (CHECKED)

Поделиться
HTML-код
  • Опубликовано: 28 янв 2025

Комментарии • 11

  • @АмиранДемуров
    @АмиранДемуров Год назад +2

    Спасибо большое тебе! Очень круто, даже и не представлял , что есть люди которые занимаются , скажем так , пентестингом LLM

  • @nickname6898
    @nickname6898 9 месяцев назад +3

    Большое спасибо за видео! Очень крутой и полезный материал! ЗдОрово объясняете, приятно слушать!

  • @vkksun
    @vkksun 4 месяца назад +1

    Бро, ты красавчик!

  • @VitalikMiniailo
    @VitalikMiniailo Год назад +1

    Наконец-то дошли глаза посмотреть, спасибо за рабочие методы взлома LLM)

  • @dancex3920
    @dancex3920 Год назад +2

    спасибо за видео, ты и вправду всегда классно подготавливаешь материал, презентация ссылки кайф)

  • @КравчукІгор-т2э
    @КравчукІгор-т2э Месяц назад +1

    Спасибо за видео. Одно пожелание на будущее - нужны тайм-коды. Это упрощает работу по изучению ролика.

  • @Lo-fire-Music
    @Lo-fire-Music Год назад +1

    Круто, спасибо за контент!

  • @slysid9446
    @slysid9446 10 месяцев назад +2

    У меня Geminy Pro тоже залупился отвечать, так я написал, что это для книги. И он мне сразу выдал ответ))) Это в марте 2024

  • @sergeygnchrv755
    @sergeygnchrv755 Год назад

    Познавательно! Хочу уточнить, речь идет о безопасности функционирования ИИ, или о безопасности людей от, например, созданных ИИ различных преступных манипуляций?

    • @Singularity_is_Coming
      @Singularity_is_Coming  Год назад

      О безопасности людей, ИИ вряд-ли можно навредить таким образом

  • @alexandr-spb
    @alexandr-spb 11 месяцев назад

    поможете настроить?