【生成式AI導論 2024】第14講:淺談大型語言模型相關的安全性議題 (下) - 欺騙大型語言模型

Поделиться
HTML-код
  • Опубликовано: 25 янв 2025

Комментарии • 10

  • @432v01
    @432v01 8 месяцев назад +6

    這堂課太有意思了,Jailbreak 的技術使用的原理五花八門,令人嘆為觀止:有直接透過正常對話說服的、也有用文字接龍的原理的、最讓我沒想到的是居然還可以把心理學應用在 AI 身上而且還有效。後面的 injection 更是直接來個伏筆回收,太巧妙了。

  • @jason77nhri
    @jason77nhri 8 месяцев назад +9

    好幸福啊 一次多了三堂課可以上 要努力趕進度了

  • @v86861062
    @v86861062 8 месяцев назад +1

    真有趣 :D

  • @gjllaac
    @gjllaac 8 месяцев назад

    谢谢!

  • @蔡文嘉-i4z
    @蔡文嘉-i4z 8 месяцев назад +1

    ❤❤❤

  • @garfieldlavi
    @garfieldlavi 8 месяцев назад +3

    居然不是晚上12點po,真不習慣(咦?

  • @princend1584
    @princend1584 8 месяцев назад

    荷包DAN

  • @ACupOfMilkWhiteTea
    @ACupOfMilkWhiteTea 8 месяцев назад

    无论是砍倒stop牌子还是杀人4o都不会帮助你了,哈哈

  • @garfieldlavi
    @garfieldlavi 8 месяцев назад

    那個測試地址有沒有可能是因為記憶的緣故,我關掉記憶後就出現隨機地址了