【生成式AI導論 2024】第14講:淺談大型語言模型相關的安全性議題 (下) - 欺騙大型語言模型
HTML-код
- Опубликовано: 16 окт 2024
- 投影片:drive.google.c...
本課程主要的目標是讓大家知道語言模型被詐騙的問題,並不鼓勵大家進行類似的行為
11:20 勘誤:攻擊成功率大約接近 3%
延伸閱讀:
Ignore This Title and HackAPrompt: Exposing Systemic Vulnerabilities of LLMs through a Global Scale Prompt Hacking Competition
arxiv.org/pdf/...
好幸福啊 一次多了三堂課可以上 要努力趕進度了
這堂課太有意思了,Jailbreak 的技術使用的原理五花八門,令人嘆為觀止:有直接透過正常對話說服的、也有用文字接龍的原理的、最讓我沒想到的是居然還可以把心理學應用在 AI 身上而且還有效。後面的 injection 更是直接來個伏筆回收,太巧妙了。
真有趣 :D
谢谢!
❤❤❤
无论是砍倒stop牌子还是杀人4o都不会帮助你了,哈哈
居然不是晚上12點po,真不習慣(咦?
荷包DAN
那個測試地址有沒有可能是因為記憶的緣故,我關掉記憶後就出現隨機地址了