Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
老师讲得是真的好,听李老师讲课一小时,胜读论文一整周。看完课再继续读论文,仿佛站在巨人肩膀上
L2-norm好像要開根號,L-infinity是無窮大次方相加後再1/L次方,所以相當於max{dx1,dx2,…}
24:30 右下角的L-infinity 是不是应该是一个圆 而不是正方形 更准确一点, 圆360度距离都是一样的,而正方形只有在边线中点那个点距离才会是epsilon
啊 我理解错了, 这里是最大值的坐标 而不是真正的距离,没错的,就是正方形
老師您好,這堂課影片的Slides連結似乎失效了,不曉得有機會修復連結嗎?謝謝。
我找到了这个链接,希望可以帮到你 speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/attack_v3.pdf
李老師您好,想請問一下28:15時,為什麼x會移動到四個角落,這樣不是會造成L-infinity大於epsilon嗎,還請老師解答,非常感謝!
并不是的哈,注意这里老师用的是L-infinity也就是用于更新的向量的无穷范数,无穷范数是指向量中最大元素的绝对值,也就是四个角落的向量的无穷范数正好就是epsilon的大小,因为四个角落的向量是由两个夹角为90°的,长度为epsilon且,出发点在x_0的向量组成的。
我覺得x-0指的是時間0的X向量,而x向量有n個維度,以這個方形例子來看就是先簡單假設是二維,左右的維度可以想成X_0,上下的維度可以想成X_1,所以這樣對X_0以及X_1來說,L-infinity都是小於epsilon的範圍當移到4個角落的時候,是L2-norm會大於epsilon,但L-infinity則是每個維度都可以是epsilon,所以在4個角落並不會造成L-infinity大於epsilon
老师您好,我有个问题,在视频23:00处。如果x是"start from original image x0",那在第一轮的loss不就是0吗?(因为此时的x-x0=0)这样的话,第一轮的梯度grad也是0,结果就是:x根本无法更新,不是吗?
如果看视频12:25的loss公式,一开始输入x0,得到的是y0,但是和目标$\hat{y}$或者$y^{target}$是不一样的,也就是说loss不是0
@@ddai6173 哦,你是说loss是不只是跟x和x0有关,还与y跟y^有关,所以就算x=x0的时候,也有loss是吗?
有攻擊,那有辦法防禦嗎?
@scp wow cool
@scp 是GAN的那個adversarial嗎?
目前主流的防御方法是adversarial training,就是说在训练时就插入一定程度的对抗样本提高训练出的模型的强度,但是目前的防御效果对于视觉问题取得的进展不能说多么好
TRADES
不讲武德,老师要笑死我
老师讲得是真的好,听李老师讲课一小时,胜读论文一整周。看完课再继续读论文,仿佛站在巨人肩膀上
L2-norm好像要開根號,L-infinity是無窮大次方相加後再1/L次方,所以相當於max{dx1,dx2,…}
24:30 右下角的L-infinity 是不是应该是一个圆 而不是正方形 更准确一点, 圆360度距离都是一样的,而正方形只有在边线中点那个点距离才会是epsilon
啊 我理解错了, 这里是最大值的坐标 而不是真正的距离,没错的,就是正方形
老師您好,這堂課影片的Slides連結似乎失效了,不曉得有機會修復連結嗎?謝謝。
我找到了这个链接,希望可以帮到你 speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/attack_v3.pdf
李老師您好,想請問一下28:15時,為什麼x會移動到四個角落,這樣不是會造成L-infinity大於epsilon嗎,還請老師解答,非常感謝!
并不是的哈,注意这里老师用的是L-infinity也就是用于更新的向量的无穷范数,无穷范数是指向量中最大元素的绝对值,也就是四个角落的向量的无穷范数正好就是epsilon的大小,因为四个角落的向量是由两个夹角为90°的,长度为epsilon且,出发点在x_0的向量组成的。
我覺得x-0指的是時間0的X向量,而x向量有n個維度,以這個方形例子來看就是先簡單假設是二維,左右的維度可以想成X_0,上下的維度可以想成X_1,所以這樣對X_0以及X_1來說,L-infinity都是小於epsilon的範圍
當移到4個角落的時候,是L2-norm會大於epsilon,但L-infinity則是每個維度都可以是epsilon,所以在4個角落並不會造成L-infinity大於epsilon
老师您好,我有个问题,在视频23:00处。如果x是"start from original image x0",那在第一轮的loss不就是0吗?(因为此时的x-x0=0)这样的话,第一轮的梯度grad也是0,结果就是:x根本无法更新,不是吗?
如果看视频12:25的loss公式,一开始输入x0,得到的是y0,但是和目标$\hat{y}$或者$y^{target}$是不一样的,也就是说loss不是0
@@ddai6173 哦,你是说loss是不只是跟x和x0有关,还与y跟y^有关,所以就算x=x0的时候,也有loss是吗?
有攻擊,那有辦法防禦嗎?
@scp wow cool
@scp 是GAN的那個adversarial嗎?
目前主流的防御方法是adversarial training,就是说在训练时就插入一定程度的对抗样本提高训练出的模型的强度,但是目前的防御效果对于视觉问题取得的进展不能说多么好
TRADES
不讲武德,老师要笑死我