Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
我還以為是IOT的LoRa
大姐你講的好像是Encoder Decoder架構,那麼LoRA但的獨特之處在哪呢?影片中好像只有提到前方有運用到Unet
这就好像视频编码一样,压缩率越大质量越糊,但是能不能看/喜不喜欢看这个就因人而异了
感觉💩到一半,猛然夹断的感觉
只有小學一年級生程度的我懂了~😇
文科生的我最近玩點生成圖片看到LoRA這名詞就進來了解下,到升維還看的懂,到降維我就按照自己高中學的矩陣去理解(相乘在分開相加),不曉得對不對,沒想到後面程式碼只有寫up還有down後面有這麼大的邏輯在。但看了看留言區,我想有必要還是再多讀點讀書吧😂
讲的很棒啊~~~~~~~~~~~
訂閱了然後我都不知道現在中國的小學二年級要學會解二元一次聯立方程式...然後降維我也懂,降維打擊嘛~
看君一视频,如看一视频,我这该死的数学能力呀
你自己说的,秩越大信息越多,那么在把秩降低的时候,信息是不是也丢失了?这个丢失的信息如何去衡量,如果信息丢失的过多,最后训练结果会不会失真?
我猜,如果100*100可以拆解成100+100的矩陣,反過來也可以組合成一樣的矩陣,那麼其中的資訊是沒有消失的
丟失信息這個觀點很好,基本上我們在訓練模型時因為訓練資料(給ai學的)跟真實應用場景的資料一定有差異,我們不會強求ai百分百學會訓練資料,因為過度學習反而會讓ai誤判它沒看過的資料,稱overfit。
所以適度丟掉一些訊息是鼓勵的做法(dropout)當然,傳聞在大陸,訓練資料會等同於真實資料(比如人臉指紋),所以可這套理論是可能無法套用的😢
@@coladock overfitting 并不是问题,我最近对grokking现象很感兴趣,也就是说你不要管overfitting,你继续去train你的model,让它hyper-overfitting,等train到一定的时候,它就会突然出现很好的generalizability, 这个现象目前为止还没完全被理解,属于比较前沿的研究
如果有些訊息是可以從其它訊息得到,那就可以去除某些訊息了。
看沒幾分鐘就決定訂閱了,敘述的脈絡好清楚
那不就跟nmf差不多一样吗
膜拜
謝謝分享
非常強
說明的非常好
❤
线性代数能理解的人不多吧
資訊科系必修課..... 不過對資管比較沒用就是了....
@@JT200905必修課不等於會。不說了,大叔要去第25次重修線性代數
讲简单了理解的人就多,上来就搞复杂公式那自然理解的人就少咯
高中数学
我還以為是IOT的LoRa
大姐你講的好像是Encoder Decoder架構,那麼LoRA但的獨特之處在哪呢?影片中好像只有提到前方有運用到Unet
这就好像视频编码一样,压缩率越大质量越糊,但是能不能看/喜不喜欢看这个就因人而异了
感觉💩到一半,猛然夹断的感觉
只有小學一年級生程度的我懂了~😇
文科生的我最近玩點生成圖片看到LoRA這名詞就進來了解下,到升維還看的懂,到降維我就按照自己高中學的矩陣去理解(相乘在分開相加),不曉得對不對,沒想到後面程式碼只有寫up還有down後面有這麼大的邏輯在。但看了看留言區,我想有必要還是再多讀點讀書吧😂
讲的很棒啊
~~~~~~~~~~~
訂閱了
然後我都不知道現在中國的小學二年級要學會解二元一次聯立方程式...
然後降維我也懂,降維打擊嘛~
看君一视频,如看一视频,我这该死的数学能力呀
你自己说的,秩越大信息越多,那么在把秩降低的时候,信息是不是也丢失了?这个丢失的信息如何去衡量,如果信息丢失的过多,最后训练结果会不会失真?
我猜,如果100*100可以拆解成100+100的矩陣,反過來也可以組合成一樣的矩陣,那麼其中的資訊是沒有消失的
丟失信息這個觀點很好,基本上我們在訓練模型時因為訓練資料(給ai學的)跟真實應用場景的資料一定有差異,我們不會強求ai百分百學會訓練資料,因為過度學習反而會讓ai誤判它沒看過的資料,稱overfit。
所以適度丟掉一些訊息是鼓勵的做法(dropout)
當然,傳聞在大陸,訓練資料會等同於真實資料(比如人臉指紋),所以可這套理論是可能無法套用的😢
@@coladock overfitting 并不是问题,我最近对grokking现象很感兴趣,也就是说你不要管overfitting,你继续去train你的model,让它hyper-overfitting,等train到一定的时候,它就会突然出现很好的generalizability, 这个现象目前为止还没完全被理解,属于比较前沿的研究
如果有些訊息是可以從其它訊息得到,
那就可以去除某些訊息了。
看沒幾分鐘就決定訂閱了,敘述的脈絡好清楚
那不就跟nmf差不多一样吗
膜拜
謝謝分享
非常強
說明的非常好
❤
线性代数能理解的人不多吧
資訊科系必修課..... 不過對資管比較沒用就是了....
@@JT200905必修課不等於會。不說了,大叔要去第25次重修線性代數
讲简单了理解的人就多,上来就搞复杂公式那自然理解的人就少咯
高中数学