Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
可以拿來訓練自己的 ChatGPT 的資料集 (由台灣大學學生 Eric Lam 整理)github.com/voidful/awesome-chatgpt-dataset/
這個應該置頂一下
伸手牌問一下,如果自己訓練ChatGPT,用Pytorch train完model,最後的model也會是一個Pickle檔(.pt) 嗎?然後要使用model的時候(inference),也是initiate後load model,才能開始使用嗎?我在想如果考量到所有model相關的成本,"小資族"在cloud service開始使用model,除了training的費用,可能還要考慮host這個model的成本(e.g AWS: S3 storage cost, EC2 computation cost). 又或著6~13B size的model,在16GB的ram 可以直接載入,在本地端使用?(抱歉我只使用過BERT,所以希望有人可以提供經驗討論一下,謝謝
謝謝Eric拯救比較窮的人
你有沒有興趣加入一個即將提交"發明專利申請書"的核心團隊? 我需要你的專業 我也會提供你的費用 我相信你看過我的發明專利申請書後 你會有極大的興趣
上課啦~ 我覺得老師上的課很適合拿來當通識課。淺顯易懂。
謝謝老師拯救比較沒有錢的窮人
老黃:我知道你還有錢買我的顯卡
难道还有比较有钱的穷人😂
比較窮的有錢人
好像沒開打賞功能,不然我真的都想交學費了。感謝老師的整理跟提供insight,這幾篇文章要我自己讀完跟整理最快最快也要兩三天,老師跟團隊讓我們不到半小時就學完了,請收下我的膝蓋 orz
您兩三天就可以整理完 我覺得也是快啦XD
希望老師可以出完整的線上課程!
17:10 Vicuna 看起來表現好的原因會不會只是因為,這個評分標準偏向 Vicuna 當時訓練的 metric,都是使用 GPT-4 來衡量
我覺得你說的蠻有道理的,如果當初 Vicuna 訓練的過程中有用 GPT-4 的衡量結果來選擇模型訓練的 hyperparameters,那使用GPT-4 衡量模型會對 Vicuna 有利
投影片上秀的 Vicuna 參數量是 13B,但 LLaMA-GPT4 的參數量是 7B,這應該也有影響
老师太贴心了,买不起 A100 的穷人很感动
第一次看到字幕。👍👍👍👍👍
李老師好,有兩個想討論的話題:1. 語言模型可以用自己生成的答案,變為訓練的數據嗎?如果可以,只要放著他們不管,他們自己也會越變越聰明啊2. 如果有人把自己的模型放在區塊鏈的智能合約上,對比OPENAI的模型的輸出作訓練,這算不算在法律上抵觸了OPENAI的term of use? 如是,誰要負上責任?區塊鏈上都是無明的。。。謝謝!
13:30 self-train 成本
說是窮人但仍然是有錢的窮人….
最後再把所有 LLM 做 ensemble,LLM 練蠱比賽開始
我感觉最麻烦的是整理数据的部分? 假设弄个MedLLM,怎么整理医疗数据。需要很多domain knowledges
🥳李老师什么时候讲讲LLM的评估? 感觉太多的营销号鼓吹轻量模型什么什么能和ChatGPT抗衡,但是有没有系统的评估数据
話說如果有一點點小錢的話可以去Azure tune一下自己的GPT模型哦🤩
现在已经可以 disable chat history, allowing you to choose which conversations can be used to train chatGPT models.
很喜欢你拍的视频
謝謝老師
許願成功了~謝謝老師~~~🥳🥳🥳
请教一下,这个有没有完整的教程
建議換一個麥克風,或是上個cc字幕,感謝
算是符合主題
比較有錢的窮人🤣
please help. 請問Dolly 2.0 是NAR還是AR model??? ???我看pythia 是拿GPTNeoX來training的感覺是AR model。問cha它老兄跟我說Dolly2.0是NAR。 還是Dolly 2.0是hybrid的?
補充一下: 我是想應用NAR 的model像是BART。如果Dolly 2.0 在NAR的領域內表現優可以取代BART,也算是解惑大半了。感謝好心人士的回覆。
牛哇牛哇😂 我正在想这个问题!
awesome 7:40
大赞🎉❤ 13:30
生產製造機器設備可以數位雙生!那有領域專業的專家是否也可以有一個數位副本?
最後說的那東西不會有 overfitting 的問題嗎
看完以後才知道羊駝有那麼多英文單字...
老師 請教那個ChatGPT復刻下來的模型有多大? 好奇要多大硬碟存儲。 另外一個問題,知識庫的內容部分都已經存在模型裡了嗎? 復刻下來的模型可以斷開Internet 在內網裡正常工作嗎?
1.刻下來的模型多大要看你用什麼pre train model 2.不太懂你這問題是什麼意思 3.模型載下來基本上就是在你的電腦了 你要部屬到哪裡都可以
真是太有趣了!
老師都不用休息嗎?😂
可是在使用chatgpt當老師的時候不是還是會有資料外洩的問題嗎?
I Love you❤
訓練完如果沒在訓練,要那麼大的算力嗎?
老师能分享PPT吗
請問老師如果想參加這些專案需要什麼技能呢?因為本身沒有學過這方面
是不是有点像Meta Learning
為什麼不跟chat gpt 一樣用網路上的文章訓練,而是要透過chat gpt呢?
因為chatgpt的資料量非常大 想要自己造一個基本上不太可能 所以就透過 知識蒸餾的方式 來達到復刻的目的
标题改一下:如何通过大只的“草泥马”生成一头小只的“草泥马”,这样可以吸引更多的观众
这吸引的不是精准用户……
感谢Lee老师! 受教
簽到
就像是Sheldon😂
出个手把手的教程吧😭
「比較有錢的窮人」 😭
哈哈哈哈哈,总不能自己造电脑 gpu就是了
他們是比較有錢的窮人 14:25
窮人==無法購買數萬組GPU的人
還是不夠有錢😢
我是窮人,沒錢購買 ChatGPT服務 😢還是使用 Goggle😅熟練後,還是可以「快速根據自己的意思」生成報告&論文😃----------------而且 OpenAICEO 已經要我們忘記 ChatGPT-5😢😢😢😢😢
現在有 4 pro 了,想必4 pro pro 指日可待
LLM重新定义穷人
是不是我太弱智了,我完全聽不懂😂
墙国能复刻么😂
比较有钱的穷人哈哈哈哈
不能換好一點的錄音設備嗎....??????這品質聽3秒就想關掉?????????
免費的還嫌
666
你懂個屁啊
讓別人幫你跑不好ㄇ GPT共用PLUS才75台幣 阿..我不是窮人是乞丐
開頭不是有說,沒看?
看不懂可以不用留言😌
在說你是窮人/乞丐之前,邏輯先修好吧
可以拿來訓練自己的 ChatGPT 的資料集 (由台灣大學學生 Eric Lam 整理)
github.com/voidful/awesome-chatgpt-dataset/
這個應該置頂一下
伸手牌問一下,如果自己訓練ChatGPT,用Pytorch train完model,最後的model也會是一個Pickle檔(.pt) 嗎?
然後要使用model的時候(inference),也是initiate後load model,才能開始使用嗎?
我在想如果考量到所有model相關的成本,"小資族"在cloud service開始使用model,除了training的費用,可能還要考慮host這個model的成本(e.g AWS: S3 storage cost, EC2 computation cost).
又或著6~13B size的model,在16GB的ram 可以直接載入,在本地端使用?(抱歉我只使用過BERT,所以希望有人可以提供經驗討論一下,謝謝
謝謝Eric拯救比較窮的人
你有沒有興趣加入一個即將提交"發明專利申請書"的核心團隊? 我需要你的專業 我也會提供你的費用 我相信你看過我的發明專利申請書後 你會有極大的興趣
上課啦~ 我覺得老師上的課很適合拿來當通識課。淺顯易懂。
謝謝老師拯救比較沒有錢的窮人
老黃:我知道你還有錢買我的顯卡
难道还有比较有钱的穷人😂
比較窮的有錢人
好像沒開打賞功能,不然我真的都想交學費了。感謝老師的整理跟提供insight,這幾篇文章要我自己讀完跟整理最快最快也要兩三天,老師跟團隊讓我們不到半小時就學完了,請收下我的膝蓋 orz
您兩三天就可以整理完 我覺得也是快啦XD
希望老師可以出完整的線上課程!
17:10 Vicuna 看起來表現好的原因會不會只是因為,這個評分標準偏向 Vicuna 當時訓練的 metric,都是使用 GPT-4 來衡量
我覺得你說的蠻有道理的,如果當初 Vicuna 訓練的過程中有用 GPT-4 的衡量結果來選擇模型訓練的 hyperparameters,那使用GPT-4 衡量模型會對 Vicuna 有利
投影片上秀的 Vicuna 參數量是 13B,但 LLaMA-GPT4 的參數量是 7B,這應該也有影響
老师太贴心了,买不起 A100 的穷人很感动
第一次看到字幕。👍👍👍👍👍
李老師好,
有兩個想討論的話題:
1. 語言模型可以用自己生成的答案,變為訓練的數據嗎?如果可以,只要放著他們不管,他們自己也會越變越聰明啊
2. 如果有人把自己的模型放在區塊鏈的智能合約上,對比OPENAI的模型的輸出作訓練,這算不算在法律上抵觸了OPENAI的term of use? 如是,誰要負上責任?區塊鏈上都是無明的。。。
謝謝!
13:30 self-train 成本
說是窮人但仍然是有錢的窮人….
最後再把所有 LLM 做 ensemble,LLM 練蠱比賽開始
我感觉最麻烦的是整理数据的部分? 假设弄个MedLLM,怎么整理医疗数据。需要很多domain knowledges
🥳李老师什么时候讲讲LLM的评估? 感觉太多的营销号鼓吹轻量模型什么什么能和ChatGPT抗衡,但是有没有系统的评估数据
話說如果有一點點小錢的話可以去Azure tune一下自己的GPT模型哦🤩
现在已经可以 disable chat history, allowing you to choose which conversations can be used to train chatGPT models.
很喜欢你拍的视频
謝謝老師
許願成功了~謝謝老師~~~🥳🥳🥳
请教一下,这个有没有完整的教程
建議換一個麥克風,或是上個cc字幕,感謝
算是符合主題
比較有錢的窮人🤣
please help. 請問Dolly 2.0 是NAR還是AR model??? ???
我看pythia 是拿GPTNeoX來training的感覺是AR model。問cha它老兄跟我說Dolly2.0是NAR。 還是Dolly 2.0是hybrid的?
補充一下: 我是想應用NAR 的model像是BART。如果Dolly 2.0 在NAR的領域內表現優可以取代BART,也算是解惑大半了。感謝好心人士的回覆。
牛哇牛哇😂 我正在想这个问题!
awesome 7:40
大赞🎉❤ 13:30
生產製造機器設備可以數位雙生!那有領域專業的專家是否也可以有一個數位副本?
最後說的那東西不會有 overfitting 的問題嗎
看完以後才知道羊駝有那麼多英文單字...
老師 請教那個ChatGPT復刻下來的模型有多大? 好奇要多大硬碟存儲。 另外一個問題,知識庫的內容部分都已經存在模型裡了嗎? 復刻下來的模型可以斷開Internet 在內網裡正常工作嗎?
1.刻下來的模型多大要看你用什麼pre train model 2.不太懂你這問題是什麼意思 3.模型載下來基本上就是在你的電腦了 你要部屬到哪裡都可以
真是太有趣了!
老師都不用休息嗎?😂
可是在使用chatgpt當老師的時候不是還是會有資料外洩的問題嗎?
I Love you❤
訓練完如果沒在訓練,要那麼大的算力嗎?
老师能分享PPT吗
請問老師如果想參加這些專案需要什麼技能呢?因為本身沒有學過這方面
是不是有点像Meta Learning
為什麼不跟chat gpt 一樣用網路上的文章訓練,而是要透過chat gpt呢?
因為chatgpt的資料量非常大 想要自己造一個基本上不太可能 所以就透過 知識蒸餾的方式 來達到復刻的目的
标题改一下:如何通过大只的“草泥马”生成一头小只的“草泥马”,这样可以吸引更多的观众
这吸引的不是精准用户……
感谢Lee老师! 受教
簽到
就像是Sheldon😂
出个手把手的教程吧😭
「比較有錢的窮人」 😭
哈哈哈哈哈,总不能自己造电脑 gpu就是了
他們是比較有錢的窮人 14:25
窮人==無法購買數萬組GPU的人
還是不夠有錢😢
我是窮人,沒錢
購買 ChatGPT
服務 😢
還是使用 Goggle
😅
熟練後,還是可以
「快速根據自己的意思」
生成報告&論文😃
----------------
而且 OpenAI
CEO 已經要我們
忘記 ChatGPT-5
😢😢😢😢😢
現在有 4 pro 了,想必4 pro pro 指日可待
LLM重新定义穷人
是不是我太弱智了,我完全聽不懂😂
墙国能复刻么😂
比较有钱的穷人哈哈哈哈
不能換好一點的錄音設備嗎....??????這品質聽3秒就想關掉?????????
免費的還嫌
666
你懂個屁啊
讓別人幫你跑不好ㄇ GPT共用PLUS才75台幣 阿..我不是窮人是乞丐
開頭不是有說,沒看?
看不懂可以不用留言😌
在說你是窮人/乞丐之前,邏輯先修好吧
謝謝老師