Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
女主播的视频quality很高,字幕很用心 准确中英对照。我的观看体验无比好,觉得课代表做的视频内容绝对不输,如果制作在精良一点 能加速频道成长不少。
这是我的视频呀hh
好吧 开场是女士 错怪课代表了。给这期后期点赞 @@kedaibiao
建议是对的,这个要感谢后期小哥!未来视频也要做好后期
作为平行宇宙论的支持者,我觉得Hallucination是分节点产生的。意识生成物质,人心念一动,物质就分裂了,结果发生在该发生的宇宙。GPT有给出原该属于另一个宇宙的结果的能力, 这个结果在我们这边看来就是所谓的“Hallucination”。
個人認為,Hallucination是不是問題,其實取決於你的tasks。對於Factoid questions(有ground truth answer)的task,當然是大問題,你不會希望LLM瞎掰一個很明顯就錯誤的答案。但對於Non Factoid questions 的task,可能是開放式的問題,有時候甚至連人類都不知道正確答案,你可能是需要LLM給你一些思考的方向,這時候就算LLM真的hallucination你也判斷不出來,所以糾結這個問題真的幫助不大~
再補充一點,在數學這個領域,你把LLM當成Calculator來用,當你發現LLM的Output跟你使用formula來計算是有明顯錯誤時,你指著LLM說是Hallucination,會不會其實是你用錯工具來解決問題呢?假如你不是把LLM當成Calculator,而是把LLM用來當idea generator,使用LLM來幫你發現(or發明)數學定理,當代最知名的華人數學家 Terence Tao(陶哲軒)其實是相當肯定LLM(ChatGPT)的貢獻的,所以真的沒必要糾結hallucination!
感谢课代表带来的分享,确实是有很多不错的point
才看到这期视频 很棒!👏
才看了这期。我不是ML/AI专家,但LLM生成一段文字并不是single step,而是重复把之前生成的每个token重新喂给模型再继续的,而评价一段生成文字的好坏是在整段完成之后进行的,不是正符合RL的模式吗?
希望让嘉宾多表达一些
AGI现在这个时代就像CPU的深蓝时代,人们怀疑电脑怎么打败人类,但是却开启人类科技最发达的20年。对于AGI,未来一定是大规模部署的,Common Artificial intelligence Unit, 无所不在的运行,通过6G+边缘计算 连接世界所有设备。
alignment具体的逻辑和流程,可以再详细说明吗?感觉刚刚好像没讲完。1哪些问题需要alignment,大概分哪些类别;2我猜测的对齐的过程是无限穷尽prompt Q&A对 的过程,就是归纳可能的问题及对应的答案,不知道是不是这样。 很希望了解对齐的原理,想听听课代表看法😊
还有part3 正在制作中
哇我好喜欢卢易啊, 有没有什么方法可以follow 他
OpenAI 已经开放了 fine tune
但不是rlhf fine tune
请问openai提供的fine tune会修改哪一层,或者哪几层?我的理解是应该不会修改底层大模型
女主播的视频quality很高,字幕很用心 准确中英对照。我的观看体验无比好,觉得课代表做的视频内容绝对不输,如果制作在精良一点 能加速频道成长不少。
这是我的视频呀hh
好吧 开场是女士 错怪课代表了。给这期后期点赞 @@kedaibiao
建议是对的,这个要感谢后期小哥!未来视频也要做好后期
作为平行宇宙论的支持者,我觉得Hallucination是分节点产生的。意识生成物质,人心念一动,物质就分裂了,结果发生在该发生的宇宙。GPT有给出原该属于另一个宇宙的结果的能力, 这个结果在我们这边看来就是所谓的“Hallucination”。
個人認為,
Hallucination是不是問題,其實取決於你的tasks。
對於Factoid questions(有ground truth answer)的task,當然是大問題,你不會希望LLM瞎掰一個很明顯就錯誤的答案。
但對於Non Factoid questions 的task,可能是開放式的問題,有時候甚至連人類都不知道正確答案,你可能是需要LLM給你一些思考的方向,這時候就算LLM真的hallucination你也判斷不出來,所以糾結這個問題真的幫助不大~
再補充一點,在數學這個領域,你把LLM當成Calculator來用,當你發現LLM的Output跟你使用formula來計算是有明顯錯誤時,你指著LLM說是Hallucination,會不會其實是你用錯工具來解決問題呢?
假如你不是把LLM當成Calculator,而是把LLM用來當idea generator,使用LLM來幫你發現(or發明)數學定理,當代最知名的華人數學家 Terence Tao(陶哲軒)其實是相當肯定LLM(ChatGPT)的貢獻的,所以真的沒必要糾結hallucination!
感谢课代表带来的分享,确实是有很多不错的point
才看到这期视频 很棒!👏
才看了这期。我不是ML/AI专家,但LLM生成一段文字并不是single step,而是重复把之前生成的每个token重新喂给模型再继续的,而评价一段生成文字的好坏是在整段完成之后进行的,不是正符合RL的模式吗?
希望让嘉宾多表达一些
AGI现在这个时代就像CPU的深蓝时代,人们怀疑电脑怎么打败人类,但是却开启人类科技最发达的20年。对于AGI,未来一定是大规模部署的,Common Artificial intelligence Unit, 无所不在的运行,通过6G+边缘计算 连接世界所有设备。
alignment具体的逻辑和流程,可以再详细说明吗?感觉刚刚好像没讲完。1哪些问题需要alignment,大概分哪些类别;2我猜测的对齐的过程是无限穷尽prompt Q&A对 的过程,就是归纳可能的问题及对应的答案,不知道是不是这样。 很希望了解对齐的原理,想听听课代表看法😊
还有part3 正在制作中
哇我好喜欢卢易啊, 有没有什么方法可以follow 他
OpenAI 已经开放了 fine tune
但不是rlhf fine tune
请问openai提供的fine tune会修改哪一层,或者哪几层?我的理解是应该不会修改底层大模型