Fine tune概念已过时?|强化学习的数学直觉|AGI的自我迭代|开源vs闭源的第一性原理|说胡话的原理|大语言模型技术深度访谈2/3

Поделиться
HTML-код
  • Опубликовано: 24 ноя 2024

Комментарии • 24

  • @davidyu1730
    @davidyu1730 10 месяцев назад

    女主播的视频quality很高,字幕很用心 准确中英对照。我的观看体验无比好,觉得课代表做的视频内容绝对不输,如果制作在精良一点 能加速频道成长不少。

    • @kedaibiao
      @kedaibiao  10 месяцев назад

      这是我的视频呀hh

    • @davidyu1730
      @davidyu1730 10 месяцев назад

      好吧 开场是女士 错怪课代表了。给这期后期点赞 @@kedaibiao

    • @kedaibiao
      @kedaibiao  10 месяцев назад

      建议是对的,这个要感谢后期小哥!未来视频也要做好后期

  • @Hanna_Emma
    @Hanna_Emma Год назад

    作为平行宇宙论的支持者,我觉得Hallucination是分节点产生的。意识生成物质,人心念一动,物质就分裂了,结果发生在该发生的宇宙。GPT有给出原该属于另一个宇宙的结果的能力, 这个结果在我们这边看来就是所谓的“Hallucination”。

  • @l501l501l
    @l501l501l Год назад +5

    個人認為,
    Hallucination是不是問題,其實取決於你的tasks。
    對於Factoid questions(有ground truth answer)的task,當然是大問題,你不會希望LLM瞎掰一個很明顯就錯誤的答案。
    但對於Non Factoid questions 的task,可能是開放式的問題,有時候甚至連人類都不知道正確答案,你可能是需要LLM給你一些思考的方向,這時候就算LLM真的hallucination你也判斷不出來,所以糾結這個問題真的幫助不大~

    • @l501l501l
      @l501l501l Год назад

      再補充一點,在數學這個領域,你把LLM當成Calculator來用,當你發現LLM的Output跟你使用formula來計算是有明顯錯誤時,你指著LLM說是Hallucination,會不會其實是你用錯工具來解決問題呢?
      假如你不是把LLM當成Calculator,而是把LLM用來當idea generator,使用LLM來幫你發現(or發明)數學定理,當代最知名的華人數學家 Terence Tao(陶哲軒)其實是相當肯定LLM(ChatGPT)的貢獻的,所以真的沒必要糾結hallucination!

  • @ericstark3424
    @ericstark3424 Год назад

    感谢课代表带来的分享,确实是有很多不错的point

  • @wzkicu
    @wzkicu 3 месяца назад

    才看到这期视频 很棒!👏

  • @garyshi
    @garyshi 10 месяцев назад

    才看了这期。我不是ML/AI专家,但LLM生成一段文字并不是single step,而是重复把之前生成的每个token重新喂给模型再继续的,而评价一段生成文字的好坏是在整段完成之后进行的,不是正符合RL的模式吗?

  • @chacha大侠
    @chacha大侠 8 месяцев назад +1

    希望让嘉宾多表达一些

  • @zzihao
    @zzihao Год назад

    AGI现在这个时代就像CPU的深蓝时代,人们怀疑电脑怎么打败人类,但是却开启人类科技最发达的20年。对于AGI,未来一定是大规模部署的,Common Artificial intelligence Unit, 无所不在的运行,通过6G+边缘计算 连接世界所有设备。

  • @JiangJane1030
    @JiangJane1030 Год назад

    alignment具体的逻辑和流程,可以再详细说明吗?感觉刚刚好像没讲完。1哪些问题需要alignment,大概分哪些类别;2我猜测的对齐的过程是无限穷尽prompt Q&A对 的过程,就是归纳可能的问题及对应的答案,不知道是不是这样。 很希望了解对齐的原理,想听听课代表看法😊

    • @kedaibiao
      @kedaibiao  Год назад +1

      还有part3 正在制作中

  • @healthtourguide
    @healthtourguide Год назад

    哇我好喜欢卢易啊, 有没有什么方法可以follow 他

  • @1bdollars
    @1bdollars Год назад

    OpenAI 已经开放了 fine tune

    • @echozhao2665
      @echozhao2665 Год назад +1

      但不是rlhf fine tune

    • @skygoalbrecd
      @skygoalbrecd Год назад

      请问openai提供的fine tune会修改哪一层,或者哪几层?我的理解是应该不会修改底层大模型