RAG进阶 - ReRank | ChatOllama基于Cohere Rerank提升知识库信息检索质量

Поделиться
HTML-код
  • Опубликовано: 10 сен 2024

Комментарии • 6

  • @fay-sx4ys
    @fay-sx4ys 3 месяца назад

    感謝分享,以下沒攻擊意思,感謝讓我理解rerank,我見解,文章用rag切片損失資訊後再輸入llm會好這做法我無法接受,這基礎上用rerank方法只改善少許,為何外面都吹rag再送llm is good的,個人玩玩體驗是可以,幫忙思考。

    • @user-ot6qr9zi1j
      @user-ot6qr9zi1j 3 месяца назад +1

      Fine tune is better way, along with higher cost. As i say it, RAG is easy and cheap to take your personal data into the computing.

  • @yuna_tseng
    @yuna_tseng 4 месяца назад +1

    先按讚再來看

  • @gltxdy
    @gltxdy 4 месяца назад

    有一个问题 为啥不把聊天记录 存到向量数据库里面 这样检索记忆 不就实现记住过去的对话了吗?

    • @01coder30
      @01coder30  4 месяца назад +2

      我想这还是由于目前的模型聊天补全,对于聊天历史,是以消息序列的方式提供给模型。因此,聊天历史的时序性更重要些,这方面不适合用向量数据库。

    • @hongyipeng5778
      @hongyipeng5778 4 месяца назад

      聊天,是有token 限制的,你如果全部都保存起来,那聊到后面,token 都不够用了吧 。