用自己的PDF文件定制Chatgpt!langchain代码实例详解!

Поделиться
HTML-код
  • Опубликовано: 19 апр 2023
  • reference: / @dataindependent
    • ChatGPT for YOUR OWN P...
    collab:ruclips.net/user/redirect?even...
    本视频不构成任何投资建议。DYOR。
    Twitter: / mrszaaa
    我们的NFT发行网站:catchonlabs.xyz/
    Discord社区: / discord
  • НаукаНаука

Комментарии • 27

  • @user-iw1nz1kc8m
    @user-iw1nz1kc8m Год назад +1

    太贴心的讲解,非常非常谢谢

  • @ningshenbj
    @ningshenbj Год назад +1

    大佬讲的太好了

  • @JDRIM
    @JDRIM Год назад +1

    谢谢 很有收获

  • @chelly6941
    @chelly6941 Год назад +2

    帮助真的很大 👍

  • @mengmeng4312
    @mengmeng4312 Год назад +2

    挺好的,让我搞明白了,embadding怎么和gpt交互的

  • @kamilin2437
    @kamilin2437 Год назад

    新手请教:用google转换的embeddings和gpt3.5的embeddings是可以放到一起search的吗?在同一个向量空间下?

  • @zhaocaixiaoDU
    @zhaocaixiaoDU 11 месяцев назад +1

    感觉这就是一个检索,只是前端加了人话理解。

  • @DvACtOid
    @DvACtOid Год назад

    看懂了 看来目前市面上所有大于2k/4k token 的服务都是基于longchain的吗

  • @arthurk2631
    @arthurk2631 Год назад

    我问gpt, embeddings 的方法和有些视频里面提到的外挂知识库有没有区别,它回答我说是有区别,但是我看这个视频,感觉好像又没什么区别。想问一下有没有懂行的大佬解释一下,是不是除了采用训练的方法,只有embeddings这一种方法 扩展知识内容呢?

  • @user-iv4gz5do2d
    @user-iv4gz5do2d Год назад

    你好,大佬 请教下,这个输出有限制吗?可以输出几百个汉字吗?能连续提问吗?谢谢😊

  • @tocily
    @tocily Год назад

    bing也能读懂pdf,这两个有什么区别么

  • @ontheroad9310
    @ontheroad9310 Год назад

    感谢分享,有一个问题,把pdf存储到向量的这个训练过程的信息安全问题是怎么解决的

    • @nft8888
      @nft8888  Год назад

      可以用本地的文字转向量工具

  • @user-lx3oy3xs7e
    @user-lx3oy3xs7e Год назад

    大佬,尝试了这个方法,真的很好用。我看了代码(的注释),能不能加一步,PDF做了embedding之后储存到向量数据库里,然后从向量数据库寻找答案然后用AI输出?

  • @simonguan7705
    @simonguan7705 Год назад

    如果大型语言模型的prompt输入大小,可以增加到一两百万的话,那这种embedding的方法是不是就过时了?

    • @nft8888
      @nft8888  Год назад

      很难说,最终这是个成本问题,因为prompt越大 显存要求会会越高

  • @wenjiehu4747
    @wenjiehu4747 Год назад

    这么好的内容可惜看不懂

  • @oraclefrankie
    @oraclefrankie Год назад

    你好,你愿意合作吗?

  • @hardlearning
    @hardlearning Год назад

    This model's maximum context length is 4097 tokens, however you requested 7355 tokens (7099 in your prompt; 256 for the completion). Please reduce your prompt; or completion length.
    我用的是GPT-3.5,token有限,GPT-4还没有收到邀请,有其他方法解决这个问题吗?

    • @nft8888
      @nft8888  Год назад

      最有效的是做分割

    • @user-nx7mq7ki6z
      @user-nx7mq7ki6z Год назад

      请问解决了么?我也遇到了同样的问题 谢谢

    • @user-nx7mq7ki6z
      @user-nx7mq7ki6z Год назад

      @@nft8888 请问如何做分割呢?尝试了把PDF弄的非常小,还是有这个问题

    • @waldon4369
      @waldon4369 11 месяцев назад

      ​@@user-nx7mq7ki6z 用langchain的文本分割,然后再调用其他chain让ai理解总结

  • @playboy6356
    @playboy6356 Год назад

    make your hands dirty,让你的双手动起来

  • @noelmililitregmailcom4376
    @noelmililitregmailcom4376 Год назад

    源码在哪里下载