用自己的PDF文件定制Chatgpt!langchain代码实例详解!
HTML-код
- Опубликовано: 19 апр 2023
- reference: / @dataindependent
• ChatGPT for YOUR OWN P...
collab:ruclips.net/user/redirect?even...
本视频不构成任何投资建议。DYOR。
Twitter: / mrszaaa
我们的NFT发行网站:catchonlabs.xyz/
Discord社区: / discord Наука
太贴心的讲解,非常非常谢谢
大佬讲的太好了
谢谢 很有收获
帮助真的很大 👍
感谢
挺好的,让我搞明白了,embadding怎么和gpt交互的
新手请教:用google转换的embeddings和gpt3.5的embeddings是可以放到一起search的吗?在同一个向量空间下?
感觉这就是一个检索,只是前端加了人话理解。
看懂了 看来目前市面上所有大于2k/4k token 的服务都是基于longchain的吗
我问gpt, embeddings 的方法和有些视频里面提到的外挂知识库有没有区别,它回答我说是有区别,但是我看这个视频,感觉好像又没什么区别。想问一下有没有懂行的大佬解释一下,是不是除了采用训练的方法,只有embeddings这一种方法 扩展知识内容呢?
你好,大佬 请教下,这个输出有限制吗?可以输出几百个汉字吗?能连续提问吗?谢谢😊
bing也能读懂pdf,这两个有什么区别么
感谢分享,有一个问题,把pdf存储到向量的这个训练过程的信息安全问题是怎么解决的
可以用本地的文字转向量工具
大佬,尝试了这个方法,真的很好用。我看了代码(的注释),能不能加一步,PDF做了embedding之后储存到向量数据库里,然后从向量数据库寻找答案然后用AI输出?
是可以的
如果大型语言模型的prompt输入大小,可以增加到一两百万的话,那这种embedding的方法是不是就过时了?
很难说,最终这是个成本问题,因为prompt越大 显存要求会会越高
这么好的内容可惜看不懂
你好,你愿意合作吗?
This model's maximum context length is 4097 tokens, however you requested 7355 tokens (7099 in your prompt; 256 for the completion). Please reduce your prompt; or completion length.
我用的是GPT-3.5,token有限,GPT-4还没有收到邀请,有其他方法解决这个问题吗?
最有效的是做分割
请问解决了么?我也遇到了同样的问题 谢谢
@@nft8888 请问如何做分割呢?尝试了把PDF弄的非常小,还是有这个问题
@@user-nx7mq7ki6z 用langchain的文本分割,然后再调用其他chain让ai理解总结
make your hands dirty,让你的双手动起来
源码在哪里下载