Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
太棒了!我的一个想法刚好需要这个功能去实现。🎉
分享的很赞,代码案例也很详细!加油老哥 期待看到更多关于langchain的教程🎉
感觉这种方式很像官方实现了一个可以查数据库的agent?请问用这种方法如何在该生成的前后加入自己的prompt进行后续的操作呢
非常好的视频
你好,謝謝你的影片。想請問能不能拍一個不使用open AI,但仍能處理中/英文的langchain例子?我人在無法登記OpenAI的地方,所以其實無法使用OpenAI API. 謝謝
哈喽,非常喜欢你的视频,但是在观看的过程中找不到视频顺序,能不能在视频标题上添加一个序号或者日期❤
好建议。后续视频给加上
似乎現在的library 庫有變更?我在import那步無法使用,有人遇到類似問題嗎
LangChain在这期视频后的这段时间变化巨大
@@01coder30 瞭解 謝謝
问题是整个数据库的数据量不能超过4097个token。超过了就报错不能用了
是的,这个问题有解决方法吗
不对吧,你给到LLM的数据仅仅是SQL的schema,并没有把源数据给到LLM
那是prompt 加对数据库的信息提取总长度超过了max_token 换16k 的足够了
想问一下,你代码里没有os .env file ,怎么识别api key的,我看也可以跑?这是为啥
.env没有提交到代码仓库。你可以参考.env.example,复制粘贴一份.env,并设置你的有效OPENAI API KEY.
@@01coder30 我是看你视频里没有import api key,没看到你 import dotenv 这个模块,所以有点疑惑
想问下 这个url地址怎么找到的,我已经设置了mysql connection
mysql+pymysql://root:root@127.0.0.1/students 你是说这个吗?参考campus.datacamp.com/courses/introduction-to-relational-databases-in-python/advanced-sqlalchemy-queries?ex=2
sql boy 原地失业,不知道这个语言模型对大型数据库交换准确性和速度怎么样,有没有token限制
会有限制,这也还是个实验性的功能。当时数据库结构复杂,数据量大后,也会有问题的。
@@01coder30 老师,db_chain = SQLDatabaseChain.from_llm(llm, db, verbose=True, use_query_checker=True)我跟着官方文档加了use_query_checker=True 会报错,你知道怎么回事么,我是最新版本。
请问下这样的话,存在数据库数据泄漏的风险吗?
理论上,数据是会与模型产生交互。
每次请求会用到多少token,会有几次openai api请求呢
利用LangChain框架的SQLChain,每次至少会有两个OpenAI的API请求,token数很大程度上取决于自然语言描述的业务场景需要的SQL,SQL查询返回数据越多越复杂,token消耗会越大
双线运行,第一次根据需求和表的结构生成SQL语句,第二次根据SQL结果和问题,生成答案返回给用户。
自然语言可以使用中文吗?
应该是可以的。我亲测后回来汇报 :-)
太棒了!我的一个想法刚好需要这个功能去实现。🎉
分享的很赞,代码案例也很详细!加油老哥 期待看到更多关于langchain的教程🎉
感觉这种方式很像官方实现了一个可以查数据库的agent?请问用这种方法如何在该生成的前后加入自己的prompt进行后续的操作呢
非常好的视频
你好,謝謝你的影片。想請問能不能拍一個不使用open AI,但仍能處理中/英文的langchain例子?我人在無法登記OpenAI的地方,所以其實無法使用OpenAI API. 謝謝
哈喽,非常喜欢你的视频,但是在观看的过程中找不到视频顺序,能不能在视频标题上添加一个序号或者日期❤
好建议。后续视频给加上
似乎現在的library 庫有變更?
我在import那步無法使用,有人遇到類似問題嗎
LangChain在这期视频后的这段时间变化巨大
@@01coder30 瞭解 謝謝
问题是整个数据库的数据量不能超过4097个token。超过了就报错不能用了
是的,这个问题有解决方法吗
不对吧,你给到LLM的数据仅仅是SQL的schema,并没有把源数据给到LLM
那是prompt 加对数据库的信息提取总长度超过了max_token 换16k 的足够了
想问一下,你代码里没有os .env file ,怎么识别api key的,我看也可以跑?这是为啥
.env没有提交到代码仓库。你可以参考.env.example,复制粘贴一份.env,并设置你的有效OPENAI API KEY.
@@01coder30 我是看你视频里没有import api key,没看到你 import dotenv 这个模块,所以有点疑惑
想问下 这个url地址怎么找到的,我已经设置了mysql connection
mysql+pymysql://root:root@127.0.0.1/students 你是说这个吗?
参考campus.datacamp.com/courses/introduction-to-relational-databases-in-python/advanced-sqlalchemy-queries?ex=2
sql boy 原地失业,不知道这个语言模型对大型数据库交换准确性和速度怎么样,有没有token限制
会有限制,这也还是个实验性的功能。当时数据库结构复杂,数据量大后,也会有问题的。
@@01coder30 老师,db_chain = SQLDatabaseChain.from_llm(llm, db, verbose=True, use_query_checker=True)
我跟着官方文档加了use_query_checker=True 会报错,你知道怎么回事么,我是最新版本。
请问下这样的话,存在数据库数据泄漏的风险吗?
理论上,数据是会与模型产生交互。
每次请求会用到多少token,会有几次openai api请求呢
利用LangChain框架的SQLChain,每次至少会有两个OpenAI的API请求,token数很大程度上取决于自然语言描述的业务场景需要的SQL,SQL查询返回数据越多越复杂,token消耗会越大
双线运行,第一次根据需求和表的结构生成SQL语句,第二次根据SQL结果和问题,生成答案返回给用户。
自然语言可以使用中文吗?
应该是可以的。我亲测后回来汇报 :-)