- Видео 14
- Просмотров 29 453
鹏哥的AI
США
Добавлен 10 авг 2024
老程序猿给大家实在分享AI自用体验和知识!
Mac版StableDiffusion丐版配置苹果电脑也可以用噢!
MochiDiffusion专门为苹果电脑优化的本地文生图软件,
分享软件下载安装和第三方模型使用!
关键M1丐版配置也能用噢!!
分享软件下载安装和第三方模型使用!
关键M1丐版配置也能用噢!!
Просмотров: 389
Видео
阿里云QVQ多模态大模型来啦!有在线体验噢!
Просмотров 22114 дней назад
阿里云QVQ多模态大模型, 免费开源! 赶紧去魔搭社区试试吧! #QVQ #Qwen2 #通义千问 #开源大模型 #多模态大模型
RAG多人用!使用Anything LLM实现本地AI大模型RAG的Web服务
Просмотров 3,6 тыс.2 месяца назад
RAG多人用!使用Anything LLM实现本地AI大模型RAG的Web服务
通过RAG给本地AI大模型投喂数据创建私有AI知识库
Просмотров 20 тыс.2 месяца назад
使用RAG工具Anything LLM䢎本地部署AI大模型投喂数据,创建本地私有AI知识库!
本地部署AI大模型所有技巧注意事项大总结!
Просмотров 1 тыс.2 месяца назад
本地电脑部署AI大模型,包括苹果版、Windows版、低配电脑、用手机调用、部署到移动硬盘所有技巧、经验、注意事项大总结!
低配Windows电脑没独立显卡也能本地跑开源AI大模型 ?
Просмотров 5723 месяца назад
迷你小主机也能跑开源AI大模型! 16GB内存,没有独立显卡,AMD Ryzen7处理器,本地运行AI大模型!
低配笔记本电脑本地AI大模型能否运行?
Просмотров 4544 месяца назад
低配笔记本电脑本地AI大模型, M1 Macbook Air 丐版 8GB内存 256GB硬盘, 能否本地运行开源大模型??
把免费开源AI人工智能大模型部署到你电脑上!
Просмотров 1,3 тыс.4 месяца назад
把免费开源AI人工智能大模型部署到你电脑上! 需要分几步?这个视频保姆级教程! 非常详细的告诉你!
POE让你免费用上几乎所有AI大模型还能在上面赚钱?
Просмотров 4335 месяцев назад
POE免费使用各种流行的AI大模型, 免费额度足够日常ChatGPT4o和SD画图啦! 并且还可以自己创作AI机器人, 优秀的AI机器人创作者是可以赚钱的噢!
有没有安卓上的?
ollama还是太慢了
用llama.cpp会快吗
大佬牛逼!
谢谢分享!👍
有pc可以用的文生图吗😂
stablediffusion
多谢鹏哥!
请问可以把视频给到大模型让它学习吗
鹏哥真是太厉害了,讲得极有条理,简明易懂
我用您的方式,在i9的macbookpro上试了,在open webui中回复的内容显示不全,您有碰到过类似问题吗,在终端询问模型反馈文字是正常的完整的
没有,但是我后来用chatbox ai是个app,或者anything llm都可以。
为何我代码复制到命令提示符的时候会报错呢
显示成这个:>$env:STORAGE_LOCATION="$HOME\Documents\anythingllm"; ` 文件名、目录名或卷标语法不正确。 C:\Windows\System32>If(!(Test-Path $env:STORAGE_LOCATION)) {New-Item $env:STORAGE_LOCATION -ItemType Directory}; ` 此时不应有 $env:STORAGE_LOCATION))。 C:\Windows\System32>If(!(Test-Path "$env:STORAGE_LOCATION\.env")) {New-Item "$env:STORAGE_LOCATION\.env" -ItemType File}; ` 此时不应有 "$env:STORAGE_LOCATION\.env"))。 C:\Windows\System32>docker run -d -p 3001:3001 ` docker: invalid reference format. See 'docker run --help'. C:\Windows\System32>--cap-add SYS_ADMIN ` '--cap-add' 不是内部或外部命令,也不是可运行的程序 或批处理文件。 C:\Windows\System32>-v "$env:STORAGE_LOCATION`:/app/server/storage" ` '-v' 不是内部或外部命令,也不是可运行的程序 或批处理文件。 C:\Windows\System32>-v "$env:STORAGE_LOCATION\.env:/app/server/.env" ` '-v' 不是内部或外部命令,也不是可运行的程序 或批处理文件。 C:\Windows\System32>-e STORAGE_DIR="/app/server/storage" ` '-e' 不是内部或外部命令,也不是可运行的程序 或批处理文件。
带图片和表格的PDF文件,怎么来精准投喂给模型,把图片和表格也给识别出来
鹏哥鹏哥,您这有没有知识图谱和大模型本地部署调用的学习文档呀
背景音乐太嘈杂
感谢🙏
赞👍
请问大佬,我现在有大约1000g的各种格式的文件,想要做成我自己的私有知识库,是不是我要把我非语言的资料(如图片,视频,音频,ppt等)全都进行总结,然后把这些总结再加上我的原有文本资料一起上传至向量数据库才可以?😢资料太多我根本看不完…
我理解是这样的,你可以试验一部分先看看效果
1000g文件你认真的吗这不得挂着几天啊
一般来说这1000g里90%以上都会是图片和视频。所以文本其实不会真的这么多。@@郭羽-o4d
鹏哥,请教一下数据下载到在Nas上,通过各设备2.5G的网口调用可行吗?速度是否能达到需求?尤其是多端调用(手机、Pad、Wi-Fi下或5G下)
通过网络加载数据应该还是比较慢,应该是不太行。我直接把数据放固态移动硬盘都觉得速度没本地硬盘快。
所以沒必要部署docker了是吧?
之前是因为要用openwebui,这个看具体情况
一条 cluade 三百多积分
其实poe自带的那个assistant日常问题都回答的可以,可以问很多。
请教:notebooklm感觉就是一种RAG?😊
我Anything LLM安装到最后总是报错
感谢分享。这样mac上运行模型就不用占用太多硬盘空间,mac内存太贵啦😁
非常棒的视频,也开拓了思路。对于公司或部门来说,将相关资料投喂给模型,开设好各个成员的账户后,大家就能通过一个网页端来搜索想要的信息。对于原先散布在很多不同位置的电子文件,有足够理解和处理能力的模型应该可以对拿到的资料做整理和连接。方便各个成员的信息共享,而且工作交接上也能缩短很长时间。
请问部署了这个之后,是不是之前安装的anything llm desktop以及open webui就可以卸载了
这个是针对多人使用的,之前是单人使用,场景不同,当然有这个,之前的确实可以卸载。
请问:按照你之前的视频部署了本地ollama和open webui,在其他的电脑上可以以网页形式访问到mac上部署的ollama。 那么你这个视频里面提到的anthing llm,里面有内置的chat界面,可以给予上传的素材来进行对话,但是这个anything LLM和之前视频部署的open webui是不是不发生任何关系? 也就是说我即使在docker里面吧openwebui关闭掉,也不影响anthing上的调试和对话? 那么,如果我想在其他电脑上,也能使用chat方式和anythingllm做对话(类似之前通过openwebui对话),应该怎样做呢?谢谢
openwebui和anythingllm功能有重叠,都可以聊天,openwebui也有rag功能也可以上传数据。类似不同牌子的手机都能打电话,看你用哪个了。
请问QNAP NAS TS 264C 可以部署吗 ,比如用docker部署?希望答复谢谢
NAS基本没有显卡,内存32G B
NAS没有显卡就得靠CPU,但是NAS的CPU主要是处理影片播放和文件管理,算力明显不行的。
需要什么电脑配置啊?
之前有视频,低配的用低参数1.5b起,玩玩就好,高配可以调高参数,可以像模像样回答一些问题。
有個疑問 就是RAG可以幫忙整理文件,輸出摘要或表格等文字,但有沒有辦法也輸出PDF裡面的重要圖片,我希望回答的時候,是圖文並茂的,而我所說的圖,是PDF真實有放的圖,而不是AI亂生成的,有任何一款產品(不管有無免費),都想了解是否能達成此需求?
目前我知道的都是基于文本的RAG,分析图片的要的算力可能比文本大很多的,不分析图就要给每个图配文本说明,大模型才能知道是什么。
近日發現付費的ChatGPT對訊息的誤殺誤判極速多起來了 正常內容,動不動就跳出違反規範 違反守則什麼的 也搞不清楚違反了什麼 會是對特定主題帖規劃專屬執行特定需求,例如文章編輯 作業累積到一個程度 就和你說『他們這語言功能不是用來做這些事用的』,再輸入就會出現違反規範 違反守則什麼的 如果安裝本地大語言模型 應該就不會有這些問題了吧? 請問本地安裝後,是否也有上網搜尋資料的功能? 是否也可以餵圖具有辨識圖的功能? 謝謝
是不是裡面有敏感詞? 我還沒遇到過這種問題 ; 有可能是 "作業累積到一個程度" 文字量太大 GPT無法一次處理 要分段 處理
@@ABC-je8yq 是不是裡面有敏感詞? =>沒有 作業累積到一個程度=>指每開一個對話帖,左邊會新增特定聊天主題項目,當給予一個提示功能後,例如整理某個內容按照我要的格式列出 『作業累積』這句,是指重複在這同一帖作業,不是指一次給予大量的資料
@@kicoyang 理解, 我順道分享一下目前對話框(同一個對話帖 session/thread)的運作的方式是, Question1 => Answer1 第二次傳送資料的時候系統會包含 Q1+A1+Q2 三個資料, 第三次傳送資料將會是 Q1+A1+Q2+A2+Q3 持續累加,在這種持續一個對話框問多個問題的方式下 累加的資料就會相對龐大。看看其他人有沒遇到跟你一樣的問題
@@ABC-je8yq 謝謝您的回覆 『第三次傳送資料將會是 Q1+A1+Q2+A2+Q3 持續累加』 => 然後第十次AI就會變 D1+Q7+E1+Q10 開始自動省略以及自作聰明 或是第十次 本該.....+Q10 結果變 Q1+A1+Q2+A2+Q3+Q4(只列一部分) 然後回:已完成您的需求XD
GPT肯定还是最“聪明”的,本地部署确实可以自己用RAG,微调训练这些方式更深度的影响。
点进这个视频纯粹是因为博主很帅。走了拜拜
咋说呢, 准确度不怎么高。 因为他的语义分析并没到semantic这种程度。 而且响应速度实在是堪忧。
請問你是部署哪種級別的訓練庫? 要不要試試 Mac 96G記憶體 部署70b級別的 你提到的問題感受應該會降低很多
为什么要用千问,千问有洗脑风险,只用ollma 3.2
问了ollma王阳明是谁?它告诉我王阳明先是和曹操结婚,后来又和孙权结婚,最后死在了孙权面前。ollma真的可以吗?
@@samtree4811 数据量不够吧
鹏哥,感觉这个开源的大模型输出答案的正确性还是很低很低啊😅 Anyway……感谢分享!
用参数量大的相对会好一些
可以传csv 或者 其他格式吗
纯文本的应该都行
挺不错,如果能做成虚拟文件夹,直接把文档保存在文件夹即可加入大模型,那就更方便了
请问下有没有办法设置成外网访问呢?这个貌似只是局域网内的共享?
其实可以,做个内网穿透
可否分享Mac mini M4對你目前手上硬體下,各AI模型的比較?
没有机器.. 苹果电脑基本上看gpu和内存,gpu多内存更大优势就更大。
大佬,如果是在ubuntu 上面呢,有没有好的方案
x86架构得有好的显卡,或者用有显卡的云主机
果断关注,先赞后看
有没有api接口啊。可以接收他的响应
anythingllm官网有api文档
可以與你聯系嗎?付費學習
比较忙,有问题直接留言或者可以加微hawk9977
一个说AI具有思考能力的博主,已经说明这个博主不行了,你还联系他学习啥啊?
从抖音“低配win电脑本地运行ai大模型” 过来的,哈哈
多谢关注😄