- Видео 41
- Просмотров 99 681
畅的科技工坊
Гонконг
Добавлен 16 сен 2013
欢迎来到生活与科技频道!我们专注于探索IT领域的最新动态、分享最新的IT产品,以及展示如何将先进的IT技术融入日常生活。无论你是科技爱好者、初学者还是专业人士,我们都将为你带来丰富多彩的内容。在这里,我们会带你探索科技的未来趋势,让科技更贴近生活、更易于理解。加入我们,一起探索科技的无限可能吧!
【Gemini 2.0&1.5 Flash 评测】Gemini 2.0 Flash到底多厉害?|免费使用Gemini 2.0|Gemini 2.0 Flash写的游戏成功?
Google AI Studio:ruclips.net/video/F9uj1UR7l-M/видео.html
Gemini Flash Plugin: hagope.com/2024/07/06/vim-in-a-flash
00:00 简介 Brief Intro
01:45 长文本总结测试 Long Text Summarization Test with 1.5 Flash
05:55 多模态对比测试 Multimodal Test VS 1.5 Flash
09:20 代码撰写测试 Coding Test VS 1.5 Flash
12:45 结束总结 Ending
Gemini Flash Plugin: hagope.com/2024/07/06/vim-in-a-flash
00:00 简介 Brief Intro
01:45 长文本总结测试 Long Text Summarization Test with 1.5 Flash
05:55 多模态对比测试 Multimodal Test VS 1.5 Flash
09:20 代码撰写测试 Coding Test VS 1.5 Flash
12:45 结束总结 Ending
Просмотров: 298
Видео
【Gemini 2.0重点功能介绍】Gemini可以帮你打游戏了~|多模态,Agent,原生多语言,3D物体识别|Gemini 2.0 flash 发布上线
Просмотров 2,5 тыс.Месяц назад
Google 终于发布了Gemini 2.0的功能介绍影片,并且上线了Gemini 2.0 Flash版本供Gemini Advanced 用户体验。今天这支影片会带着大家了解Gemini 2.0的重要功能。 00:00 Opem 00:19 Gemini 2.0 Agentic LLM 00:38 Project Astra 01:10 Native Multi-Lingual 01:54 Project Mariner 02:44 3D world interaction 03:04 Gemini 2.0 Flash Experimental 03:30 Ending
【Langchain Chatbot】如何用Langchain实现Chatbot的Memory|3个不同方案的实现和对比
Просмотров 862 месяца назад
Langchain是目前广泛使用的大语言应用框架。为了实现连续对话,需要利用Langchain的能力实现Memory的功能。影片详细介绍了3种实现Memory的方法,并且进行了对比。 参考代码 :github.com/melodylife/langchainmemorydemo 00:00 Open 开场 00:53 Intro of Memory Langchain中Memory方案介绍 01:30 Demo of Chatbot with Memory. 使用Memory的Chatbot Demo 05:25 Code Detail 代码实现详解 11:16 Agent Intro Langgraph Agent Memory介绍 12:26 Code Detail Agent 代码实现详解 18:35 Langgraph Agent Demo Langgraph Agent M...
【Llama.cpp使用详解】如何使用Llama.cpp在本地运行大语言模型| GGUF 转换 | 模型的量化 | 可以利用 Llama.cpp手搓 Apple Intelligence吗?
Просмотров 3892 месяца назад
Llama.cpp是大语言模型本地化运行框架的鼻祖。很多大语言模型的工具例如Ollama,Llama Studio都是围绕它打造的。 今天影片,会把Llama.cpp使用方法分享个大家。同时分享也给如何在iOS 上,利用Llama.cpp运行大语言模型的方法。 一不小心又做了一个长视频,如果大家感觉拖沓或者啰嗦,还请包含,欢迎给我留言,我会努力改进。感谢大家观看。 Llama.cpp : github.com/ggerganov/llama.cpp Swiftllama: github.com/ShenghaiWang/SwiftLlama/tree/main 00:00 Open - 开场 01:13 Brief Intro - 简介 01:19 How to deploy&Build Llama.cpp - 如何编译部署 04:55 Convert HF model to GGU...
【Llama3.2详解】Llama3.2 功能测试,竞技场对比Gemma2|Llama 3.2 多模态模型竟然免费试用了?!|Meta首个多模态开源模型发布|Meta到底系统用Llama模型做点什么?
Просмотров 1 тыс.3 месяца назад
Meta 发布了新的Llama 模型,Llama 3.2 系列。其中包含了小尺寸模型以及多模态模型。今天的影片为大家详细介绍模型的能力,同时分享,如何免费试用Meta的多模态开源大模型 免费试用Llama 3.2 代码:colab.research.google.com/drive/1-18L4SOtSQxNcpyYNaWZGYi81ohpsFbv?usp=sharing Vertext Llama Service API:console.cloud.google.com/vertex-ai/publishers/meta/model-garden/llama-3.2-90b-vision-instruct-maas 00:00 Open 00:40 Intro 02:41 Score Review 04:57 Performance Test 13:38 Try Llama3.2 ...
【Apple Intelligence】Apple 机器学习框架MLX详解|Apple Silicon发挥性能的最后一块拼图| Ollama+MLX 完全本地化的大语言模型fine tuning方案
Просмотров 3,4 тыс.4 месяца назад
Apple 发布了自家的机器学习框架 MLX 。 MLX功能全面,今天影片将为大家详细介绍MLX使用方法。同时分享ollama mlx 完全本地的大语言模型微调方案 数据处理脚本: colab.research.google.com/drive/1ewWoMV_GzbFCzj-AEOfOu8pRZrCUV5ZQ?usp=sharing 00:00 Open 00:21 Intro of MLX 01:07 MLX Installation and Prerequisition 05:32 Generate content with MLX 09:06 Fine-tune model with MLX 11:20 Data preparation 20:34 Execute fine-tuning 26:01 Try the tuned model 28:05 Fuse the tun...
【Gemini Live发布]】5分钟看完Gemini Live 在Made by Google发布 | 对标ChatGPT Voice| Google Gemini 实时语音对话
Просмотров 3795 месяцев назад
今年的Made By Google 大会异于往常,相比往年,提前了整整两个月召开。发布会前半个小时,完全集中于Gemini的新功能。重磅推出了Gemini Live,对话行LLM 助手。 00:00 Open 00:21 彩蛋是她吗? HW 姚公主?! 00:44 Intro of Google AI Infra Google 智能硬件设备介绍 01:34 Multimodal Demo with issue. 多模态Demo和失误 02:48 Gemini Live 发布 04:14 Wrap-up 总结
Llama3.1 PK Gemma2 谁是最厉害开源大语言模型?|Ollama 超简单部署开源模型|竞技场实况PK|大语言模型手搓打砖块游戏可以玩吗?
Просмотров 2395 месяцев назад
影片一次性介绍了Llama3.1 和Gemma2。并且通过几组问题分别测试两个开源大语言模型的常识能力,语言补足能力,逻辑思维,中文理解,代码等等。快来看看谁最厉害吧! 00:00 - Open 01:07 - Perf Comparism 参数对比 03:43 - Arena 竞技场 05:19 - Deployment with Ollama Ollama 部署 07:08 - Normal Test 一般问题测试 15:14 - Coding Test 编码测试
【ChatTTS + Ollama】我的Ollama会说话!ChatTTS使用详解|使用ChatTTS+Ollama打造完全本地化的语音交互大语言模型工具|语音交互LLM|Gemma2 会说话
Просмотров 4,2 тыс.6 месяцев назад
ChatTTS悄然上线。一时间被在语音生成业界掀起轩然大波。它可以生成自然,流程,接近真人的语音文件。 今天,就让我来详细介绍一下ChatTTS UI的部署和使用。同时,我分享一下,我利用ChatTTS和Ollama打造的完全本地化的语音对话的大语言模型工具。 ChatOllama: github.com/melodylife/ollama-chat Awesome-ChatTTS: github.com/libukai/Awesome-ChatTTS Vosk: alphacephei.com/vosk/ Ollama 使用指南: ruclips.net/video/POf4qbohP9k/видео.html 00:00 开场嘉宾 Open 00:56 ChatTTS介绍 Brief Intro of ChatTTS 02:36 如何部署和使用ChatTTS UI How to ...
【WWDC 24 Keynote 总结】WWDC 2024 发布会内容速览|Apple Intelligence 发布|苹果整合 ChatGPT|苹果完成AI软硬件布局|iOS 首次支持RCS短信
Просмотров 2437 месяцев назад
今天,Apple 召开了WWDC 2024 Keynote,发布了多项系统更新以及AI战略。 就让我带大家了解本次发布会的所有内容。 00:00 Open 01:15 VisionOS 02:54 iOS 04:22 Audio&Home 05:28 WatchOS 06:15 iPadOS 06:58 MacOS 08:59 Apple Intelligence 12:30 Ending
【十分钟AMD Keynote精华】 2024年AMD Computex Keynote 速览| Lisa Su AMD Keynote | Zen 5 发布| Ryzen 9000| Epyc 5
Просмотров 2237 месяцев назад
2024年6月3日,AMD在Computex上召开了Keynote发布会。董事长Lisa Su分享了AMD最新的科技成果。我帮大家汇总了本次发布会的精华,快来一起了解下发布了哪些前沿技术吧。 00:00 开场速览 Open 01:32 Ryzen 9000 Released 03:36 Chip for AI PC Released 06:33 Versal Gen 2 Released 07:17 AMD Data Center Platform with Epyc Gen 5 08:34 AMD MI300X & MI350X 10:09 Ultra Accelerator Link Released 10:26 结束 Ending
【Computex 2024 Keynote总结】10分钟了解Jensen Huang的Keynote中重点内容|老黄的Keynote概括整理|Computex 2024 开幕
Просмотров 3747 месяцев назад
一年一度的Computex 2024 开幕了。本次开幕演讲,依然请来了Jensen Huang。 老黄给我们带来了最前沿的技术和惊艳的Demo。就让我来带大家10分钟了解整个Keynote的重点内容 00:00 开场 Open 01:19 加速计算 Accelerate Computing 03:25 数字孪生 Digital Twin 05:06 NIM (Nvidia Inference Micro-services) 06:39 介绍 Blackwell Intro 08:09 机器人 Robotics&Omniverse 09:23 结束 Ending&Music
【Multimodal RAG 多模态】25分钟讲透如何创建Multimodal 应用|OpenAI,Gemini API, Ollama全支持|多模态LLM 使用技巧|多模态 RAG 极限避坑指南
Просмотров 1,4 тыс.7 месяцев назад
大家好,自从上次分享完如何创建基本RAG应用以来,很多观众希望能看到多模态Multimodal RAG应用搭建方法。经过几周爆肝,我终于完成了,今天分享出来,从方法论,到框架,再到代码细节,一次讲透。希望能够帮到你. 基本RAG 应用with Ollama: ruclips.net/video/HtqmEREAPC0/видео.html Multimodal RAG Github Repo: github.com/melodylife/multimodalRAG/tree/main 00:00 开场 Open 00:57 展示 Demo 05:09 多模态RAG实现方法 Solution options of Multimodal RAG 06:43 多模态RAG应用框架 Framework of Multimodal RAG 10:17 代码详解 Code sharing 22:...
【Microsoft Build 2024】十分钟了解Microsoft 2024 Build重点内容| 正面硬刚GoogleIO ?!|微软在焦虑什么?|AI大战第二轮 RAG和Agent是未来
Просмотров 5748 месяцев назад
今天凌晨,微软举行了Microsoft Build 2024 Keynote。微软大佬悉数登场介绍AI战略和新的产品。我总结了本次发布会重点内容,同时分享了我对于AI行业的一些看法供大家参考。 Phi-3 Vision on Huggingface: huggingface.co/microsoft/Phi-3-vision-128k-instruct RAG OLLAMA: ruclips.net/video/HtqmEREAPC0/видео.html LLM自动总结RUclips视频内容:ruclips.net/video/GMHvdejkV8s/видео.html 00:00 开场 Open 00:37 简介 Brief Intro 01:51 纳德拉登场 Nadella stepped onto Stage 02:27 AI设施基础建设 AI Infrastructure...
【Google IO 2024 十分钟精华】十分钟带你看透透Google IO2024|1M Tokens无人能敌|Google下场做反诈了?|Project Astra惊艳全场|Gemma2 发布
Просмотров 2,6 тыс.8 месяцев назад
今晚,Google 召开了Google IO 2024。 两个小时的Keynote可畏信息满满。就让我带大家用十分钟了解整个2小时会议的精华。十大项目高度提炼 00:00 开场 Open 00:49 第一项 Gemini 新能力。 Gemini new feature 01:32 Deepmind 发布Project Astra 。 Deepmind released Project Astra 02:43 Deepmind 发布Gemini Flash。Deepmind released Gemini Flash 03:12 AI相关应用发布。 AI powered APPs 03:56 Gems 发布。 Gems released 04:19 Google Search AI Overviews 发布。 AI Overviews in G-search 05:03 Google ...
【OpenAI 春季发布会 Spring Update】速看 总结| GPT-4O 即将到来|最新大语言模型完全免费开放使用|ChatGPT Desktop APP对垒Google AI生产力套件|
Просмотров 1,7 тыс.8 месяцев назад
【OpenAI 春季发布会 Spring Update】速看 总结| GPT-4O 即将到来|最新大语言模型完全免费开放使用|ChatGPT Desktop APP对垒Google AI生产力套件|
【PandasAI 详解】聊天就是生产力?!聊天就能分析数据|把LLM大语言模型转化成真正的生产力工具|利用OLLAMA本地语言模型进行数据分析|GPT,Bamboo,OLLAMA对比
Просмотров 6838 месяцев назад
【PandasAI 详解】聊天就是生产力?!聊天就能分析数据|把LLM大语言模型转化成真正的生产力工具|利用OLLAMA本地语言模型进行数据分析|GPT,Bamboo,OLLAMA对比
【Llama 3 使用详解和评测】Meta开源大语言模型Llama3 详细使用方法以及对比Gemini和Copilot测试。 | Llama3 中文能力如何?|Meta AI好用吗?|谁写的代码最好用
Просмотров 4,9 тыс.9 месяцев назад
【Llama 3 使用详解和评测】Meta开源大语言模型Llama3 详细使用方法以及对比Gemini和Copilot测试。 | Llama3 中文能力如何?|Meta AI好用吗?|谁写的代码最好用
【Fine-tuning流程详解】Google OpenAI 双平台Fine-tuning流程详解| Google AI Studio代码是错误的?|LLM fine-tuning|大模型微调
Просмотров 6619 месяцев назад
【Fine-tuning流程详解】Google OpenAI 双平台Fine-tuning流程详解| Google AI Studio代码是错误的?|LLM fine-tuning|大模型微调
【动手看看 - 索尼 WF 1000XM4 更换电池】手工翻车视频。 自己更换WF 1000XM4 电池,翻车了!!!。电池仓电池更换成功。两只耳机全坏了
Просмотров 4,1 тыс.10 месяцев назад
【动手看看 - 索尼 WF 1000XM4 更换电池】手工翻车视频。 自己更换WF 1000XM4 电池,翻车了!!!。电池仓电池更换成功。两只耳机全坏了
【OLLAMA+Langchain】RAG框架详解,RAG和Ollama本地大模型应用方法分享。利用本地大模型搭建私人助理。不用Fine-tuning就能实时更新大语言模型的数据库。
Просмотров 23 тыс.10 месяцев назад
【OLLAMA Langchain】RAG框架详解,RAG和Ollama本地大模型应用方法分享。利用本地大模型搭建私人助理。不用Fine-tuning就能实时更新大语言模型的数据库。
【Ollama 使用指南】详解开源大模型管理工具|15分钟了解ollama|本地部署开源模型llama,gemma,llava,mistral|定制化开源模型|本地部署chatbot|多模态开源模型
Просмотров 23 тыс.10 месяцев назад
【Ollama 使用指南】详解开源大模型管理工具|15分钟了解ollama|本地部署开源模型llama,gemma,llava,mistral|定制化开源模型|本地部署chatbot|多模态开源模型
【Gemma本地部署?!】Gemma 安装和使用详解|十年前电脑也能跑Gemma?|Google向开源对手宣战|Gemma和Llama2谁更厉害?|如何本地运行Gemma
Просмотров 1,5 тыс.10 месяцев назад
【Gemma本地部署?!】Gemma 安装和使用详解|十年前电脑也能跑Gemma?|Google向开源对手宣战|Gemma和Llama2谁更厉害?|如何本地运行Gemma
十分钟看透OpenAI的Sora| Sora能干啥? |Google 如何应对?|Sora的短板在哪里?
Просмотров 14411 месяцев назад
十分钟看透OpenAI的Sora| Sora能干啥? |Google 如何应对?|Sora的短板在哪里?
Bard 下线,Gemini出战|5分钟看懂Google Gemini升级|Gemini Ultra 1.0 发布|看看你是否需要升级Gemini Advanced|Gemini 文生图功能试用
Просмотров 30211 месяцев назад
Bard 下线,Gemini出战|5分钟看懂Google Gemini升级|Gemini Ultra 1.0 发布|看看你是否需要升级Gemini Advanced|Gemini 文生图功能试用
【大语言模型LLM总结Youtube内容】Gemini Pro API 实战|实用Langchain打造RAG LLM应用|利用Google Gemini Pro分析总结Youtube视频的应用
Просмотров 2 тыс.Год назад
【大语言模型LLM总结RUclips内容】Gemini Pro API 实战|实用Langchain打造RAG LLM应用|利用Google Gemini Pro分析总结RUclips视频的应用
【2024 Technical Trends】|科技行业趋势|IT行业预测|人工智能崛起|人力分配变革|云服务大幅扩张|2024年科技行业个人如何选择职业|除了人工智能还有什么?一个视频看明白!
Просмотров 564Год назад
【2024 Technical Trends】|科技行业趋势|IT行业预测|人工智能崛起|人力分配变革|云服务大幅扩张|2024年科技行业个人如何选择职业|除了人工智能还有什么?一个视频看明白!
Gemini Pro 实战示例|Gemini Prompt教程 |12分钟学会使用 Gemini Pro Prompt | Gemini Pro Prompt 怎么写|Google AI Studio
Просмотров 1,9 тыс.Год назад
Gemini Pro 实战示例|Gemini Prompt教程 |12分钟学会使用 Gemini Pro Prompt | Gemini Pro Prompt 怎么写|Google AI Studio
【Gemini Pro使用指南】超详细!一个视频看懂怎么使用 Google Gemini Pro。干货满满
Просмотров 8 тыс.Год назад
【Gemini Pro使用指南】超详细!一个视频看懂怎么使用 Google Gemini Pro。干货满满
iPhone玻璃后盖摔碎怎么办? !自己动手维修,超简单!iPhone 12 Pro Max更换后盖实操攻略 。再也不怕摔碎后盖了。自己动手换后盖,省钱又开心!
Просмотров 2,1 тыс.Год назад
iPhone玻璃后盖摔碎怎么办? !自己动手维修,超简单!iPhone 12 Pro Max更换后盖实操攻略 。再也不怕摔碎后盖了。自己动手换后盖,省钱又开心!
请问这软件能设置使用CPU或者GPU吗,我试那个deepseek的时候只占内存显存,CPUGPU没一个愿意去干活的
可以设置的,在环境变量里面可以设置请使用gpu和cpu以及对应数量,不过依赖于显存
@chang-workshop 有具体点的吗?真心看不懂哪个值像那个意思,中英文都没
有整合包么?LM Studio能不能实现呢?
讲解很细致,尝试了之后确实可以很轻松在本地微调大模型。我一开始是拿了qwen2.5来尝试,发现用mlx微调以及验证微调效果都还OK,但是一旦采用llama.cpp去把模型封装成gguf格式放到ollama去验证就会回答错乱而且各种自问自答停不下来。拿gemma2去尝试就不会,不知道是不是哪里有问题。
回答停不下来,可能的原因是没法识别stop token,可能的原因是模板错误。可能你要看下ollama是不是最新版本,是不是官方的发布版本
怎么用指令卸载模型?
ollma rm 模型名称
我也是自己換電池,最後拆開時要輕力一點,不然會弄斷電線
原来如此我就说之前训练完为什么回答错乱了,原来是数据集格式和模型不匹配,回头再尝试一下
讲得很好,点赞一下!那比如有办法输入很多个视频整体来做总结和问答不?
是可以的,不过需要对代码做一些调整,如果是多个视频,需要完善你的语义数据库,类似于给数据库里增量放入数据
@@chang-workshop 嗯嗯,您值得完善语义数据库是什么意思?举个不恰当的比方,比如假如我想尝试把您历史上所有做过的视频输入进去,希望生成对您整体的总结,那么我可能怎么搭建这个工程架构比较合适?因为我现在看到的大部分都是对单一视频或者文档的总结,几乎没有看到对多文档/视频整体的总结会是怎么搭建结构,望您指教~
@ 嗯嗯,最简便的方法是把所以视频脚本都解析一次,然后存在一个文档,例如同一个pdf,或者txt里面,可以想像成一本书,每个章节就是一个视频内容的脚本汇总。然后用Langchain的语义分块方案去把这本书分块,接下来转成embedding存入到chromadb,就可以进行语义检索了,利用检索结果作为LLM的context,配合prompt就可以回答你的问题了。 总结来说,就是相比处理单个视频,增加一步把不同视频数据汇总到同一个文档的动作,应该可以满足你的需求。希望可以帮到你😁
@@chang-workshop 确实有道理,感谢感谢!那比如这个时候我要是想再延展下,比如把每个视频的评论和评论的点赞数也放进去的话呢~
@ 哈哈,好问题,我的思考是,在你组织数据时候需要标识这部分内容是评论,同时这些评论关联的视频标题也要明确,这时候同样可以用embedding数据库做语义检索,另外可以尝试knowledge graph驱动的RAG,这样可能更灵活和准确。 还有一个选项,就是汇总这些数据后,用fine tuning,微调模型
十分好的视频,讲的很细致,赞👍
謝謝您的教學 後來我有試成功一半 目前我是可以透過convert_hf_to_gguf.py 轉換成GGUF檔,但是我無法再進一步量化 例如我用這個指令想量化出q4的GGUF quantize.exe Bailong-instruct-7B-f16.gguf Bailong-instruct-7B-q4_0.gguf q4_0 但是會有問題,這種指令會挑type error: argument --outtype: invalid choice: 'q4_0' (choose from 'f32', 'f16', 'bf16', 'q8_0', 'tq1_0', 'tq2_0', 'auto') 看起來需要用到 ./quantize 指令,像您寫得 /quantize ./....... 但是我看別人的博客教學裡的指令是./llama- quantize ./.....開頭耶 但是我在llama.cpp資料夾裡面找不到quantize 或是 llama-quantize 的程式耶 我使用的是 Windows 10,該怎麼修改這個指令才能在我的terminal下使用呢? 謝謝
非常感謝對新知識的分享。我有幾點問題想要請教一下 1.影片裡的問答都是使用英文是因為模型對語言的限制嗎? 2.我想更詳細的了解在訓練自己的資料給語言模型的方法和提高回復精度有沒有跟詳細的教程?
1. 不是模型限制。不過由於訓練數據的關係,模型的語言能力有區別,比如Llama模型的中文能力比不上qwen 2.5 2.如果依賴模型實現的話,可以嘗試fine tuning。我的頻道中有一支使用 MLX進行fine tuning的影片可以參考喔。會用到ollama解析和生成數據,然後用MLX 進行fine tuning
感谢分享
感谢分享
玉皇大帝住在云层的上方,无风无雨,所以玉皇大帝应该住在平流层
有道理,没毛病!😁
2020年应该还是nlp呀 还没有llm
很厉害!
影片非常清楚實用 請繼續加油!
谢谢!
干货流量低啊,希望坚持下去.
谢谢!努力中💪
我就想问,各大厂家做出自家大模型时使用的是什么管理工具?
现在有很多分发渠道,ollama,huggingface都是比较常用的。大家多数会主流渠道,就类似操作系统包管理一样
非常棒的技术教程
只能自己启动一个llmServer 模拟ollma api
为什么 3 个 地址 都是 你的 视频 把 你的 mac 运行 的 代码 修改 成 win 运行 还 增加 了 GPU 加速 真的 浪费 我 不少 时间 ruclips.net/video/-qXcgVODYr4/видео.html ruclips.net/video/-qXcgVODYr4/видео.html ruclips.net/video/-qXcgVODYr4/видео.html
up主,请教以下代码。为什么打印出来是None呢?代码: from langchain_community.embeddings import FastEmbedEmbeddings try: embedding_instance = FastEmbedEmbeddings() print(embedding_instance._model) except Exception as e: print(f"An error occurred: {e}")
那个排线可以不用取下来,直接用刀片轻轻分离最下面的电池泡棉胶就行了
是的,确实我操作的不太好,所以最后悲剧了。谢谢建议!
我打开命令窗口后关闭再打开,就没反应了,老师这是啥问题
Hi 你说的没反应指的是terminal里面没有任何信息显示吗?
谢谢老师 这个已经解决了, 是我太小白命令提示符不懂。现在的问题是第二个指令安装到26%之后DOCKER报错,获取什么不成功中断退出1@@chang-workshop
@@miloyang-34 docker你看看是不是某些依赖包安装过程中没法获取,需要详细看下错误的日志。
谢谢分享!想问一下如何添加api_key呀?好像没有看到相应的接口?
openai和gemini的key,我都设置成了环境变量OPENAI_API_KEY,GOOGLE_API_KEY
请问终端用的什么? 就是具体用的是什么工具链接的服务器? 既可以执行py程序出现效果图形化界面,还可以按键发送语音服务器那边接收到信息。 我的怎么不可以……
Hi,我用的是osx的terminal,整个框架用了langchain,链接chatts用的是介绍的tts的那个python包,按键输入用的是pynput
网址都不留看个毛啊
可以使用 NPU来训练吗
你指的chatTTS吗?貌似还不行哦
出现9966 后 应该如何连接网页呢
谢谢教程,Gradio和streamlit 好像不支持多用户场景诶,而且在刷新页面后,虽然后台也一直在跑程序,但是已经不能反映到页面上了,请问下多用户使用场景有什么好的方案嘛
hi,轻量ui工具可能支持不太好,streamlit部署之后对不同用户是不同的线程支持。但是对于后端ollama,应该是瓶颈,ollama会维护任务队列,顺序执行。不过如果你系统资源够用,可以设置ollama同时处理request数量,目前最多是4个,最少是1个
@@chang-workshop 感谢回复,目前后端用的是openai和国内其他模型的api,不知道ollama是否支持,对于前端不知道streamlit是否支持保存页面状态,这样刷新页面后也能显示之前的任务状态(或者是否能通过操作其组件来支持刷新后也能保存页面状态,因为不同用户的页面状态是不同的)
streamlit可以的,用session state存储数据,但是如果强制刷新,就只能手动想办法保存了。记的streamlit有些实验性的方法,但是不稳定,最好是自己想办法保存本地,刷新之后再读取可能比较好用
感谢分享,请问有分析多个PDF文档,然后生成内容的好方案嘛
Hi,目前我还没做。不过稍早有网友讨论过,最好的办法司机独立一个数据ingestion得workflow,然后把vectordb档案保存到硬盘上,理论上可以实现,如果需要demo的话,我看看稍晚找机会实现出来分享。感谢关注
@@chang-workshop 感谢解答,如果每个pdf都独立一个workflow,pdf内容存在相互关联怎么解决呀,因为用户询问的答案可能会在多个文档或者文档内容之间存在关联性
好问题,理论上存在一个vector空间可以建立同一个索引retriever。有一个比较笨重的办法,场景一:一次性上传多份文档,合并之后制作vector retriver,把向量数据库存在本地。 场景二,每次增量更新时都把原先文件读出来重新制作一次向量数据库然后存在本地。 其它办法,我也尝试探索,如果你有什么好方案,欢迎分享哈
您的分享非常有意思~~我也非常喜歡,將語音識別且能夠結合ollama 在本地做 LLM 應用,回應問題,真的好厲害!!! 只是我的電腦是window 在執行上有遇到一些問題,我有在github 上回覆,希望博主也能照顧到一些使用window 的用戶~~ 再次感謝帶我入門LLM
hi 抱歉,最近沒來得及回復,可否分享下問題,我在GitHub上沒看到消息,你看方便分享在這裡嗎?
@@chang-workshop 感謝博主,目前已經修正了winodw 相關的問題了,感謝,想問一下這個模型拿來整理金融相關的文字,他好像有會被限制回覆內容?
你指的是語音嗎?這個我還沒嘗試過。如果指的是LLM,可以嘗試llama 的 uncensored版本,記的ollama的library裡面可以看到。
幫助極大!!!!!
請問我輸入了Streamlit run ollamaChatTTS.py會出現Error: Invalid value: File does not exist: ollamaChatTTS.py的錯誤。是哪邊做錯了?
请问一下生成长文本的时候声音 大小不稳 一会大一会小怎么解决。如果使用其他版本的TTS 部署方式是否一致?
目前比较多的情况不太稳定的是音色,如果是音量的稳定性听到类似情况不多。如果想稳定音色,在refine和refer时候使用同样的seed就可以,不过有时候不是很稳定,会有些略微偏差,后续可以关注下官方或者魔改升级哈
@@chang-workshop 谢谢
非常感谢 这么详细分享 对于小白来说 非常受用 感谢 加油
大佬,喜欢您讲的很详细的风格,MODELPATH=./asset,但是在运行时显示No such file or directory,/asset/spk_stat.pt,请问如何解决,谢谢
Hi 你好! 首次运行它会下载model,如果确认文件确实存在这个路径的话,试试完整路径,而不是 仅仅 ./asset
@@chang-workshop 只下载这个spk_stat.pt就行可以吗
出来就是王炸,一点小小建议,RUclips上用户懂比较多,可以不用讲那么细
收到🫡,非常棒的建议,我也会尝试精炼
非常厉害!谢谢。
很棒❤
真掉渣
😂
不错的教程,清晰易懂。这样看下来对比现阶段的LLM model最好的还是OpenAI(但就是要花钱),最省钱方法还是Ollama。 但还是想问下,如果今天有50-100的pdf文件,自制RAG website会比较好,还是继续使用OpenWebUI 的方法来读取文件,因为感觉OpenWebUI读取文件的速度蛮快的,但其准确性有待商量
hi hi,你指的是50-100个pdf吗?如果这样的话,其实可以考虑做一个ingest 脚本,或者pipeline,把这个过程完全独立一个workflow。可以用ollama去generate 文件描述。 希望可以帮到你😄
@@chang-workshop 感谢你的回复,我试试下找找看workflow的做法吧
我覺得這一套流程對於一些文件轉工程式文檔非常有效. 例如規格書轉成標準的程式或者轉譯成其他工程軟體的輸入。
同意!最好配合fine tuned的專業model,效果更加出色。
很有意思。这个可以把PDF换成CSV吗? 希望可以和CSV文件数据进行交流。
可以呀,csv肯定是没问题的,原理是LLM会通过python代码进行分析,所以csv肯定是没问题的人
好介绍,谢谢。
我发现对中文的支持还是不太好,图表上的中文显示都是口,好像对中文的理解也不太好,可能是和我用的模型有关,我测试了llama3和codeqwen,发现codeqwen还可以。
嗯,是的,可以尝试一些商业模型可能会好一点。 另外,图表中文显示的问题,应该是matplotlib设置的原因,可以在import matplotlib.pyplot as plt之后加上 plt.rcParams['font.sans-serif'] = ['Arial Unicode MS'] ,设置一下字体应该能解决问题。
M芯片跑langchain是速度是不是很慢,还是说我没有设置对?
我理解,你指的是Ollama+Langchain吧。目前M芯片上还没有特殊的优化。运行速度一定程度上还取决于你使用的模型尺寸和Mac的内存。如果模型过大,而Mac内存不太够,Ollama会把模型放到虚拟内存,那么存取速度就会慢很多,所以一半会建议尽量用体量稍微小一点的模型,或者尽量选用大内存的Mac。根据Ollama的作者,后续他会更新Mac版本,优化运行速度,不过目前还没有动静。
可以问下,我的12mini换后盖后,磁吸充电就失效,是那个维修的人把我的磁吸充电模块取下了,还是后玻璃盖不引磁?
按照我当时拆卸情况,如果是玻璃后盖,应该都会有些磁力,不过拆卸时候,确实比较容易不小心弄掉磁片
@@chang-workshop 好的,谢谢回复,看来又要修一遍磁吸充电了
新鲜出炉,再看一遍up的总结