Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
RUclips会员:ruclips.net/channel/UCPpdGTNbIKdiWgxCrbka4Zwjoin知识星球:t.zsxq.com/19IaNz5wKPatreon:www.patreon.com/newtype_ai订阅ChatGPT、Claude,用Wildcard,支付和海外短信都有。我个人一直在用。用这个链接注册,请我喝杯瑞幸:bewildcard.com/i/Z42NWXNL
我个人是觉得,除非是对数据私密性要求比较高,或者单纯就是喜欢折腾,否则现阶段真的没啥必要在开源模型上浪费时间,毕竟Deepseek V3 600多B的模型效果也就那么回事,7B以下的模型不能有好效果,也就能胜任一些简单的翻译类工作。实用性角度考虑,不如直接买零一万物的API,1块钱1百万的token。
ollama下了llama3.2-vision還可以有很不錯的視覺能力,UI部分用open webui 架一套打全平台 。一個可視覺化可語音可搜尋可RAG的方案就在你眼前了。
用dify去接ollama啊,還能結合workflow搞自動化
请问一下,视频中这个版本的ai 与、豆包 比的话,大概是怎么一个优劣?
M4 Mac mini就是一台消费级AI终端该有的样子。功耗和性能平衡得很好。如果要高性能的话,我公司有一台4090的PC,另外准备去日本买台M4 Max的MBP。现在这台mini其实承担了日常一半以上的工作。
日本买便宜吗?
请问M4旁边的扩展坞是什么品牌的那个型号?谢谢
制糖工厂的桌面充电站,不是Mac扩展坞
@@huanyihe777 谢谢
最近尝试了lm studio跑mlx的model,速度直接翻倍,有没有考虑用lm studio的local server?
果然还是需要看完视频再发评论啊🫠,终究还是一个取舍的问题
希望Ollama也能尽快支持MLX
黄老师,请问不可抗拒的因素是什么呢😂,是敏感词吗,🤔
比如Claude封号。ChatGPT经常会因为VPN的问题不让用。这些都很烦
黄老师,我发现一款参数很好看的mini pc: FEVM fn60g.正在纠结要买它部署模型,还是mac mini.fn60g 满配i913900T, rtx4090_12g显存,96g缓存,8t硬盘。能不能麻烦您给点建议呢?虽然根据您的视频《本地跑大模型,需要什么配置》两者都是足够强的)
4090是比Mac mini强的,但是功耗肯定也高。我建议是先有一台高性能的机子,再考虑像Mac mini这种拿来长时间挂机、处理轻量级需求的机子。
@@huanyihe777 懂了,入手4090. 谢谢老师!
@@Vcsoundengineer现在入手5090 现在4090都是尾货 价格高
没用过mac,但好奇 mac mini 怎样适配其他 第三方的hardware,比如dell display, mouse 等等。。。因为mac 的display 很贵😂
显示器直接用就可以。键鼠我都用罗技的,鼠标MX Master公认最强
直接上pro,应该能再快50%
但价格不只高50%
ollama 是支持 open AI API 的。用这个 API 来接入app 最方便
國行版為什麼是閹割的?請教一下😊
Apple Intelligence,不能接ChatGPT等国外的AI,只能用国产
我买的是32g内存 ssd可以升级的 内存升级不了
之前看到评测,这代mini的内存接口不是特殊的。也许之后可以升级。等第三方厂商了
@ 那个是ssd也就是说硬盘可以换 不是内存哦
我想要个128G unified ram但只要512G SSD的😂
第一次见科技博主因为魔法闹心...
Claude封号基本是不可避免的
因為中國要抽你17%的稅
我买下来国行是8299, 不过我是m4 pro芯片, 其他配置和你一样.
同款电视柜啊啊!
宜家的
@ 是滴!我也是半个月前跑了一下千问,可玩性非常高,基础性问题完全没问题!
没什么不可抗的,折腾一下,美国人,台湾人能用的,咱也能,当然会麻烦一点
Claude封号基本就不可抗
教育优惠6749
阉割了Apple Intelligence。Mac和iPhone我都不会再买国行了。
RUclips会员:ruclips.net/channel/UCPpdGTNbIKdiWgxCrbka4Zwjoin
知识星球:t.zsxq.com/19IaNz5wK
Patreon:www.patreon.com/newtype_ai
订阅ChatGPT、Claude,用Wildcard,支付和海外短信都有。我个人一直在用。用这个链接注册,请我喝杯瑞幸:bewildcard.com/i/Z42NWXNL
我个人是觉得,除非是对数据私密性要求比较高,或者单纯就是喜欢折腾,否则现阶段真的没啥必要在开源模型上浪费时间,毕竟Deepseek V3 600多B的模型效果也就那么回事,7B以下的模型不能有好效果,也就能胜任一些简单的翻译类工作。实用性角度考虑,不如直接买零一万物的API,1块钱1百万的token。
ollama下了llama3.2-vision還可以有很不錯的視覺能力,UI部分用open webui 架一套打全平台 。一個可視覺化可語音可搜尋可RAG的方案就在你眼前了。
用dify去接ollama啊,還能結合workflow搞自動化
请问一下,视频中这个版本的ai 与、豆包 比的话,大概是怎么一个优劣?
M4 Mac mini就是一台消费级AI终端该有的样子。功耗和性能平衡得很好。如果要高性能的话,我公司有一台4090的PC,另外准备去日本买台M4 Max的MBP。现在这台mini其实承担了日常一半以上的工作。
日本买便宜吗?
请问M4旁边的扩展坞是什么品牌的那个型号?谢谢
制糖工厂的桌面充电站,不是Mac扩展坞
@@huanyihe777 谢谢
最近尝试了lm studio跑mlx的model,速度直接翻倍,有没有考虑用lm studio的local server?
果然还是需要看完视频再发评论啊🫠,终究还是一个取舍的问题
希望Ollama也能尽快支持MLX
黄老师,请问不可抗拒的因素是什么呢😂,是敏感词吗,🤔
比如Claude封号。ChatGPT经常会因为VPN的问题不让用。这些都很烦
黄老师,我发现一款参数很好看的mini pc: FEVM fn60g.
正在纠结要买它部署模型,还是mac mini.
fn60g 满配i913900T, rtx4090_12g显存,96g缓存,8t硬盘。
能不能麻烦您给点建议呢?虽然根据您的视频《本地跑大模型,需要什么配置》两者都是足够强的)
4090是比Mac mini强的,但是功耗肯定也高。我建议是先有一台高性能的机子,再考虑像Mac mini这种拿来长时间挂机、处理轻量级需求的机子。
@@huanyihe777 懂了,入手4090. 谢谢老师!
@@Vcsoundengineer现在入手5090 现在4090都是尾货 价格高
没用过mac,但好奇 mac mini 怎样适配其他 第三方的hardware,比如dell display, mouse 等等。。。因为mac 的display 很贵😂
显示器直接用就可以。键鼠我都用罗技的,鼠标MX Master公认最强
直接上pro,应该能再快50%
但价格不只高50%
ollama 是支持 open AI API 的。用这个 API 来接入app 最方便
國行版為什麼是閹割的?請教一下😊
Apple Intelligence,不能接ChatGPT等国外的AI,只能用国产
我买的是32g内存 ssd可以升级的 内存升级不了
之前看到评测,这代mini的内存接口不是特殊的。也许之后可以升级。等第三方厂商了
@ 那个是ssd也就是说硬盘可以换 不是内存哦
我想要个128G unified ram但只要512G SSD的😂
第一次见科技博主因为魔法闹心...
Claude封号基本是不可避免的
因為中國要抽你17%的稅
我买下来国行是8299, 不过我是m4 pro芯片, 其他配置和你一样.
同款电视柜啊啊!
宜家的
@ 是滴!我也是半个月前跑了一下千问,可玩性非常高,基础性问题完全没问题!
没什么不可抗的,折腾一下,美国人,台湾人能用的,咱也能,当然会麻烦一点
Claude封号基本就不可抗
教育优惠6749
阉割了Apple Intelligence。Mac和iPhone我都不会再买国行了。