Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
Windows没法弄吗?😮😢
Thanks!
谢谢支持🤝🤝🤝
有影片內 視頻分析的代碼嗎?下方描述欄的連結好像只有圖片分析的程式碼
7B D里的D是什么意思?😅
感謝您做這期視頻,沒想到這麼快就來了,謝謝。 不過本來預期能不能用Arc A750 or A770 等級的跑一個小模型,看來還想多了😂 如果 intel 最新的 200V 系列有機會跑的動,感覺得很有實用價值
谢谢支持🤝🤝
@@AIsuperdomain 这大模型一个比一个卷,玩不动了快
@@AIsuperdomain 刚出个Liama3.090B 一下子又出现一个新的多模态大模型 卷死了
酷,有測試過給予特定人像的臉或全身,配合模型自帶的記憶性,實現圖像找人嗎?白話點說就是,用照片找人或者更進階的,把人的影像embedded成vector storage 理論上multi-modal 也是把照片經過transformer轉換實現類似 face recognition + dataset的效果我看目前測試的都是一張圖,然後對應敘述,並沒有類似討論串記憶性的demo,但我使用gpt4o是有圖像記憶性的
好的 等我发一期影片详细演示
@@AIsuperdomain 原来是 套壳qwen
能在colab上執行嗎?本地電腦一直出錯😢
我們可以上載2張圖,來實現在A照片里找B照片里裏一個特定人物的臉嗎?
可以实现
这个molmo-7b是在你本地运行的吗?请问你的电脑配置是?
Ovis1.6-Gemma2-9B 阿里开源的可以测试下吗
OK 我尽快安排
需要把模型下載到本地嗎
代码会自动下载模型到本地,不需要手动下载
請問跑 Molmo-7B 時,實際所有用的 VRam 是多少?
使用watch -n 1 nvidia-smi命令查看VRam,推理的时候占用大概35GB
大佬什么时候出一期将该模型转换为ollam模型
ollama还不支持多模态模型,到视频发布为止,还没有任何LLM Interface框架支持这个模型
3090 24G能带的动么?
应该没问题
請問顯存的佔用多少?
使用watch -n 1 nvidia-smi命令查看显存情况,推理的时候占用大概35GB
@@AIsuperdomain4090显卡的显存才24G,用起来会不会特别卡?
应该会卡
相比于llama 11b这个模型呢,llama 11b只需要22G的显存就可以跑
11b的llama3.2效果不如这个7b的molmo
@@AIsuperdomain 贫穷限制了我啊,molmo这个要求的显存太大了
都说了才7b
多发点rag项目
好的 没问题
@@AIsuperdomain 居一
提示词只支持英文?
可以用中文
👍👍👍
谢谢支持
4090能跑么
4090显存是24GB吧,应该没问题
0秒找到可能存在幸存者偏差😂
这个例子在前几期多模态大模型的视频中都详细演示了
Molmo
对
Windows没法弄吗?😮😢
Thanks!
谢谢支持🤝🤝🤝
有影片內 視頻分析的代碼嗎?
下方描述欄的連結好像只有圖片分析的程式碼
7B D里的D是什么意思?😅
感謝您做這期視頻,沒想到這麼快就來了,謝謝。 不過本來預期能不能用Arc A750 or A770 等級的跑一個小模型,看來還想多了😂 如果 intel 最新的 200V 系列有機會跑的動,感覺得很有實用價值
谢谢支持🤝🤝
@@AIsuperdomain 这大模型一个比一个卷,玩不动了快
@@AIsuperdomain 刚出个Liama3.090B 一下子又出现一个新的多模态大模型 卷死了
酷,有測試過給予特定人像的臉或全身,配合模型自帶的記憶性,實現圖像找人嗎?
白話點說就是,用照片找人
或者更進階的,把人的影像embedded成vector storage 理論上multi-modal 也是把照片經過transformer轉換
實現類似 face recognition + dataset的效果
我看目前測試的都是一張圖,然後對應敘述,並沒有類似討論串記憶性的demo,但我使用gpt4o是有圖像記憶性的
好的 等我发一期影片详细演示
@@AIsuperdomain 原来是 套壳qwen
能在colab上執行嗎?本地電腦一直出錯😢
我們可以上載2張圖,來實現在A照片里找B照片里裏一個特定人物的臉嗎?
可以实现
这个molmo-7b是在你本地运行的吗?请问你的电脑配置是?
Ovis1.6-Gemma2-9B 阿里开源的可以测试下吗
OK 我尽快安排
需要把模型下載到本地嗎
代码会自动下载模型到本地,不需要手动下载
請問跑 Molmo-7B 時,實際所有用的 VRam 是多少?
使用watch -n 1 nvidia-smi命令查看VRam,推理的时候占用大概35GB
大佬什么时候出一期将该模型转换为ollam模型
ollama还不支持多模态模型,到视频发布为止,还没有任何LLM Interface框架支持这个模型
3090 24G能带的动么?
应该没问题
請問顯存的佔用多少?
使用watch -n 1 nvidia-smi命令查看显存情况,推理的时候占用大概35GB
@@AIsuperdomain4090显卡的显存才24G,用起来会不会特别卡?
应该会卡
相比于llama 11b这个模型呢,llama 11b只需要22G的显存就可以跑
11b的llama3.2效果不如这个7b的molmo
@@AIsuperdomain 贫穷限制了我啊,molmo这个要求的显存太大了
都说了才7b
多发点rag项目
好的 没问题
@@AIsuperdomain 居一
提示词只支持英文?
可以用中文
👍👍👍
谢谢支持
4090能跑么
4090显存是24GB吧,应该没问题
0秒找到可能存在幸存者偏差😂
这个例子在前几期多模态大模型的视频中都详细演示了
Molmo
对