本地部署Molmo-7B多模态大模型媲美Llama3.2-90B!全方位测评:图像识别、视频分析,打造多模态视觉AI助手!轻松实现监控视频快速找人!一站式掌握多模态AI技术,引领智能新时代!

Поделиться
HTML-код
  • Опубликовано: 12 янв 2025

Комментарии • 47

  • @ChrisChenok
    @ChrisChenok 17 дней назад

    Windows没法弄吗?😮😢

  • @zdhpeter
    @zdhpeter Месяц назад

    Thanks!

  • @CCNA整理哥
    @CCNA整理哥 3 месяца назад +2

    有影片內 視頻分析的代碼嗎?
    下方描述欄的連結好像只有圖片分析的程式碼

  • @wayne8863
    @wayne8863 3 месяца назад +1

    7B D里的D是什么意思?😅

  • @sshorse
    @sshorse 3 месяца назад +3

    感謝您做這期視頻,沒想到這麼快就來了,謝謝。 不過本來預期能不能用Arc A750 or A770 等級的跑一個小模型,看來還想多了😂 如果 intel 最新的 200V 系列有機會跑的動,感覺得很有實用價值

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад

      谢谢支持🤝🤝

    • @or3670
      @or3670 3 месяца назад

      @@AIsuperdomain 这大模型一个比一个卷,玩不动了快

    • @or3670
      @or3670 3 месяца назад

      @@AIsuperdomain 刚出个Liama3.090B 一下子又出现一个新的多模态大模型 卷死了

  • @mi71918
    @mi71918 3 месяца назад +1

    酷,有測試過給予特定人像的臉或全身,配合模型自帶的記憶性,實現圖像找人嗎?
    白話點說就是,用照片找人
    或者更進階的,把人的影像embedded成vector storage 理論上multi-modal 也是把照片經過transformer轉換
    實現類似 face recognition + dataset的效果
    我看目前測試的都是一張圖,然後對應敘述,並沒有類似討論串記憶性的demo,但我使用gpt4o是有圖像記憶性的

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад

      好的 等我发一期影片详细演示

    • @or3670
      @or3670 3 месяца назад

      @@AIsuperdomain 原来是 套壳qwen

  • @CCNA整理哥
    @CCNA整理哥 3 месяца назад

    能在colab上執行嗎?本地電腦一直出錯😢

  • @chugoh
    @chugoh 3 месяца назад +1

    我們可以上載2張圖,來實現在A照片里找B照片里裏一個特定人物的臉嗎?

  • @zacharyzheng9326
    @zacharyzheng9326 3 месяца назад

    这个molmo-7b是在你本地运行的吗?请问你的电脑配置是?

  • @snsnendxj
    @snsnendxj 3 месяца назад +1

    Ovis1.6-Gemma2-9B 阿里开源的可以测试下吗

  • @CCNA整理哥
    @CCNA整理哥 3 месяца назад +1

    需要把模型下載到本地嗎

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад

      代码会自动下载模型到本地,不需要手动下载

  • @yung-mingchiu2364
    @yung-mingchiu2364 3 месяца назад

    請問跑 Molmo-7B 時,實際所有用的 VRam 是多少?

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад +2

      使用watch -n 1 nvidia-smi命令查看VRam,推理的时候占用大概35GB

  • @jayhu8046
    @jayhu8046 3 месяца назад

    大佬什么时候出一期将该模型转换为ollam模型

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад

      ollama还不支持多模态模型,到视频发布为止,还没有任何LLM Interface框架支持这个模型

  • @donzhu4996
    @donzhu4996 3 месяца назад

    3090 24G能带的动么?

  • @STAR_JUE
    @STAR_JUE 3 месяца назад

    請問顯存的佔用多少?

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад

      使用watch -n 1 nvidia-smi命令查看显存情况,推理的时候占用大概35GB

    • @jdandrew-n1j
      @jdandrew-n1j 3 месяца назад

      @@AIsuperdomain4090显卡的显存才24G,用起来会不会特别卡?

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад

      应该会卡

  • @manyaccscom
    @manyaccscom 3 месяца назад

    相比于llama 11b这个模型呢,llama 11b只需要22G的显存就可以跑

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад

      11b的llama3.2效果不如这个7b的molmo

    • @manyaccscom
      @manyaccscom 3 месяца назад

      @@AIsuperdomain 贫穷限制了我啊,molmo这个要求的显存太大了

    • @wayne8863
      @wayne8863 3 месяца назад

      都说了才7b

  • @888TON
    @888TON 3 месяца назад

    多发点rag项目

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад +1

      好的 没问题

    • @888TON
      @888TON 3 месяца назад

      @@AIsuperdomain 居一

  • @jarade815
    @jarade815 3 месяца назад

    提示词只支持英文?

  • @vincentn1371
    @vincentn1371 3 месяца назад

    👍👍👍

  • @jdandrew-n1j
    @jdandrew-n1j 3 месяца назад

    4090能跑么

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад

      4090显存是24GB吧,应该没问题

  • @varyli
    @varyli 3 месяца назад

    0秒找到可能存在幸存者偏差😂

    • @AIsuperdomain
      @AIsuperdomain  3 месяца назад

      这个例子在前几期多模态大模型的视频中都详细演示了

  • @ddwinhzy
    @ddwinhzy 3 месяца назад

    Molmo