ollama vs vllm - 开启并发之后的 ollama 和 vllm 相比怎么样?

Поделиться
HTML-код
  • Опубликовано: 30 сен 2024
  • 在 ollama 支持了并发之后其性能有了一定的提升,但是和目前模型推理最佳实践之一的 vllm 相比差距几何呢?这里是用一块 4090 对两个模型的性能进行对比。

Комментарии • 8

  • @yinghaohu8784
    @yinghaohu8784 Месяц назад +1

    👍

  • @kimjason5294
    @kimjason5294 4 месяца назад +1

    小姐姐怎么就一个视频呢? 内容挺棒,还有别的吗?

  • @shuaishao6114
    @shuaishao6114 2 месяца назад

    感谢分享!想问下有没有用async测试bedrock的方法

  • @george89341
    @george89341 4 месяца назад +1

    感谢分享!

  • @jackyli6716
    @jackyli6716 4 месяца назад

    我在b站好像看到过你哦!
    谢谢分享!

  • @quick_fox_jumps_over_lazy_dog
    @quick_fox_jumps_over_lazy_dog 3 месяца назад

    感謝分享!🎉

  • @rogerroan7583
    @rogerroan7583 4 месяца назад

    這實驗太有料了能分享程式碼嗎

    • @arkohut
      @arkohut  4 месяца назад +2

      blog.csdn.net/arkohut/article/details/139076652