Современные подходы к матчингу товаров с использованием LLM. Виталий Кулиев, Highload 2024.

Поделиться
HTML-код
  • Опубликовано: 27 янв 2025

Комментарии • 19

  • @РусланТалипов-т4л
    @РусланТалипов-т4л Месяц назад +1

    Круто, приятно смотреть, что канал развивается, давайте, успехов вам в развитии! Полезные темы продвигаете!

  • @bbbbbb9193
    @bbbbbb9193 Месяц назад +2

    Ооо Топ видео. Спасибо интересно. С удовольствием посмотрим!!)

  • @OdinO4ka1986
    @OdinO4ka1986 Месяц назад +1

    Отличный доклад, спасибо большое! Поиск по эмбедиингам имеется в виду "классический" подход в котором есть условный Берт/Резнет, дальше мы набираем какое-то кол-во кандидатов и уже потом начинаем делать ранжирование внутри этих кандидатов?

  • @OdinO4ka1986
    @OdinO4ka1986 Месяц назад +1

    И еще один вопрос, а почему был выбран именно Qdrant, а не например FAISS или может быть просто надстройка вида PG vector?

    • @kuliev.vitaly
      @kuliev.vitaly  Месяц назад

      qdrant просто хорошо работает. Создан специально под эту задачу. Поддерживает из коробки кластеризацию. Faiss - слышал, что неточно работает. У меня почти нет опыт аработы с ним. Еще знаю несколько случаев, когда от faiss в пользу квадранта отказываются в других командах.
      pg_vector медленный и не поддерживает кластеризацию.

    • @OdinO4ka1986
      @OdinO4ka1986 Месяц назад

      @@kuliev.vitaly На одной из прошлых работ еще была попытка прикрутить эластик для данной задачи, так как начиная с какой-то версии он (эластик) так же поддерживает данную операцию. Однако, кол-во векторов там было явно не такое же как в WB.

  • @СергейФилькин-г4й
    @СергейФилькин-г4й Месяц назад

    Спасибо за доклад! Не думал в таком ключе про LLM в ecom'е

  • @vkbee
    @vkbee Месяц назад

    Вижу Виталия, ставлю лайк! Спасибо!

  • @Zzzap.
    @Zzzap. Месяц назад

    топ-контент, спасибо 👍

  • @МихаилМ-з6г
    @МихаилМ-з6г Месяц назад +1

    Виталий, а какая модель используется для эмбеддингов?

    • @kuliev.vitaly
      @kuliev.vitaly  Месяц назад +1

      dino v2 small
      distilrubert
      all-mini-lm-v2
      Эти модели используются для эмбедингов. Дообучены на задачу разделения товаров.

  • @blackbigdeath
    @blackbigdeath Месяц назад +1

    LLM ки конечно норм в этом деле

  • @ultrazSupporter
    @ultrazSupporter Месяц назад +1

    Почему интересно используете qwen, а не llama в продакшене?

    • @kuliev.vitaly
      @kuliev.vitaly  Месяц назад

      Qwen 2.5 метрики показывает выше.

  • @ultrazSupporter
    @ultrazSupporter Месяц назад

    Надо 96гб видеокарты чтоб нормально работала qwen 2.5? Для маленькой фирмы.

    • @kuliev.vitaly
      @kuliev.vitaly  Месяц назад +1

      qwen 2.5 72b с квантизацией awq запускается на одной карте A100 с 80gb памяти.

    • @ultrazSupporter
      @ultrazSupporter Месяц назад

      @@kuliev.vitaly а на 4х картах по 24гб, к примеру 4090, не запустить?

  • @vdhdgfhdfh
    @vdhdgfhdfh Месяц назад

    слабенько же.. ну rag.. на лангчейне? квен через олламу? я на домашнем писи такое собрать могу..