Knowledge Maps - как бороться с галлюцинациями в RAG-системах?

Поделиться
HTML-код
  • Опубликовано: 26 май 2024
  • Давайте поговорим про борьбу с галлюцинациями в современных RAG системах. Почему возникают галлюцинации, и как нам с ними бороться?
    Мы возьмем в качестве примера галлюцинации классическую систему на базе векторной RAG-системы и посмотрим, как она безудержно выдумывает ответы на простейший вопрос. Потом мы заглянем под капот в поисках источника ошибок и используем подход Knowledge Mapping для исправления этой ситуации.
    В завершение мы посмотрим на применение этого подхода в разных кейсах.
    Все ссылки: abdullin.com/e/df-2024
    Слайды и продолжение Q&A: t.me/llm_under_hood/347
  • НаукаНаука

Комментарии • 7

  • @ArtyomVideo
    @ArtyomVideo Месяц назад

    Большое спасибо за материал!

  • @user-ok7xl2hl7t
    @user-ok7xl2hl7t 14 дней назад

    а как вы подаете таблицу в llm?

  • @Zaznobable
    @Zaznobable 22 дня назад

    Понятно. Ноледж мэп из промтов спасет нас)

  • @aponom84
    @aponom84 Месяц назад +5

    Снова про карты знаний ничего, кроме того, что только они вот у нас есть.

  • @TheGodakame
    @TheGodakame Месяц назад

    Как у Опуса может быть результат на уровне gpt3.5 в коде, это же абсолютно разная лига?

  • @13ahom
    @13ahom 25 дней назад

    Странное решение. Если сделать науледжбейс то llm уже будет не нужна, обычного поиска хватит,. Разве что llm использовать как интерфейс I/O