Реализация RAG на основе GigaChat. Как искать и генерировать ответы по базе знаний?

Поделиться
HTML-код
  • Опубликовано: 30 янв 2025
  • НаукаНаука

Комментарии • 27

  • @user-ez6lp1zc9v
    @user-ez6lp1zc9v 7 месяцев назад

    Спасибо огромное за выпуск! Мне, как человеку без бэкграунда в AI, было очень интересно, полезно и познавательно!

  • @maximrad1901
    @maximrad1901 3 месяца назад

    Я смотрю первые 15 минут и я надеюсь что дальше я увижу все что я так долго искали смотрел до этого в десятках видео и статьях. Если это так)) вы лучший)) делайте больше такого, просто инфы куча и вот конкретики совсем мало! Охх я уже в предвкушении, что это то что я так долго искал))

    • @trashchenkov
      @trashchenkov  3 месяца назад

      developers.sber.ru/docs/ru/gigachain/video-tutorials
      Мои видео в официальную документацию добавлены.

    • @goodden
      @goodden Месяц назад

      Ну так что в итоге то?

  • @ramazanAb
    @ramazanAb 17 дней назад

    Отличное видео, спасибо!

  • @sergbik2339
    @sergbik2339 2 месяца назад +1

    Даже я что- то понял. Не имею никакой базы по программированию. Спасибо!

  • @andreyshishkin9305
    @andreyshishkin9305 19 дней назад

    Агонь!

  • @lsw19830
    @lsw19830 29 дней назад

    Подскажите. Смогу ли я с 0 опытом в программировании, написать такого бота который аккумулирует к примеру чат в тг сохраняет его в json с помощью гигачата?

    • @trashchenkov
      @trashchenkov  28 дней назад

      Если я правильно понял вопрос, то речь про то, чтобы описывать задачу на человеческом языке, а в ответ получать код и инструкции, как этот код запускать. Поправьте, если суть вопроса в другом.
      Это возможно, но потребует времени и усилий. Скорее всего, с ходу все работать не будет. Не всегда человек без опыта может технически грамотно сформулировать задачу для ИИ, а ИИ не всегда понимает контекст того, что мы хотим сделать. Поэтому может понадобиться много итераций, когда вы общаетесь с ИИ, поясняете задачу, отправляете ему текст ошибки, из-за которой код не хочет работать, может даже что-то смотрите или читаете дополнительно. Но если вы достаточно усидчивы и готовы погрузиться в задачу, в конце концов должно получиться.
      Как пример для вдохновения можно посмотреть видео ruclips.net/video/FBUnxlpX15w/видео.html В нем отец на каникулах увлек семилетнего сына разработкой игры с помощью chatgpt.

    • @lsw19830
      @lsw19830 28 дней назад

      @@trashchenkov да, вы верно поняли. Немного переформулировал. Ок, понял, спасибо

  • @saimon774
    @saimon774 2 месяца назад

    отличное видео

  • @texadmin4749
    @texadmin4749 26 дней назад

    Огонь, но только ещё учу.

  • @DigiCatBlog
    @DigiCatBlog 6 месяцев назад

    Классная лекция. Было бы интересно узнать то же самое, используя llama или что то ещё локально, а не гигачат

    • @trashchenkov
      @trashchenkov  6 месяцев назад +1

      Спасибо. В видео про langflow чуть-чуть показывал использование llama 3.
      В будущем видео тоже планирую использовать маленькую модельку в тандеме с Гигачатом.
      Локальные модели требовательны к железу. Не у всех потянет. Гигачат в этом плане проще. Но почти все примеры, которые я показываю, с небольшими модификациями будут работать и с локальными моделями.

    • @DigiCatBlog
      @DigiCatBlog 6 месяцев назад

      @@trashchenkov у меня есть 3060 с 12 Гб памяти, 3080 с 8 Гб памяти и в ноутбуке 3070 с 8 Гб памяти. Если использовать llama 3.1 с квантованием 2, можно ли использовать на таких видеокартах?

    • @trashchenkov
      @trashchenkov  6 месяцев назад

      @@DigiCatBlog ​ @DigiCatBlog с квантованием 2 обычно качество ответов не очень. Обычно рекомендуется брать с квантованием 4, поскольку это уже не самое плохое качество ответов, но все еще существенная экономия памяти. Работать на указанном железе будет, я вообще на своем скромном Macbook Air с M1 запускаю. Но это просто для баловства, иногда ответов ждать приходится по несколько минут.

    • @alexvolobuev5222
      @alexvolobuev5222 5 месяцев назад

      Спасибо за видос! Очень интересно! Вопрос:
      как при разбивании на чанки не потерять смысл?
      Если бить тупо посимвольно, разве не будет резаться смысл статьи на части? Может надо как-то по словам, предложениям, абзацам. Но это все не то. Надо бить как то по смыслу. Например используя ллм, сказать : разрежь статью на атомарные части, чтобы не повредить смысл. И можно заодно саморизовать эти чанки, чтобы потом экономить контекст ллм.
      Думали над этой проблемой?

    • @trashchenkov
      @trashchenkov  5 месяцев назад

      ​@@alexvolobuev5222 Над этой проблемой уже много умных ребят подумали до нас))). Такая проблема есть. Посимвольно никто не режет чанки. Даже в показанных примерах кусочки бьются по словам. Можно в параметрах настроить, чтобы бились по предложениям. Кроме того, нарезка идет с перекрытием, то есть часть текста в соседних кусочках повторяется (так больше шансов сохранить смысл). И это все делается не с помощью LLM, а на основе регулярных выражений.
      Подходы по разбивке не на одинаковые кусочки, а с учетом структуры документа (главы, пункты и т.д.) тоже есть, но в этом ролике была цель показать самый простой подход. У более сложных способов помимо преимуществ, есть свои слабые стороны. Например, есть подход RAPTOR. Там иерархическая структура с самаризацией больших кусочков. Там проблема в том, что если мы хотим добавить новых документов в базу знаний, надо все заново создавать. А в простом подходе, где мы тупо режем на более-менее одинаковые кусочки, проблем с добавлением новых куосчков не возникает.

  • @lsw19830
    @lsw19830 29 дней назад

    У меня зародилась идея на основе телеграмбота и гигачата и вот кажется вселенная дала мне её решение 😨

  • @mitfleg
    @mitfleg 3 месяца назад

    очень долго вступление, лично мое мнение можно было сократить раза в два точно))
    Но кто я такой чтоб говорить свое мнение)

  • @nikanetique
    @nikanetique 10 дней назад

    господи, как же долго вы формулируете. 7 минут на пояснение что такое RAG. вы серьезно?