Я смотрю первые 15 минут и я надеюсь что дальше я увижу все что я так долго искали смотрел до этого в десятках видео и статьях. Если это так)) вы лучший)) делайте больше такого, просто инфы куча и вот конкретики совсем мало! Охх я уже в предвкушении, что это то что я так долго искал))
Подскажите. Смогу ли я с 0 опытом в программировании, написать такого бота который аккумулирует к примеру чат в тг сохраняет его в json с помощью гигачата?
Если я правильно понял вопрос, то речь про то, чтобы описывать задачу на человеческом языке, а в ответ получать код и инструкции, как этот код запускать. Поправьте, если суть вопроса в другом. Это возможно, но потребует времени и усилий. Скорее всего, с ходу все работать не будет. Не всегда человек без опыта может технически грамотно сформулировать задачу для ИИ, а ИИ не всегда понимает контекст того, что мы хотим сделать. Поэтому может понадобиться много итераций, когда вы общаетесь с ИИ, поясняете задачу, отправляете ему текст ошибки, из-за которой код не хочет работать, может даже что-то смотрите или читаете дополнительно. Но если вы достаточно усидчивы и готовы погрузиться в задачу, в конце концов должно получиться. Как пример для вдохновения можно посмотреть видео ruclips.net/video/FBUnxlpX15w/видео.html В нем отец на каникулах увлек семилетнего сына разработкой игры с помощью chatgpt.
Спасибо. В видео про langflow чуть-чуть показывал использование llama 3. В будущем видео тоже планирую использовать маленькую модельку в тандеме с Гигачатом. Локальные модели требовательны к железу. Не у всех потянет. Гигачат в этом плане проще. Но почти все примеры, которые я показываю, с небольшими модификациями будут работать и с локальными моделями.
@@trashchenkov у меня есть 3060 с 12 Гб памяти, 3080 с 8 Гб памяти и в ноутбуке 3070 с 8 Гб памяти. Если использовать llama 3.1 с квантованием 2, можно ли использовать на таких видеокартах?
@@DigiCatBlog @DigiCatBlog с квантованием 2 обычно качество ответов не очень. Обычно рекомендуется брать с квантованием 4, поскольку это уже не самое плохое качество ответов, но все еще существенная экономия памяти. Работать на указанном железе будет, я вообще на своем скромном Macbook Air с M1 запускаю. Но это просто для баловства, иногда ответов ждать приходится по несколько минут.
Спасибо за видос! Очень интересно! Вопрос: как при разбивании на чанки не потерять смысл? Если бить тупо посимвольно, разве не будет резаться смысл статьи на части? Может надо как-то по словам, предложениям, абзацам. Но это все не то. Надо бить как то по смыслу. Например используя ллм, сказать : разрежь статью на атомарные части, чтобы не повредить смысл. И можно заодно саморизовать эти чанки, чтобы потом экономить контекст ллм. Думали над этой проблемой?
@@alexvolobuev5222 Над этой проблемой уже много умных ребят подумали до нас))). Такая проблема есть. Посимвольно никто не режет чанки. Даже в показанных примерах кусочки бьются по словам. Можно в параметрах настроить, чтобы бились по предложениям. Кроме того, нарезка идет с перекрытием, то есть часть текста в соседних кусочках повторяется (так больше шансов сохранить смысл). И это все делается не с помощью LLM, а на основе регулярных выражений. Подходы по разбивке не на одинаковые кусочки, а с учетом структуры документа (главы, пункты и т.д.) тоже есть, но в этом ролике была цель показать самый простой подход. У более сложных способов помимо преимуществ, есть свои слабые стороны. Например, есть подход RAPTOR. Там иерархическая структура с самаризацией больших кусочков. Там проблема в том, что если мы хотим добавить новых документов в базу знаний, надо все заново создавать. А в простом подходе, где мы тупо режем на более-менее одинаковые кусочки, проблем с добавлением новых куосчков не возникает.
Спасибо огромное за выпуск! Мне, как человеку без бэкграунда в AI, было очень интересно, полезно и познавательно!
Я смотрю первые 15 минут и я надеюсь что дальше я увижу все что я так долго искали смотрел до этого в десятках видео и статьях. Если это так)) вы лучший)) делайте больше такого, просто инфы куча и вот конкретики совсем мало! Охх я уже в предвкушении, что это то что я так долго искал))
developers.sber.ru/docs/ru/gigachain/video-tutorials
Мои видео в официальную документацию добавлены.
Ну так что в итоге то?
Отличное видео, спасибо!
Даже я что- то понял. Не имею никакой базы по программированию. Спасибо!
Агонь!
Подскажите. Смогу ли я с 0 опытом в программировании, написать такого бота который аккумулирует к примеру чат в тг сохраняет его в json с помощью гигачата?
Если я правильно понял вопрос, то речь про то, чтобы описывать задачу на человеческом языке, а в ответ получать код и инструкции, как этот код запускать. Поправьте, если суть вопроса в другом.
Это возможно, но потребует времени и усилий. Скорее всего, с ходу все работать не будет. Не всегда человек без опыта может технически грамотно сформулировать задачу для ИИ, а ИИ не всегда понимает контекст того, что мы хотим сделать. Поэтому может понадобиться много итераций, когда вы общаетесь с ИИ, поясняете задачу, отправляете ему текст ошибки, из-за которой код не хочет работать, может даже что-то смотрите или читаете дополнительно. Но если вы достаточно усидчивы и готовы погрузиться в задачу, в конце концов должно получиться.
Как пример для вдохновения можно посмотреть видео ruclips.net/video/FBUnxlpX15w/видео.html В нем отец на каникулах увлек семилетнего сына разработкой игры с помощью chatgpt.
@@trashchenkov да, вы верно поняли. Немного переформулировал. Ок, понял, спасибо
отличное видео
Огонь, но только ещё учу.
Классная лекция. Было бы интересно узнать то же самое, используя llama или что то ещё локально, а не гигачат
Спасибо. В видео про langflow чуть-чуть показывал использование llama 3.
В будущем видео тоже планирую использовать маленькую модельку в тандеме с Гигачатом.
Локальные модели требовательны к железу. Не у всех потянет. Гигачат в этом плане проще. Но почти все примеры, которые я показываю, с небольшими модификациями будут работать и с локальными моделями.
@@trashchenkov у меня есть 3060 с 12 Гб памяти, 3080 с 8 Гб памяти и в ноутбуке 3070 с 8 Гб памяти. Если использовать llama 3.1 с квантованием 2, можно ли использовать на таких видеокартах?
@@DigiCatBlog @DigiCatBlog с квантованием 2 обычно качество ответов не очень. Обычно рекомендуется брать с квантованием 4, поскольку это уже не самое плохое качество ответов, но все еще существенная экономия памяти. Работать на указанном железе будет, я вообще на своем скромном Macbook Air с M1 запускаю. Но это просто для баловства, иногда ответов ждать приходится по несколько минут.
Спасибо за видос! Очень интересно! Вопрос:
как при разбивании на чанки не потерять смысл?
Если бить тупо посимвольно, разве не будет резаться смысл статьи на части? Может надо как-то по словам, предложениям, абзацам. Но это все не то. Надо бить как то по смыслу. Например используя ллм, сказать : разрежь статью на атомарные части, чтобы не повредить смысл. И можно заодно саморизовать эти чанки, чтобы потом экономить контекст ллм.
Думали над этой проблемой?
@@alexvolobuev5222 Над этой проблемой уже много умных ребят подумали до нас))). Такая проблема есть. Посимвольно никто не режет чанки. Даже в показанных примерах кусочки бьются по словам. Можно в параметрах настроить, чтобы бились по предложениям. Кроме того, нарезка идет с перекрытием, то есть часть текста в соседних кусочках повторяется (так больше шансов сохранить смысл). И это все делается не с помощью LLM, а на основе регулярных выражений.
Подходы по разбивке не на одинаковые кусочки, а с учетом структуры документа (главы, пункты и т.д.) тоже есть, но в этом ролике была цель показать самый простой подход. У более сложных способов помимо преимуществ, есть свои слабые стороны. Например, есть подход RAPTOR. Там иерархическая структура с самаризацией больших кусочков. Там проблема в том, что если мы хотим добавить новых документов в базу знаний, надо все заново создавать. А в простом подходе, где мы тупо режем на более-менее одинаковые кусочки, проблем с добавлением новых куосчков не возникает.
У меня зародилась идея на основе телеграмбота и гигачата и вот кажется вселенная дала мне её решение 😨
очень долго вступление, лично мое мнение можно было сократить раза в два точно))
Но кто я такой чтоб говорить свое мнение)
господи, как же долго вы формулируете. 7 минут на пояснение что такое RAG. вы серьезно?