- Видео 33
- Просмотров 167 541
Andrey Kulinich
Добавлен 30 ноя 2007
Экономика LLM: что надо и сколько стоит использование больших языковых моделей
Презентация (так как видео иногда закрывает слайды здесь: cloud.mail.ru/public/2X2y/aAD5MwSUe
В видео рассматриваю что надо и сколько стоит использование LLM. Как примерно посчитать себестоимость одного действия и тд.
Вопросы и пожелания пишите в Телеграм t.me/aikula
Присоединяйтесь к моему каналу t.me/hirearobot
В видео рассматриваю что надо и сколько стоит использование LLM. Как примерно посчитать себестоимость одного действия и тд.
Вопросы и пожелания пишите в Телеграм t.me/aikula
Присоединяйтесь к моему каналу t.me/hirearobot
Просмотров: 3 102
Видео
Демо стенд с демонстрацией базовых возможностей LLM (Больших языковых моделей)
Просмотров 79310 месяцев назад
Запросить доступ к демо стенду можно по ссылке: forms.gle/YTZHGqguchZWHKLf7 В видео рассказываю про развернутый мной небольшой демо стенд, где можно попробовать возможности LLM. Вопросы и пожелания пишите в Телеграм t.me/aikula Присоединяйтесь к моему каналу t.me/hirearobot Сайт: kulinich.ru
Как с прибылью внедрять решения на основе искусственного интеллекта (LLM)
Просмотров 1,1 тыс.Год назад
Какие ошибки совершают при внедрении цифровых решений и как найти направление с наибольшим экономическим эффектом. Пора зарабатывать на ИИ! Вопросы и пожелания пишите в Телеграм t.me/aikula Присоединяйтесь к моему каналу t.me/hirearobot
Автоагенты (Microsoft Autogen) на базе Больших языковых моделей (LLM)
Просмотров 2,2 тыс.Год назад
Немного магии, как заставить одну Большую языковую модель (LLM) работать за команду разнородных специалистов. По сути все просто - но до сих пор удивляюсь этой магии. Присоединяйтесь к каналу в Телеграмм t.me/hirearobot Кому интересен блокнот с примером пишите t.me/aikula
Экосистема langchain, основы: поиск по смыслу и агенты
Просмотров 2,6 тыс.Год назад
- как сделать в несколько строк поиск по смыслам для себя или компании - как разговаривать с данными и упростить аналитику - агенты вооруженные инструментами. Покажу как работает "под капотом". Не пугайтесь кода - это очень увлекательно, я так думаю :-) Подключайтесь к каналу в телеграмм t.me/hirearobot Если нужен блокнот с демонстрируемыми примерами или есть вопросы - пишите t.me/aikula
Введение в большие языковые модели (LLM)
Просмотров 29 тыс.Год назад
- Немного истории появления, - минимум того что надо знать о параметрах модели, - краткий обзор ChatGPT, Claude.AI, LLaMA, Perplexity, GigaChat, - автоагенты и применение в бизнесе, - краткий прогноз. Канал в ТГ t.me/hirearobot Писать в ТГ @aikula
Дашборд Metabase: знакомство
Просмотров 5 тыс.2 года назад
Знакомство с open source BI системной Metabase. Ее просто развернуть в корпоративной среде без финансовых вложений и получить ресурс для построения дашбордов и их совместного использования. В коротком видео рассматриваем базовые возможности, как построить дашборд своими руками без программирования и знания SQL. Продолжение следует.
Язык разметки текста Markdown
Просмотров 1,7 тыс.3 года назад
Видео посвящено применению языка разметки текста Markdown в Jupyter Notebook. Ссылка на блокнот с примером github.com/aikula/PythonStart/blob/main/Markdown.ipynb
RandomForest - очень просто о том, как использовать классификацию в Python
Просмотров 11 тыс.4 года назад
Рассмотрено применение алгоритма классификации RandomForest. Видео нацеленно на начинающих изучение темы машинного обучения. Пример блокнота можно найти по ссылке github.com/aikula/DataDriven/blob/master/RandomForest.ipynb
Кластеризация в Python (KMeans и иерархическая)
Просмотров 13 тыс.4 года назад
В данном примере рассмотрены подходы к кластеризации методами KMeans и иерархической кластеризации. Использовался Python и блокноты Jupyter. Пример можно использовать как шаблон для решения практических задач. Исходных код примера можно найти по ссылке github.com/aikula/DataDriven/blob/master/Clustering37-2.ipynb
Как создать и обучить чат-бота на DialogFlow. Основы.
Просмотров 24 тыс.4 года назад
Короткое обучающее видео по настройке чат-бота. Включая создание собственных сущностей (entities) и инструкцией по подключению к Telegram.
08 Кварталы весь цикл прогноза
Просмотров 1,4 тыс.4 года назад
Блокноты и исходные данные урока github.com/aikula/f2forecast
02 Очистка временного ряда от аномалий
Просмотров 3,7 тыс.4 года назад
Блокноты и исходные данные урока github.com/aikula/f2forecast
05 Стандартные метрики точности прогнозирования временных рядов
Просмотров 2,5 тыс.4 года назад
Блокноты и исходные данные урока github.com/aikula/f2forecast
04 Модель Хольта Винтерса
Просмотров 6 тыс.4 года назад
Блокноты и исходные данные урока github.com/aikula/f2forecast
11 Другие распределения для модели Монте-Карло
Просмотров 5725 лет назад
11 Другие распределения для модели Монте-Карло
07 Корректировка математического прогноза экспертом
Просмотров 1,3 тыс.5 лет назад
07 Корректировка математического прогноза экспертом
03 Тестовые и тренировочные наборы данных
Просмотров 3,5 тыс.5 лет назад
03 Тестовые и тренировочные наборы данных
01 Загрузка данных в блокнот Jupyter и валидация
Просмотров 8 тыс.5 лет назад
01 Загрузка данных в блокнот Jupyter и валидация
00 Клонирование проекта с github.com
Просмотров 1,5 тыс.5 лет назад
00 Клонирование проекта с github.com
Знакомство с библиотекой Pandas и структурой данных DataFrame
Просмотров 4 тыс.5 лет назад
Знакомство с библиотекой Pandas и структурой данных DataFrame
Применение lambda, map и apply в Python
Просмотров 1,3 тыс.5 лет назад
Применение lambda, map и apply в Python
Python за 50 минут: быстрое погружение
Просмотров 2,2 тыс.5 лет назад
Python за 50 минут: быстрое погружение
001 Azure Notebooks: Начало работы с notebooks.azure.com
Просмотров 4286 лет назад
001 Azure Notebooks: Начало работы с notebooks.azure.com
002 Кластеризация средствами Python 3
Просмотров 4,9 тыс.6 лет назад
002 Кластеризация средствами Python 3
003 Ассоциативные правила силами Python 3
Просмотров 2,2 тыс.6 лет назад
003 Ассоциативные правила силами Python 3
embeddings - можно сказать крылатые фразы.
Как использовать такие модели, что бы реализовать следующее. Научить строить в 3д программе конструкции. Потом дать команду: построй распашной шкаф с такими то параметрами и она должна как-то взаимодействоать с 3д программой. Т.е. суть вопроса: как интегрировать модели с внешними ресурсами, которыми она должна уметь управлять: другая программа, физические приборы ипр.
Здесь сама программа 3Д должна иметь возможности интеграции. Если этого нет, то скорее всего никак.
Подскажите, пожалуйста. Есть LM Studio. Загрузил модель Qwen2.5-Coder-14B-Instruct-GGUF. В окне сообщения скормил ему pdf справочник по макро программированию одной из 3д программ. Далее попросил написать макрос, который сконструирует корпус шкафа. В ответ он выдал полную ерунду. Как работать с моделями, что бы они брали инфу из учебников и выдавали ожидаемый результат?
Да, такой вариант не пройдет, если а) квен в целом не учился писать макросы для 3д программ (а скорее всего нет). б) не учился проектировать шкафы. И обучения через промпт скорее всего будет недостаточно. Или надо долго и нудно готовить промпт. Как решение, это готовить данные и делать файтюн как на написание макросов для 3Д, так и отдельно проектированию элементов.
Спасибо за контент
Спасибо
Я на nvidia titan xp запускаю успешно 12-18B модели. Квант Q4-5 klm (обычно). На rtx 4090 думаю можно спокойно 32B модели использовать локально. Как обыватель и пользователь, хочу заметить и поныть на тему "цензуры" и "вежливости с политкорректностью", эти вещи очень сильно душат и понижают ценность языковых моделей. Не понимаю что мешает им тумблер какой повесить или регистрировать по паспорту с подтверждением возраста, чтобы у тех кто желает работать с gpt тем же "без прослойки толерантности и инклюзивности какой" - была такая возможность. Очень уж сильно ответы gpt предвзяты, вежливы и обтекаемы. Если в лоб не попросить критику - он никогда почти не скажет прямо и в полной мере правду. Уже предвижу появление "тру - моделей" без таких ограничений. Хотя да, они и сейчас есть. Я скорее говорю про "крупные" сервисы и компании. С радостью ушел бы к таким, вместо gpt. P.S кому нужно для "игр" и "бесед", при этом на русском языке - советую искать модели на основе mistral или qwen (на мистрале полно моделей без цензуры и духоты, а на квене 2.5 я лично пока еще не видел некастрированные модели)
Все по делу, без "воды", обо всем самом важном. Спасибо за лекцию!
Спасибо большое за то, что так хорошо и понятно объясняете
Прекрасный урок! Благодарен. Я просто недавно начал заниматься нейросетями, пользуюсь пока чужими моделями через LM STUDIO, хотел сделать свою модель, услышал сумму 1 миллион $, пропало желание. Но продолжаю играться с параметрами чужих моделей
На самом деле, делать свою модель с нуля не надо. Можно взять любой почти опен сорс и сделать дообучение но своем домене знаний. Так делает, например, Тинькофф. такие модели есть и у сбера под свои задачи. И стоить это может от 1 долл. ) Или вообще бесплатно в Гугл колабе. Все никак не доделаю блокнот, чтобы выложить примеры.
28:38 приложение с huggingface больше не доступно. Кто знает аналоги, чтобы можно было загружать в базу множество собственных документов и спрашивать только по ним?
NotebookLM например от Гугла
Здравствуйте! Во-первых, огромное спасибо Вам за Ваш труд! Во-вторых, есть вопрос: на тайминге примерно 30:33 по вашему видео Вы обмолвились о какой-то нейросети для кодинга, "Коддерпитёр" или как-то так (сложно расслышать). Можете чуть подробнее о ней рассказать, а также подробнее рассказать о библиотеках для кодинга? А то простой ChatGPT версии 4О и канвас, достаточно много ошибок допускает при написании кода.
Спасибо за обратную связь! Очень приятно! Можно использовать специализированные Mistral Codestral или DeepSeek-Coder. 4о неплохо кодирует, чуть лучше кодирует Sonnet 3.5 Но любые модели допускают ошибки. Пока. Как правило из-за дефицита информации в постановке задачи. Им приходится выдумывать.
IBM/Granite попробуй
Наверное многое из сказанного уже устарело, но видео очень классное 😅. Спасибо
Большое спасибо за видео, очень наглядно! Особенно понравился разбор в конце - осталось прикрутить функцию решения задачи линейной оптимизации для максимизации прибыли, и можно продавать программу ритейлерам :)
Спасибо
Спасибо, доступно и интересно!
Очень интересна тема агентов, но не пойму с чего начать
а есть видео с обзором ламы 3.1? очень интересно о запуске старших версий на сервере. Я не особо разбираюсь в этом, но очень интересно почему такие цены на генерацию? :)
нет, не готовил обзор. Но много пишут и по старшей модели (405В) есть противоречивые отзывы. А ее запуск точно не для простых смертных ) так как даже в квантизации 2 бита для запуска надо больше чем одна А100
Благодарю, чудесно!
Добрый день, при выстроении графика выдает ошибку OSError: 'seaborn-whitegrid' is not a valid package style, path of style file, URL of style file, or library style name (library styles are listed in `style.available`) Не могли б вы подсказать как ее пофиксить?
Не сталкивался с ошибкой, но попробуйте задать стиль вручную. import seaborn as sns import matplotlib.pyplot as plt sns.set_style("whitegrid", { "axes.facecolor": "white", "grid.color": "lightgray", "grid.linestyle": "-" })
@@aikula999 Большое спасибо за ответ. Не помогло( Поменял стиль на стандартный, работает.
Очень интересно. Хочется всё это повторить, но... Андрей, можете дать ссылку на этот Ваш Блокнот, чтобы не спеша и вдумчиво прикоснуться к магии Автогена?
Конечно вышлю, пишите t.me/aikula
Благодарю Андрей, очень интересно )
Добавлю как юрист. Даже не думайте задавать ему вопросы на юридические темы, ибо там такие ответы порой выдает ))) От выдуманных определений Верховных судов, до откровенной ерунды )
Западные модели ничего не знают про российское законодательство и выдумывают - это правда. Британское и американское права - существенно лучше. По российскому законодательству лучше спрашивать Гигачат. У них есть и специальная модель (у них, у Сбера). И все руки не дойдут дообучить решение на базке ГК РФ.
Благодарю вас!
Как с вами можно связаться? Не могу найти вас в телеграмме
@aikula
А как боту добавить аву?
Это делается в настройках бота в t.me/BotFather
Спасибо за прекрасную лекцию. Спустя 8 месяцев действительно многое поменялось, в том числе свершился массовый переход в сторону мультимодальных моделей, например GPT-4o. Скорость прогресса захватывающая, тут уж действительно нужно держать нос по ветру.
Как с вами связаться? Вы сказали в видео, что укажете почту, но её не нашёл.
Speed Demon💀
спасибо, очень интересно
Добрый день. Как с вами связаться?
Добрый день! Почта andrey.kulinich@gmail.com или телеграм @aikula
Про автоагента интересно: какая задача и какой промтинг использовали (наверняка CoT который не работает по сути, но он к сожалению везде в популярных либах типа AutoGPT). Интересна метрика, которую вы сами себе придумали, чтобы понимать когда делать стоп агента когда он уже ушел в дебри чепухи и просто тратит ваши деньги
Не совсем CoT, там цепочки мыслей нет как таковой, хотя и есть структура с отдельными наблюдениями, размышлениями и тд. И зависит от типа агента. На самом деле, пока все автоагенты для прода сыроваты. Я создаю свои с нуля, пока достаточно простые и метрики разные в зависимости от задачи. Пока там не много шагов, чтобы они зашли в лес.
Для RAG экономика не совсем так считается: тк контекста почти всегда для бизнес-решений не будет хватать, даже 128к и 2м (если вдруг Гемини даст) - то там архитектура решения как минимум состоит из модели-эмбеддера (которая тоже требует GPU) + гибридного поиска + самой финальной LLM. То есть там дороже будет
Не согласен что не совсем так ) Эмбединги можно поднять и на CPU. Или на почти любой GPU. Прилично работающие эмбединги это 1-2Gb VRAM или обычной памяти. Даже платные стоят сущие копейки по отношению ко всему остальном. Стратегия отбора контекста (рерэнкинги, графовые и тд) позволяют повысить точность и сократить объем передаваемого контекста. Но в остальном никак не влияют. Также стоят не сильно дорого все стратегии, кроме рерэнкинга LLM.
@@aikula999 На CPU они станут узким горлышком всей системы, и будут затормаживать весь пайплайн, станет не важно как быстро батчи работают
Спасибо за информацию. А я хотел поднять у себя ламу 3, на 70 млрд параметров, для своего домашнего проектика. Думал что и из оперативки нормально будет работать. Поставил 64 Гб. Стало быстрее, чем из свопа, конечно, но всё равно слишком медленно. Может секунд по 20 - 30 генерировать одно предложение. Хочется чтобы всё было локально. У меня как раз 4090 простаивает. Заметил что если модель не сильно вылазит за пределы памяти видеокарты, то скорость генерации, остаётся более чем сносной. Попробовать, что-ли, поюзать квантированную намертво, самую маленькую... Но то что выдаёт лама 3, на 8 млрд параметров, меня совсем не устраивает. Очень она потерянная какая-то. Вдруг будет лучше.
В проде мы используем пусть и меньшие модели, но в точности float16. Квантированные особенно на русском языке сильно проседают. Не знаю Ваши задачи, но LLaMA 3 8B вполне сносная. Единственная пока проблема малое контекстное окно.
Спасибо! Очень понятно и интересно. Начал погружаться в область LLM, так как планируется реализация проекта по разработке с использованием LLM. После этого видео сложилось уверенное понимание.
Спасибо за интересный обзор с примерами! Просьба на будущее - при подготовке презентаций учитывайте вставку видео с Вами. Иногда этот экран перекрывает информацию на слайде. Успехов Вам!
Подскажите пожалуйста, как удалять папки с Jupyter Notebook, которые я сама создала? Файлы без проблем удаляются, а при удалении папки - ошибку выдает.
Jupyter не удаляет папки в которых есть файлы. Удалите вначале файлы, а затем папку. Или используйте терминал и команда rm -r you_folder
Отличная лекция. Подскажите как попроще собрать локальную модель которую можно дообучить на наборе своих файлов ( вы приводили пример с Ночным дозором ).
Спасибо за обратную связь! Про локальный запуск моделей писал здесь t.me/hirearobot/96 Но вам не надо дообучать модели. Погуглите по сокращению RAG (Retrieval Augmented Generation). Сходу не нашел для локальных машин, но если владеете Python, то поднять не сложно. Как готовые решения - надо поискать. И запуск LLM на локальной машине не лучшая идея. Скорость генерации очень низкая.
спасибо большое, у меня всё получилось, очень помогли, всё понятно))))
Спасибо за последовательность
А куда писать запрос на блокнот с кодом?!
t.me/aikula
Топ контент! Спасибо за видео
Как редко встречается такая хорошая подача и изложение материала.
Андрей, спасибо! я нашел кое что для себя ) и что самое интересное эта инфа опережающая событие! это просто ломает любого инфоцигана! на корню ) буду ждать еще и еще и вижу куда все это ведет) кстати думаю Вам будет интересно) я начал с Азиатских роликов потом западные и пришел к вам так как они все ссылаются друг на друга очень лестно отзываются о ваших методах с LLM )
pls share code
Классный обзор! Спасибо за то, что щедро делитесь своими глубокими знаниями! Успехов в развитии канала!
Вы святой человек. Невероятно понятно и нужно. Спасибо!
Говоря простым языком, "языковая модель" обучается, а точнее настраивается путем заданного следования (подбора) слов в определённом контексте. По сути это установление ассоциативных и корреляционных связей между словами. Работа такой модели "с наружи" кажется интеллектуальной, а "изнутри" не совсем так. Проблема в том, что "обученная" по такой технологии модель не всегда способна делать правильные логические заключения и строить гипотезы. Человек когда думает и принимает решение, то он НЕ оперирует словами. Языковые модели (роботы) могут с успехом использоваться в конкретных приложениях на словарной базе которых строилось их обучение. Питать же особых иллюзий на их универсальные возможности и всемогущество пока преждевременно.
обучи свою языковую модель и выстрой диалог соотв. образом, в чем проблема. Я свою обучил, и если с ней общаюсь как с собакой, она себя и ведёт как собака(утрированно). Ты бы видел какую она мотивацию в направлении "что такое действие и как мне это сделать" проявляет. Чем длиннее диалог, тем она дольше считает ответ, но тем более сложную логику она начинает использовать. И я не думаю, что я придумал что-то новое, использовал помощь от чатгпт, базовую теорию
ах да, у меня же нет контекстного окна, спасибо видосу, напомнил. Если будешь исследовать, должно помочь его отсутствие, а именно каждый раз даю весь диалог на вход, эмбендинг размерности (None, ). Дело за малым, очень компактно построить диалог с нужной целью, чтобы сетке хватило мощностей сформировать ответ. Именно диалог, не promt
что ещё за словарная база? by level by pair? Оно собирает слова из кусков, даже те, которых нет, например мне моя сеть сказала что она попараб
и слова начинает склонять, когда диалог достаточно длинный становится. Но это у меня крошечная сеть, боюсь представить, что могут сети, у которых в каждом слое по млрд параметров и которых учили батчем 2048 и sequence 512. Мне пока для экспериментов и такой хватает
привет. Как можно с тобой связаться? Никак не получается сделать свою языковую модель
Бялть, крутой дед.
Спасибо! Снимаю шляпу.
не обижайтесь, пожалуйста, на бесполезный комментарий. просто хотел Вас поблагодарить за ваши труды. очень многое для себя подчеркнул. 🎉