Andrey Kulinich
Andrey Kulinich
  • Видео 33
  • Просмотров 167 541
Экономика LLM: что надо и сколько стоит использование больших языковых моделей
Презентация (так как видео иногда закрывает слайды здесь: cloud.mail.ru/public/2X2y/aAD5MwSUe
В видео рассматриваю что надо и сколько стоит использование LLM. Как примерно посчитать себестоимость одного действия и тд.
Вопросы и пожелания пишите в Телеграм t.me/aikula
Присоединяйтесь к моему каналу t.me/hirearobot
Просмотров: 3 102

Видео

Демо стенд с демонстрацией базовых возможностей LLM (Больших языковых моделей)
Просмотров 79310 месяцев назад
Запросить доступ к демо стенду можно по ссылке: forms.gle/YTZHGqguchZWHKLf7 В видео рассказываю про развернутый мной небольшой демо стенд, где можно попробовать возможности LLM. Вопросы и пожелания пишите в Телеграм t.me/aikula Присоединяйтесь к моему каналу t.me/hirearobot Сайт: kulinich.ru
Как с прибылью внедрять решения на основе искусственного интеллекта (LLM)
Просмотров 1,1 тыс.Год назад
Какие ошибки совершают при внедрении цифровых решений и как найти направление с наибольшим экономическим эффектом. Пора зарабатывать на ИИ! Вопросы и пожелания пишите в Телеграм t.me/aikula Присоединяйтесь к моему каналу t.me/hirearobot
Автоагенты (Microsoft Autogen) на базе Больших языковых моделей (LLM)
Просмотров 2,2 тыс.Год назад
Немного магии, как заставить одну Большую языковую модель (LLM) работать за команду разнородных специалистов. По сути все просто - но до сих пор удивляюсь этой магии. Присоединяйтесь к каналу в Телеграмм t.me/hirearobot Кому интересен блокнот с примером пишите t.me/aikula
Экосистема langchain, основы: поиск по смыслу и агенты
Просмотров 2,6 тыс.Год назад
- как сделать в несколько строк поиск по смыслам для себя или компании - как разговаривать с данными и упростить аналитику - агенты вооруженные инструментами. Покажу как работает "под капотом". Не пугайтесь кода - это очень увлекательно, я так думаю :-) Подключайтесь к каналу в телеграмм t.me/hirearobot Если нужен блокнот с демонстрируемыми примерами или есть вопросы - пишите t.me/aikula
Введение в большие языковые модели (LLM)
Просмотров 29 тыс.Год назад
- Немного истории появления, - минимум того что надо знать о параметрах модели, - краткий обзор ChatGPT, Claude.AI, LLaMA, Perplexity, GigaChat, - автоагенты и применение в бизнесе, - краткий прогноз. Канал в ТГ t.me/hirearobot Писать в ТГ @aikula
Дашборд Metabase: знакомство
Просмотров 5 тыс.2 года назад
Знакомство с open source BI системной Metabase. Ее просто развернуть в корпоративной среде без финансовых вложений и получить ресурс для построения дашбордов и их совместного использования. В коротком видео рассматриваем базовые возможности, как построить дашборд своими руками без программирования и знания SQL. Продолжение следует.
Язык разметки текста Markdown
Просмотров 1,7 тыс.3 года назад
Видео посвящено применению языка разметки текста Markdown в Jupyter Notebook. Ссылка на блокнот с примером github.com/aikula/PythonStart/blob/main/Markdown.ipynb
RandomForest - очень просто о том, как использовать классификацию в Python
Просмотров 11 тыс.4 года назад
Рассмотрено применение алгоритма классификации RandomForest. Видео нацеленно на начинающих изучение темы машинного обучения. Пример блокнота можно найти по ссылке github.com/aikula/DataDriven/blob/master/RandomForest.ipynb
Кластеризация в Python (KMeans и иерархическая)
Просмотров 13 тыс.4 года назад
В данном примере рассмотрены подходы к кластеризации методами KMeans и иерархической кластеризации. Использовался Python и блокноты Jupyter. Пример можно использовать как шаблон для решения практических задач. Исходных код примера можно найти по ссылке github.com/aikula/DataDriven/blob/master/Clustering37-2.ipynb
Как создать и обучить чат-бота на DialogFlow. Основы.
Просмотров 24 тыс.4 года назад
Короткое обучающее видео по настройке чат-бота. Включая создание собственных сущностей (entities) и инструкцией по подключению к Telegram.
08 Кварталы весь цикл прогноза
Просмотров 1,4 тыс.4 года назад
Блокноты и исходные данные урока github.com/aikula/f2forecast
02 Очистка временного ряда от аномалий
Просмотров 3,7 тыс.4 года назад
Блокноты и исходные данные урока github.com/aikula/f2forecast
05 Стандартные метрики точности прогнозирования временных рядов
Просмотров 2,5 тыс.4 года назад
Блокноты и исходные данные урока github.com/aikula/f2forecast
04 Модель Хольта Винтерса
Просмотров 6 тыс.4 года назад
Блокноты и исходные данные урока github.com/aikula/f2forecast
10 Модель Монте Карло
Просмотров 1,2 тыс.5 лет назад
10 Модель Монте Карло
09 Множественная регрессия
Просмотров 2,8 тыс.5 лет назад
09 Множественная регрессия
11 Другие распределения для модели Монте-Карло
Просмотров 5725 лет назад
11 Другие распределения для модели Монте-Карло
06 Модель SARIMA (auto_sarima)
Просмотров 7 тыс.5 лет назад
06 Модель SARIMA (auto_sarima)
07 Корректировка математического прогноза экспертом
Просмотров 1,3 тыс.5 лет назад
07 Корректировка математического прогноза экспертом
03 Тестовые и тренировочные наборы данных
Просмотров 3,5 тыс.5 лет назад
03 Тестовые и тренировочные наборы данных
01 Загрузка данных в блокнот Jupyter и валидация
Просмотров 8 тыс.5 лет назад
01 Загрузка данных в блокнот Jupyter и валидация
00 Клонирование проекта с github.com
Просмотров 1,5 тыс.5 лет назад
00 Клонирование проекта с github.com
Знакомство с библиотекой Pandas и структурой данных DataFrame
Просмотров 4 тыс.5 лет назад
Знакомство с библиотекой Pandas и структурой данных DataFrame
Применение lambda, map и apply в Python
Просмотров 1,3 тыс.5 лет назад
Применение lambda, map и apply в Python
Python за 50 минут: быстрое погружение
Просмотров 2,2 тыс.5 лет назад
Python за 50 минут: быстрое погружение
Основы работы с блокнотами Jupyter
Просмотров 14 тыс.5 лет назад
Основы работы с блокнотами Jupyter
001 Azure Notebooks: Начало работы с notebooks.azure.com
Просмотров 4286 лет назад
001 Azure Notebooks: Начало работы с notebooks.azure.com
002 Кластеризация средствами Python 3
Просмотров 4,9 тыс.6 лет назад
002 Кластеризация средствами Python 3
003 Ассоциативные правила силами Python 3
Просмотров 2,2 тыс.6 лет назад
003 Ассоциативные правила силами Python 3

Комментарии

  • @realist_ge
    @realist_ge Месяц назад

    embeddings - можно сказать крылатые фразы.

  • @RuchejAlex
    @RuchejAlex Месяц назад

    Как использовать такие модели, что бы реализовать следующее. Научить строить в 3д программе конструкции. Потом дать команду: построй распашной шкаф с такими то параметрами и она должна как-то взаимодействоать с 3д программой. Т.е. суть вопроса: как интегрировать модели с внешними ресурсами, которыми она должна уметь управлять: другая программа, физические приборы ипр.

    • @aikula999
      @aikula999 Месяц назад

      Здесь сама программа 3Д должна иметь возможности интеграции. Если этого нет, то скорее всего никак.

  • @RuchejAlex
    @RuchejAlex Месяц назад

    Подскажите, пожалуйста. Есть LM Studio. Загрузил модель Qwen2.5-Coder-14B-Instruct-GGUF. В окне сообщения скормил ему pdf справочник по макро программированию одной из 3д программ. Далее попросил написать макрос, который сконструирует корпус шкафа. В ответ он выдал полную ерунду. Как работать с моделями, что бы они брали инфу из учебников и выдавали ожидаемый результат?

    • @aikula999
      @aikula999 Месяц назад

      Да, такой вариант не пройдет, если а) квен в целом не учился писать макросы для 3д программ (а скорее всего нет). б) не учился проектировать шкафы. И обучения через промпт скорее всего будет недостаточно. Или надо долго и нудно готовить промпт. Как решение, это готовить данные и делать файтюн как на написание макросов для 3Д, так и отдельно проектированию элементов.

  • @ВладСкопен
    @ВладСкопен 2 месяца назад

    Спасибо за контент

  • @ВиталийБулдаков-ш4э
    @ВиталийБулдаков-ш4э 2 месяца назад

    Спасибо

  • @youzaks
    @youzaks 2 месяца назад

    Я на nvidia titan xp запускаю успешно 12-18B модели. Квант Q4-5 klm (обычно). На rtx 4090 думаю можно спокойно 32B модели использовать локально. Как обыватель и пользователь, хочу заметить и поныть на тему "цензуры" и "вежливости с политкорректностью", эти вещи очень сильно душат и понижают ценность языковых моделей. Не понимаю что мешает им тумблер какой повесить или регистрировать по паспорту с подтверждением возраста, чтобы у тех кто желает работать с gpt тем же "без прослойки толерантности и инклюзивности какой" - была такая возможность. Очень уж сильно ответы gpt предвзяты, вежливы и обтекаемы. Если в лоб не попросить критику - он никогда почти не скажет прямо и в полной мере правду. Уже предвижу появление "тру - моделей" без таких ограничений. Хотя да, они и сейчас есть. Я скорее говорю про "крупные" сервисы и компании. С радостью ушел бы к таким, вместо gpt. P.S кому нужно для "игр" и "бесед", при этом на русском языке - советую искать модели на основе mistral или qwen (на мистрале полно моделей без цензуры и духоты, а на квене 2.5 я лично пока еще не видел некастрированные модели)

  • @sailarsful
    @sailarsful 2 месяца назад

    Все по делу, без "воды", обо всем самом важном. Спасибо за лекцию!

  • @Vihuhol_n
    @Vihuhol_n 2 месяца назад

    Спасибо большое за то, что так хорошо и понятно объясняете

  • @amobus8970
    @amobus8970 3 месяца назад

    Прекрасный урок! Благодарен. Я просто недавно начал заниматься нейросетями, пользуюсь пока чужими моделями через LM STUDIO, хотел сделать свою модель, услышал сумму 1 миллион $, пропало желание. Но продолжаю играться с параметрами чужих моделей

    • @aikula999
      @aikula999 3 месяца назад

      На самом деле, делать свою модель с нуля не надо. Можно взять любой почти опен сорс и сделать дообучение но своем домене знаний. Так делает, например, Тинькофф. такие модели есть и у сбера под свои задачи. И стоить это может от 1 долл. ) Или вообще бесплатно в Гугл колабе. Все никак не доделаю блокнот, чтобы выложить примеры.

  • @BuggsSunny
    @BuggsSunny 3 месяца назад

    28:38 приложение с huggingface больше не доступно. Кто знает аналоги, чтобы можно было загружать в базу множество собственных документов и спрашивать только по ним?

  • @МаркЛ-у6щ
    @МаркЛ-у6щ 3 месяца назад

    Здравствуйте! Во-первых, огромное спасибо Вам за Ваш труд! Во-вторых, есть вопрос: на тайминге примерно 30:33 по вашему видео Вы обмолвились о какой-то нейросети для кодинга, "Коддерпитёр" или как-то так (сложно расслышать). Можете чуть подробнее о ней рассказать, а также подробнее рассказать о библиотеках для кодинга? А то простой ChatGPT версии 4О и канвас, достаточно много ошибок допускает при написании кода.

    • @aikula999
      @aikula999 3 месяца назад

      Спасибо за обратную связь! Очень приятно! Можно использовать специализированные Mistral Codestral или DeepSeek-Coder. 4о неплохо кодирует, чуть лучше кодирует Sonnet 3.5 Но любые модели допускают ошибки. Пока. Как правило из-за дефицита информации в постановке задачи. Им приходится выдумывать.

    • @AleksFirst
      @AleksFirst 3 месяца назад

      IBM/Granite попробуй

  • @shadrinan90
    @shadrinan90 3 месяца назад

    Наверное многое из сказанного уже устарело, но видео очень классное 😅. Спасибо

  • @nikitakalganov9374
    @nikitakalganov9374 3 месяца назад

    Большое спасибо за видео, очень наглядно! Особенно понравился разбор в конце - осталось прикрутить функцию решения задачи линейной оптимизации для максимизации прибыли, и можно продавать программу ритейлерам :)

  • @yamarasadfgfdgd
    @yamarasadfgfdgd 4 месяца назад

    Спасибо

  • @pacostydio
    @pacostydio 5 месяцев назад

    Спасибо, доступно и интересно!

  • @volodymyrtimahin
    @volodymyrtimahin 5 месяцев назад

    Очень интересна тема агентов, но не пойму с чего начать

  • @ARKIsaa
    @ARKIsaa 5 месяцев назад

    а есть видео с обзором ламы 3.1? очень интересно о запуске старших версий на сервере. Я не особо разбираюсь в этом, но очень интересно почему такие цены на генерацию? :)

    • @aikula999
      @aikula999 5 месяцев назад

      нет, не готовил обзор. Но много пишут и по старшей модели (405В) есть противоречивые отзывы. А ее запуск точно не для простых смертных ) так как даже в квантизации 2 бита для запуска надо больше чем одна А100

  • @BRED_Sosed2024
    @BRED_Sosed2024 6 месяцев назад

    Благодарю, чудесно!

  • @makki344
    @makki344 6 месяцев назад

    Добрый день, при выстроении графика выдает ошибку OSError: 'seaborn-whitegrid' is not a valid package style, path of style file, URL of style file, or library style name (library styles are listed in `style.available`) Не могли б вы подсказать как ее пофиксить?

    • @aikula999
      @aikula999 6 месяцев назад

      Не сталкивался с ошибкой, но попробуйте задать стиль вручную. import seaborn as sns import matplotlib.pyplot as plt sns.set_style("whitegrid", { "axes.facecolor": "white", "grid.color": "lightgray", "grid.linestyle": "-" })

    • @makki344
      @makki344 6 месяцев назад

      @@aikula999 Большое спасибо за ответ. Не помогло( Поменял стиль на стандартный, работает.

  • @ИванИванов-б5е2х
    @ИванИванов-б5е2х 6 месяцев назад

    Очень интересно. Хочется всё это повторить, но... Андрей, можете дать ссылку на этот Ваш Блокнот, чтобы не спеша и вдумчиво прикоснуться к магии Автогена?

    • @aikula999
      @aikula999 6 месяцев назад

      Конечно вышлю, пишите t.me/aikula

  • @Votruh
    @Votruh 6 месяцев назад

    Благодарю Андрей, очень интересно )

  • @Votruh
    @Votruh 6 месяцев назад

    Добавлю как юрист. Даже не думайте задавать ему вопросы на юридические темы, ибо там такие ответы порой выдает ))) От выдуманных определений Верховных судов, до откровенной ерунды )

    • @aikula999
      @aikula999 6 месяцев назад

      Западные модели ничего не знают про российское законодательство и выдумывают - это правда. Британское и американское права - существенно лучше. По российскому законодательству лучше спрашивать Гигачат. У них есть и специальная модель (у них, у Сбера). И все руки не дойдут дообучить решение на базке ГК РФ.

  • @АсельАртыкбаева-и1в
    @АсельАртыкбаева-и1в 6 месяцев назад

    Благодарю вас!

  • @АсельАртыкбаева-и1в
    @АсельАртыкбаева-и1в 6 месяцев назад

    Как с вами можно связаться? Не могу найти вас в телеграмме

  • @markopolo113
    @markopolo113 6 месяцев назад

    А как боту добавить аву?

    • @aikula999
      @aikula999 6 месяцев назад

      Это делается в настройках бота в t.me/BotFather

  • @cuberbug
    @cuberbug 6 месяцев назад

    Спасибо за прекрасную лекцию. Спустя 8 месяцев действительно многое поменялось, в том числе свершился массовый переход в сторону мультимодальных моделей, например GPT-4o. Скорость прогресса захватывающая, тут уж действительно нужно держать нос по ветру.

  • @alexk2284
    @alexk2284 7 месяцев назад

    Как с вами связаться? Вы сказали в видео, что укажете почту, но её не нашёл.

  • @homino2873
    @homino2873 7 месяцев назад

    Speed Demon💀

  • @get_out_it
    @get_out_it 7 месяцев назад

    спасибо, очень интересно

  • @bubbleegumm8825
    @bubbleegumm8825 7 месяцев назад

    Добрый день. Как с вами связаться?

    • @aikula999
      @aikula999 7 месяцев назад

      Добрый день! Почта andrey.kulinich@gmail.com или телеграм @aikula

  • @avatarcybertronics2584
    @avatarcybertronics2584 7 месяцев назад

    Про автоагента интересно: какая задача и какой промтинг использовали (наверняка CoT который не работает по сути, но он к сожалению везде в популярных либах типа AutoGPT). Интересна метрика, которую вы сами себе придумали, чтобы понимать когда делать стоп агента когда он уже ушел в дебри чепухи и просто тратит ваши деньги

    • @aikula999
      @aikula999 7 месяцев назад

      Не совсем CoT, там цепочки мыслей нет как таковой, хотя и есть структура с отдельными наблюдениями, размышлениями и тд. И зависит от типа агента. На самом деле, пока все автоагенты для прода сыроваты. Я создаю свои с нуля, пока достаточно простые и метрики разные в зависимости от задачи. Пока там не много шагов, чтобы они зашли в лес.

  • @avatarcybertronics2584
    @avatarcybertronics2584 7 месяцев назад

    Для RAG экономика не совсем так считается: тк контекста почти всегда для бизнес-решений не будет хватать, даже 128к и 2м (если вдруг Гемини даст) - то там архитектура решения как минимум состоит из модели-эмбеддера (которая тоже требует GPU) + гибридного поиска + самой финальной LLM. То есть там дороже будет

    • @aikula999
      @aikula999 7 месяцев назад

      Не согласен что не совсем так ) Эмбединги можно поднять и на CPU. Или на почти любой GPU. Прилично работающие эмбединги это 1-2Gb VRAM или обычной памяти. Даже платные стоят сущие копейки по отношению ко всему остальном. Стратегия отбора контекста (рерэнкинги, графовые и тд) позволяют повысить точность и сократить объем передаваемого контекста. Но в остальном никак не влияют. Также стоят не сильно дорого все стратегии, кроме рерэнкинга LLM.

    • @avatarcybertronics2584
      @avatarcybertronics2584 7 месяцев назад

      @@aikula999 На CPU они станут узким горлышком всей системы, и будут затормаживать весь пайплайн, станет не важно как быстро батчи работают

  • @true_rus364
    @true_rus364 8 месяцев назад

    Спасибо за информацию. А я хотел поднять у себя ламу 3, на 70 млрд параметров, для своего домашнего проектика. Думал что и из оперативки нормально будет работать. Поставил 64 Гб. Стало быстрее, чем из свопа, конечно, но всё равно слишком медленно. Может секунд по 20 - 30 генерировать одно предложение. Хочется чтобы всё было локально. У меня как раз 4090 простаивает. Заметил что если модель не сильно вылазит за пределы памяти видеокарты, то скорость генерации, остаётся более чем сносной. Попробовать, что-ли, поюзать квантированную намертво, самую маленькую... Но то что выдаёт лама 3, на 8 млрд параметров, меня совсем не устраивает. Очень она потерянная какая-то. Вдруг будет лучше.

    • @aikula999
      @aikula999 8 месяцев назад

      В проде мы используем пусть и меньшие модели, но в точности float16. Квантированные особенно на русском языке сильно проседают. Не знаю Ваши задачи, но LLaMA 3 8B вполне сносная. Единственная пока проблема малое контекстное окно.

  • @alekseypetrov5824
    @alekseypetrov5824 8 месяцев назад

    Спасибо! Очень понятно и интересно. Начал погружаться в область LLM, так как планируется реализация проекта по разработке с использованием LLM. После этого видео сложилось уверенное понимание.

  • @sp1n294
    @sp1n294 8 месяцев назад

    Спасибо за интересный обзор с примерами! Просьба на будущее - при подготовке презентаций учитывайте вставку видео с Вами. Иногда этот экран перекрывает информацию на слайде. Успехов Вам!

  • @Anastasia_kv
    @Anastasia_kv 8 месяцев назад

    Подскажите пожалуйста, как удалять папки с Jupyter Notebook, которые я сама создала? Файлы без проблем удаляются, а при удалении папки - ошибку выдает.

    • @aikula999
      @aikula999 8 месяцев назад

      Jupyter не удаляет папки в которых есть файлы. Удалите вначале файлы, а затем папку. Или используйте терминал и команда rm -r you_folder

  • @Kinitiks
    @Kinitiks 9 месяцев назад

    Отличная лекция. Подскажите как попроще собрать локальную модель которую можно дообучить на наборе своих файлов ( вы приводили пример с Ночным дозором ).

    • @aikula999
      @aikula999 9 месяцев назад

      Спасибо за обратную связь! Про локальный запуск моделей писал здесь t.me/hirearobot/96 Но вам не надо дообучать модели. Погуглите по сокращению RAG (Retrieval Augmented Generation). Сходу не нашел для локальных машин, но если владеете Python, то поднять не сложно. Как готовые решения - надо поискать. И запуск LLM на локальной машине не лучшая идея. Скорость генерации очень низкая.

  • @kt.koriks
    @kt.koriks 9 месяцев назад

    спасибо большое, у меня всё получилось, очень помогли, всё понятно))))

  • @affkkt2912
    @affkkt2912 9 месяцев назад

    Спасибо за последовательность

  • @digertdoment4326
    @digertdoment4326 9 месяцев назад

    А куда писать запрос на блокнот с кодом?!

    • @aikula999
      @aikula999 9 месяцев назад

      t.me/aikula

  • @user-berfrfv9k
    @user-berfrfv9k 9 месяцев назад

    Топ контент! Спасибо за видео

  • @Алексей-в5с4п
    @Алексей-в5с4п 9 месяцев назад

    Как редко встречается такая хорошая подача и изложение материала.

  • @vfhfnvecnfaby5362
    @vfhfnvecnfaby5362 9 месяцев назад

    Андрей, спасибо! я нашел кое что для себя ) и что самое интересное эта инфа опережающая событие! это просто ломает любого инфоцигана! на корню ) буду ждать еще и еще и вижу куда все это ведет) кстати думаю Вам будет интересно) я начал с Азиатских роликов потом западные и пришел к вам так как они все ссылаются друг на друга очень лестно отзываются о ваших методах с LLM )

  • @sndrstpnv8419
    @sndrstpnv8419 9 месяцев назад

    pls share code

  • @ksy6411
    @ksy6411 9 месяцев назад

    Классный обзор! Спасибо за то, что щедро делитесь своими глубокими знаниями! Успехов в развитии канала!

  • @user-kdhc5g4gks
    @user-kdhc5g4gks 10 месяцев назад

    Вы святой человек. Невероятно понятно и нужно. Спасибо!

  • @vladig6649
    @vladig6649 10 месяцев назад

    Говоря простым языком, "языковая модель" обучается, а точнее настраивается путем заданного следования (подбора) слов в определённом контексте. По сути это установление ассоциативных и корреляционных связей между словами. Работа такой модели "с наружи" кажется интеллектуальной, а "изнутри" не совсем так. Проблема в том, что "обученная" по такой технологии модель не всегда способна делать правильные логические заключения и строить гипотезы. Человек когда думает и принимает решение, то он НЕ оперирует словами. Языковые модели (роботы) могут с успехом использоваться в конкретных приложениях на словарной базе которых строилось их обучение. Питать же особых иллюзий на их универсальные возможности и всемогущество пока преждевременно.

    • @sharonsky94
      @sharonsky94 7 месяцев назад

      обучи свою языковую модель и выстрой диалог соотв. образом, в чем проблема. Я свою обучил, и если с ней общаюсь как с собакой, она себя и ведёт как собака(утрированно). Ты бы видел какую она мотивацию в направлении "что такое действие и как мне это сделать" проявляет. Чем длиннее диалог, тем она дольше считает ответ, но тем более сложную логику она начинает использовать. И я не думаю, что я придумал что-то новое, использовал помощь от чатгпт, базовую теорию

    • @sharonsky94
      @sharonsky94 7 месяцев назад

      ах да, у меня же нет контекстного окна, спасибо видосу, напомнил. Если будешь исследовать, должно помочь его отсутствие, а именно каждый раз даю весь диалог на вход, эмбендинг размерности (None, ). Дело за малым, очень компактно построить диалог с нужной целью, чтобы сетке хватило мощностей сформировать ответ. Именно диалог, не promt

    • @sharonsky94
      @sharonsky94 7 месяцев назад

      что ещё за словарная база? by level by pair? Оно собирает слова из кусков, даже те, которых нет, например мне моя сеть сказала что она попараб

    • @sharonsky94
      @sharonsky94 7 месяцев назад

      и слова начинает склонять, когда диалог достаточно длинный становится. Но это у меня крошечная сеть, боюсь представить, что могут сети, у которых в каждом слое по млрд параметров и которых учили батчем 2048 и sequence 512. Мне пока для экспериментов и такой хватает

    • @ИмяФамилия-к1м5с
      @ИмяФамилия-к1м5с 6 месяцев назад

      привет. Как можно с тобой связаться? Никак не получается сделать свою языковую модель

  • @asstix1689
    @asstix1689 10 месяцев назад

    Бялть, крутой дед.

  • @СергейНовиков-д2ж
    @СергейНовиков-д2ж 10 месяцев назад

    Спасибо! Снимаю шляпу.

  • @idontknow3489
    @idontknow3489 10 месяцев назад

    не обижайтесь, пожалуйста, на бесполезный комментарий. просто хотел Вас поблагодарить за ваши труды. очень многое для себя подчеркнул. 🎉