- Видео 67
- Просмотров 62 571
Желтый AI
Добавлен 9 фев 2023
Страница AI-центра Т-Банка. Здесь делимся нашей экспертизой, инструментами и рассказываем, что «под капотом» наших сервисов и продуктов.
Желтый Club Talks — T-Lite и T-Pro: философия подхода и ответы на популярные вопросы
Этот выпуск особенный по двум причинам. Во-первых, это предновогодний спешл, а во-вторых, речь пойдет про недавний релиз двух больших языковых моделей - T-Lite и T-Pro. Разговор пойдет в необычном формате: прозвучат именно те вопросы, что чаще всего задавались от комьюнити в комментариях к релизу.
Ведущий выпуска:
- Даниил Гаврилов, руководитель Research-команды Т-Банка.
В гостях:
- Анатолий Потапов, руководитель команды фундаментальных технологий LLM Т-Банка;
- Никита Сурначев, руководитель команды alignment Т-Банка.
Таймкоды:
0:00 Интро
0:49 Знакомство с гостями
2:46 В чем философия подхода создания моделей T-Lite и T-Pro
5:23 Какие смыслы заложены в continual pre-training
7:22 Рецепт улучшения б...
Ведущий выпуска:
- Даниил Гаврилов, руководитель Research-команды Т-Банка.
В гостях:
- Анатолий Потапов, руководитель команды фундаментальных технологий LLM Т-Банка;
- Никита Сурначев, руководитель команды alignment Т-Банка.
Таймкоды:
0:00 Интро
0:49 Знакомство с гостями
2:46 В чем философия подхода создания моделей T-Lite и T-Pro
5:23 Какие смыслы заложены в continual pre-training
7:22 Рецепт улучшения б...
Просмотров: 852
Видео
Как находить темы для исследований в условиях высокой конкуренции - Борис Шапошников, Т-Банк
Просмотров 334Месяц назад
В докладе Борис рассказал, как изменилась область алаймента за 2 года: от единственного RLHF до нескольких десятков разных методов. А также рассмотрел, что происходит в офлайн алайменте - как они с командой писали TR-DPO, - и почему переписывали статью несколько раз. #NLP #ml #тбанк
Mechanistic Interpretability - Никита Балаганский, Т-Банк
Просмотров 423Месяц назад
Сейчас, во многом благодаря исследованиям антропика и дипмайнд, мы, наконец, можем говорить о том, что с помощью интерпретируемости можем не только понимать как работают трансформеры, но и изменять их поведение в нужном для нас направлении. В докладе Никита рассказал, чем его группа занимается прямо сейчас в направлении механистик интерпретабилити. #nlp #ml #тбанк
Желтый Club Talks - Что происходит в мире LLM-приложений и тулинга?
Просмотров 2,1 тыс.2 месяца назад
А у нас - новый выпуск! Даня Гаврилов встретился с Артуром Самигуллиным. В этой серии разговоры про практическое применение LLM (и не только): как появилось направление LLM-тулинга, что происходит в тулинге и какие проблемы существуют, что происходит в точки зрения применения LLM в Т-Банке, уйдет ли специализация промпт инженера в прошлое и т.д. Ведущий выпуска: - Даниил Гаврилов, руководитель ...
Особенности работы предиктивных моделей для разных видов спроса - Ринат Шарафетдинов, ecom.tech
Просмотров 4173 месяца назад
Вместе с Ринатом поговорили на тему прогнозирования спроса в сервисе быстрой доставки продуктов. Обсудили особенности работы предиктивных моделей для разных видов спроса: регулярный, новинки, промо и комбо. Разбрали основные подходы и инструменты для каждого из них (признаки, временные ряды), #time_series #ml #тбанк
Зачем и как строить эмбеддинги для временных рядов - Егор Батурин, Т-Банк
Просмотров 3693 месяца назад
Вместе с Егором поговорили о том, зачем и как строить эмбеддинги для временных рядов. Подробно разбрали, как устроены DL-модели для генерации эмбеддингов, а так же посмотрели, как использовать их в библиотеке ETNA. #time_series #ml #тбанк
Как работать с данными и оценивать их качество - Максим Жерело, Т-Банк
Просмотров 3173 месяца назад
Максим рассказал про задачу оффлайн мониторинга и о том, как работать с данными и оценивать их качество. Также рассмотрел алгоритмы для обнаружения разных типов изменений во временных рядах. #time_series #ml #тбанк
Желтый Club Talks - Про ACL, идеи для исследований и конкуренцию в ресерче
Просмотров 7763 месяца назад
Ребята из команды Research Т-Банка совсем недавно вернулись из Бангкока, где рассказывали на ACL 2024 о своей научной статье. В этом выпуске Даниил Гаврилов пообщался с ними о том, как устроены исследования в NLP сегодня и чего можно ждать в будущем. Ведущий выпуска: - Даниил Гаврилов, руководитель Research команды Т-Банка В гостях: - Ярослав Аксенов, исследователь в группе LLM Foundations, ком...
Как прошла Turbo ML Conf
Просмотров 1704 месяца назад
Это была наша первая ML-конфа, и прошла она в режиме турбо! Что было внутри: - четыре потока - NLP & MLOps/LLMOps, Research & RnD, CV & Speech и RecSys & TS; - кейсы лидеров индустрии - заглянем в самое сердце AI- продуктов Т-Банка, VK, Яндекса, MTS AI, AIRI, Lamoda и других бигтехов; - афтепати, нетворкинг и уникальные челленджи, чтобы проверить свои скиллы на деле. В общем - все, чтобы и врем...
Полтора года с ChatGPT - Артем Бондарь, Т-Банк
Просмотров 7684 месяца назад
Поговорили о том, как LLM поменял ландшафт промышленного машинного обучения. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
Как сделать хороший перевод документов на базе LLM - Николай Карпачев, Яндекс
Просмотров 4584 месяца назад
Николай ассказал, почему задача по переводу в 2024 году еще не решена. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
Вредные LLM‑советы для непослушных NLP‑разработчиков и их продактов - Иван Самсонов, AI VK
Просмотров 4214 месяца назад
Иван дал пачку непрошеных советов непослушным разработчикам. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
Особенности продуктового внедрения LLM - дискуссия
Просмотров 2984 месяца назад
Поговорили о том, как эффективно решать бизнес-задачи при помощи LLM, о сложностях, ноу-хау и личном опыте в этой области. Спикеры: Артем Бондарь, Т-Банк Анатолий Потапов, Т-Банк Николай Карпачев, Яндекс Иван Самсонов, AI VK Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/...
Подходы к построению LLM-приложений - Артур Самигуллин, Т-Банк
Просмотров 1 тыс.4 месяца назад
На примерах Вселенной ассистентов Т-Банка Артур рассказал об основных концепциях разработки LLM-приложений. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
LLM для автоматизации поддержки - Ирина Степанюк, Т-Банк
Просмотров 6344 месяца назад
Доклад о том, как с помощью LLM можно поменять подход к задаче автоматизации поддержки. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
Строим сильную базовую LLM на основе открытых моделей - Анатолий Потапов, Т-Банк
Просмотров 7374 месяца назад
Строим сильную базовую LLM на основе открытых моделей - Анатолий Потапов, Т-Банк
Как мы делали свою foundation-модель для временных рядов - Мартин Габдушев, Т-Банк
Просмотров 1415 месяцев назад
Как мы делали свою foundation-модель для временных рядов - Мартин Габдушев, Т-Банк
Создание персонализированных подборок на главной странице Lamoda - Данил Комаров, Lamoda Tech
Просмотров 2925 месяцев назад
Создание персонализированных подборок на главной странице Lamoda - Данил Комаров, Lamoda Tech
Генерация синтетических временных рядов для поиска аномалий - Владислав Власов, Т-Банк
Просмотров 1395 месяцев назад
Генерация синтетических временных рядов для поиска аномалий - Владислав Власов, Т-Банк
RL RecSys в проде: хайп или игра вдолгую - Олег Лашинин, Т-Банк
Просмотров 4085 месяцев назад
RL RecSys в проде: хайп или игра вдолгую - Олег Лашинин, Т-Банк
Адаптивное квотирование источников кандидатов в near real-time - Даниил Самойлов, VK
Просмотров 745 месяцев назад
Адаптивное квотирование источников кандидатов в near real-time - Даниил Самойлов, VK
Умная лента контента: как сделать AI-банк персональным для каждого - Михаил Печатов, Т-Банк
Просмотров 1935 месяцев назад
Умная лента контента: как сделать AI-банк персональным для каждого - Михаил Печатов, Т-Банк
Тайны трансформерной персонализации - Кирилл Хрыльченко, Яндекс
Просмотров 5785 месяцев назад
Тайны трансформерной персонализации - Кирилл Хрыльченко, Яндекс
Индустриальные тренды в RecSys - Марина Ананьева, Т-Банк
Просмотров 3785 месяцев назад
Индустриальные тренды в RecSys - Марина Ананьева, Т-Банк
Летопись ассистента для разработчиков Nestor от начала до наших дней: Николай Пермяков, Т-Банк
Просмотров 4395 месяцев назад
Летопись ассистента для разработчиков Nestor от начала до наших дней: Николай Пермяков, Т-Банк
AI in Context: Иван Стельмах, Центральный университет
Просмотров 5395 месяцев назад
AI in Context: Иван Стельмах, Центральный университет
ML в эпоху LLM: Даниил Киреев, MTS AI
Просмотров 1 тыс.5 месяцев назад
ML в эпоху LLM: Даниил Киреев, MTS AI
RL in Embodied AI fine tune, pretrain, offline: Александр Панов, AIRI
Просмотров 2255 месяцев назад
RL in Embodied AI fine tune, pretrain, offline: Александр Панов, AIRI
Динамические вычисления в языковых моделях: Никита Балаганский, Т-Банк
Просмотров 8775 месяцев назад
Динамические вычисления в языковых моделях: Никита Балаганский, Т-Банк
Тот, который никита, красивый
Тот самый Некита, брат моей мамы. 😅
А есть какое-нибудь отличие от подхода МТС с его ллмкой Cotype, которая тоже была создана файнтюном qwen и тоже выбивает топ на mera?
Начало на 38:19 )))))))))))
Супер понятно и по делу
Спасибо! Было интересно послушать про day by day usage, конкретные cases и tooling set.
Спасибо за интервью! Было бы круто, если ведущий меньше бы перебивал гостя.
Очень интересно было слушать. Случайно забрел на ваш канал. Спасибо и Дане за хорошие вопросы и Артуру за глубокие ответы! Особенно понравилась тема с gpt-стартапами.
Все еще непонятно нафиг нужен langchain ?
Таймкоды нужны
"Что-то пишут, какие-то задачи решают..." Вы прямо скажите какие задачи. Уровень ответа примерно как у человека который мимо проходил.
Привет! В этом выпуске не было цели раскрыть кейсы применения внутри, цель - рассказать, что происходит с применением со стороны тулинга и приложений. Но базово представь, зачем ты приходишь, например, в ChatGPT/Claude/etc: поредактировать тексты, позадавать вопросы к документам/таблицам, написать код/sql и многое другое - для всего этого используют разные LLM и наши сотрудники внутри нашего домена. Кстати, у меня есть доклад о том, как мы применяем LLM с конкретными примерами, и как мы внутри классифицируем подходы к применению. Скорее всего, это закроет твой вопрос: ruclips.net/video/sNwgkLniGqQ/видео.htmlsi=GS7hFdDhQ3mLkR7P
@@ArturSamigullin-70b Ну то есть вы сделали тоже самое, что и у других, просто свое. Понятно. Я просто подумал, что это публичный канал, и это может быть мне интересно как потенциальному партнеру. А вы видимо этим видео делаете доклад для каких-то иных целей. Я просто после того как вы ответили так неясно, перестал смотреть видео. Не хочу тратить время на воду.
@@ArturSamigullin-70b Посмотрел на перемотке видео по ссылке вашей. Не заметил никакой классификации. Вы описываете модули технические, при это обходите стороной клиентский опыт. Вероятно вы технический специалист который не понимает какой профит бизнес может получить от технологии. Меня интересует именно это, а не то использовать RAG или промпт приколоить, с этим все и так ясно
Как обычно в сотый раз изобретаем велосипед
сброд какой то
Как файнтюнить оффлайн нейросеть?
Легко. Берешь модель, загружаешь в любой фреймворк, который умеет работать с твоей архитектурой твоей модели, желательно через модули LoRA, загружаешь датасет, делишь его на тестовые выборки и обучающие, устанавливаешь эпохи, да и в целом все. Запускаешь, если ресурсы позволяют(умножай вес модели на 2 примерно), столько видеопамяти по хорошему надо. Если же не можешь позволить, LoRA поможет, но учти, что в скорости будет провал в 1.5 раза где-то. Ну и сидишь и слушаешь гул вентиляторов. Советую задуматься над охлаждением блока с видеокартами) По итогу обучения, будет с десяток файлов весов, которые ты можешь сжать в нужный формат, чтобы запускать там, где хочется тебе)
@@niyazleushkin что лучше взять для задачи rtx 3060 12gb или 3070ti но 8gb ? Количество памяти и cuda ядер важней общей производительности карты?
@@IvanLesnov смотря какая задача и какую LLM обучать. По большей части скорость обучения, во многих случаях, упирается в объёмы видеопамяти и скорости их работы. Да, нельзя пренебрегать мощностью. Т.к скорость обучения будет прямо пропорционально зависеть от памяти и кол-ва вычислительных ресурсов. Если важно обучить "большую" модель, то берём больше видеопамяти. Если задача обучить быстро, но модель маленькая, берём мощнее gpu и скорость памяти. Если вы не будете использовать LoRA или QLoRA, то берите больше памяти, вам её понадобится много:) А так, 8 GB видеопамяти это крайне мало
@@IvanLesnov все из перечисленного очень мало для нейросети особенно для обучения я бы посмотрел на 4090 или 3090 б/у либо специальные видюхи для ai типо rtx quadro или nvidia tesla правда стоят они тоже дофига и предназначены только для работы над спец задачами
Какой же костный язык у молодого человека
Огонь!
Супер!!! 😊
Классное выступление. Дизайн презентации, спикер, взаимодействие с аудиторией, юмор - на уровне.
Почему вы не на его месте еще?
Алаймент = выравнивание. Докладчик вызубрил термины но не понимает про что говорит))
А почему он докладывает не на английском?
Я понял! Это доклад на английском с кучей русицизмов!!!
Отраслевой стандарт, термины эти именно так используются, включайте Задорнова чтобы не было англицизмов
@@wadyn95 да ладно - ему просто лень писать доклад нормально )
А чем ещё не занимаются в тэбанке?
Это пиздец, конечно. Англицизм на англицизме, получается какая-то ядреная смесь из лексики английского языка и всем остальным из русского языка, понятия не переводятся, а прям так хуярятся, как есть, будто перевода этих слов в природе не существует и быть не может
ну да вообще интересно было бы посмотреть на видео, где все бы все эти термины были заменены на исконно русские слова. Там бы такой треш получился, что никто бы вообще ничего не понял:)
Красивый
Начал слушать
А в итоге, под капотом Gemini, и Bert 😅
Второе какую модель, GPT? Куда хепс тиры алайменты, слишком завуалированные теримины не популярные в машинном обучении
У кого во-первых 1000 тренеров ИИ?
Инсайд видео: в промте попросите llm рассуждать и аргументировать каждый этап принятия промежуточного решения.
Когда аспирантура будет?
Картина, начало проекта. Итог и урок, стратегия наша. Перечень важных ошибок труда и управы, откроет глаза. Советы, курс и страну потеряли, а по факту, они были у нас. Познаём себя и науку, инструмент бытия. От интереса студента, нашей надежды. Лучшее в мире образование, а по делам. Страна бензоколонка, ресурсы без передела, дайте денег мы купим. И многие миллионы инженеров, о личном новаторстве, никогда и не думали. А для жизни, где берёте средства, не выполняя работу свою. Начальник всё решает один, инженер не бастует спустя малое время, телок с поводком. Кто посмел устранить, вечный творческий стимул мотор, борьбу мнений в поиске истины. Полстолетия нет развития, что появилось купили. Наука, её голова, академики и доктора, за такие дела и порядок, не отвечают, ждут мужика. Ленин сказал, контроль и контроль. Если хотя миллиону таких инженеров, в каждые три года в дипломе, штемпель поставим. Безыдейный слабак, по труду нет способности, что получим. Рабочего обложили нормативным контролем. Каждый шофёр отвечает за перевозки, за каждый час тонну и километр. В деревне, кругом трудовой норматив, личный и общий. Каждый инженер имея диплом, мотор для прогресса, за развитие не отвечает как и наука. Он технический соучастник, учётчик чужого труда, активный попутчик в зарплате. Ладно оставим, смотрим управу после соединим. И сразу отметим, где грамотный человек, там беда. Наука, участия не приняла в устройстве уклада мечты, не решала копила вопросы. Даже с пинка и коленки, ведь грозно указано было перстом, без теории тактики нам смерть. Слово стратега и нету страны. Решили, щуку утопим, пусть паук узурпатор начальник правитель царёк, справедливо устроит народовластие и науку саму. После царя и капиталиста, кругом усадили тупо начальника С общей кассой рабочей, в тёмную от коллектива. Шаг роковой. Самый малый начальник, не сразу но станет, злом самым большим. Карьерист коррупционер, вор общака, закрепостит десятки и сотни лучших себя. Он будет умный кругом, красным директором станет, все дураки. Важное место. Начинающий инженер, будучи в силе интереса высокого, через год потеряет его, вкус новаторства не узнает. Как и миллионы тех инженеров, отупеют от живого не участия в деле развития. Скажут, а как ты хотел. Всё на равных решим, лишь затем ты начальник я начинающий. Что правильно выгодно всем то начальнику смерть, надо быть лидером а не начальником. Суть вопроса. Помимо плана, пять процентов что на развитие ежемесячно выделяем. Не тратим по мелочи а заводим посильное меньшее дело, с быстрой отдачей. Умножим процент для общего роста, социалку наполним товаром в план не попавшим. План станет гибким, без лишних артелей. Так будем искать исправлять ошибки свои, или будем шуметь и петлять, так на авось из ничего. Марксисты школы создали, однако не замечали закрепощенный властью умственный труд. Не создали по существу, творческий принцип социализма. Метод коллективных решений, с отбором не средних а лучших решений. Не понимали, без духовного фактора, лукавой науки подхвата новаторства, трудовые силы не полноценны слабы. Диктатура советы не родила, с отбором способных им зачем, стала глупой дубиной, слепой поводырь. И времени было в достатке, до развала страны, но эти прохвосты опять ищут власти, не понимая куда Марксизм развивать. А как не понять, не нужен эгоист барыга бизнесмен, нужен инженер единой команды. Не научимся коллективно решать в труде в науке в стране, грош нам цена. Советы в труде, суть начало социализма без Революции. Перво зерно, не власть в стране, не партия болтунов, нет и плана пока. А любое хозяйство, с коллективной управой, кто запрещает. Они в деле должны себя показать, завлечь и других, вытеснить старый уклад эксплуатации. И главный урок. Наука, не имея порядка в себе, не способна совместно решать, быть впереди, без команды искать самое важное. Из чего и получили, трудовой и духовный тупик. Наука главный виновник развала страны, предательство многих, всё было потом, результат тупика. С такою наукой, нам смерть. Трудовой отбор сосредоточит, всех активными делает, без отбора в науке рассеянность, пофигизм безответственность. А посему, науку ждёт парадигма реформа Томаса Куна. Новая форма, порядок другой и новый учёт, как в религии новый завет. С получением третей силы, помимо денег и власти, от науки коллективного Я. И характерный маркер и признак. Если наука из многих вопросов, не способна выделить главный. Дающий начало проекту всему, как ГОЭЛРО в индустрии мы помним. Значит нет у неё здравомыслия, значит нет и науки самой Есть пардон, толпа или сброд эгоистов, такими академиками и докторами будут править не то криминал и предатели всякие, но и чужие рабы. И ещё, сегодня наука стоит на подхвате, на посылках у бизнесмена барыги, в реверансе у банкира ростовщика. Ждёт приема у двери начальника, руку держит под козырек. Ожидая пенок или под дых, и всё ругает пассивный народ. Не начальник царек проходимец и временщик, должен страну создавать, а понятно наука. Но у науки пока, нет ума своего, нет порядка нет голоса и опыта жизни, а знания, это не ум. Всё решает начальник, он не может, всё устроить научно и справедливо, но против себя любимого. Наука не может, эгоизм в науке, превышает эгоизм олигархов. Жду ответа, пенсионер Владимир.
Одни банкиры😂😂😂 а вот оплаты через окв 643 не отображаются у наемников частных собственников которые зарплаты на Мосбирже получают, которых НКО оформили. 😂😂😂
так и не понял, почему tesseract не подошел?
3:10 Низкое качество и скорость
ruclips.net/video/ELPmVA4IAN4/видео.html
почему просто не купить и вкатить продукт Abby, которая 20 лет потратила на ocr? Зачем для этого нанимать несколько команд, брать архитектора и повторять путь, который прошёл коммерческий OCR много лет назад?
В какой-то момент api Abbyy стала недоступна из-за санкций
@@Matantsev эм, они же Росс бизнес выделили и там всё что было - бери и юзай, нет?
Елена, подача супер, как и сам доклад! Респект!
Не совсем понятно, какие преимущества даёт большая языковая модель по сравнению с набором специализированных, которые можно затем комбинировать под разные задачи. Обучать их проще, инференс - на порядки дешевле, результаты могут получаться сопоставимые с тем, что получается на выходе LLM.
Напиши плиз какие специализированные модели есть? Первый раз слышу просто
@@mqtrade5743 - классификаторы - суммаризаторы - переводчики - преобразователи (text-to- -speech, text-to-image, text-to-textб и т.д.) Можете поискать на Обниморде более предметно. Например модели Михаила Утробина для перевода русский/английский/китайский.
Докладчику бы самому не помешало почистить свою речь от мусора.
Отличное выступление, презентация более чем доступна для понимания. Вот только в конце опечатка - одинНадцать должно быть, 2 "Н". Ну, раз уж мы про нормализацию текста говорим)
Вы очень крутые, давайте больше рексиса
Мы под санкциями, поэтому не можем использовать chatGPT. А ещё надо делать импортозамещение
Очень интересно было увидеть подобного рода разбор. Уважение рассказчику. Печально что это Тинькофф. История с обманом людей озвучки оставляют на Тинькофф тень, которая уходит в кучу других уголовных историй. Неуплата налогов, суды со своими же клиентами и отбирания у них денег. Суд с блогером.
Нормально, только почему используете термин Расстояние Жикарда, если есть Расстояние Левенштейна?
Расстояние Левенштейна - минимальное число правок содержимого одного из множеств, чтобы оно стало идентично другому. Сходство Жаккара - отношение числа общих элементов двух множеств к числу элементов обоих множеств (расстояние Жаккара = 1- сходство Жаккара). Судя по формуле на слайде используется сходство Жаккара.
@@vlad-n-agспасибо
Очень интересно. Большое спасибо❤
Очень интересно. Большое спасибо❤
Используя SLIC-HF-sample-rank, где мы возьмём обученную reward-модель, чтобы расставить оценки SFT-датасету?
Полагаю, изначально можно обучить на размеченных данных, как в других стратегиях, а потом уже генерировать и дообучать. Но вообще надо в статье посмотреть)
Когда Russian LLM можно будет скачать дайте знать пожалуйста.
Есть русская базовая модель Сбера. Доступна для скачивания на Обниморде.
Спасибо!
Спасибо спикеру, было интересно!
Какой способ деления трейн тест в рекомендациях правильный?
global timeline
@@yellow_ai почему сплит по людям неправильный и в чем там лик?
Там может быть лик через популярные айтемы ? Ну это моё дилетантское предположение
Очень интересно!