Желтый AI
Желтый AI
  • Видео 67
  • Просмотров 62 571
Желтый Club Talks — T-Lite и T-Pro: философия подхода и ответы на популярные вопросы
Этот выпуск особенный по двум причинам. Во-первых, это предновогодний спешл, а во-вторых, речь пойдет про недавний релиз двух больших языковых моделей - T-Lite и T-Pro. Разговор пойдет в необычном формате: прозвучат именно те вопросы, что чаще всего задавались от комьюнити в комментариях к релизу.
Ведущий выпуска:
- Даниил Гаврилов, руководитель Research-команды Т-Банка.
В гостях:
- Анатолий Потапов, руководитель команды фундаментальных технологий LLM Т-Банка;
- Никита Сурначев, руководитель команды alignment Т-Банка.
Таймкоды:
0:00 Интро
0:49 Знакомство с гостями
2:46 В чем философия подхода создания моделей T-Lite и T-Pro
5:23 Какие смыслы заложены в continual pre-training
7:22 Рецепт улучшения б...
Просмотров: 852

Видео

Как находить темы для исследований в условиях высокой конкуренции - Борис Шапошников, Т-Банк
Просмотров 334Месяц назад
В докладе Борис рассказал, как изменилась область алаймента за 2 года: от единственного RLHF до нескольких десятков разных методов. А также рассмотрел, что происходит в офлайн алайменте - как они с командой писали TR-DPO, - и почему переписывали статью несколько раз. #NLP #ml #тбанк
Mechanistic Interpretability - Никита Балаганский, Т-Банк
Просмотров 423Месяц назад
Сейчас, во многом благодаря исследованиям антропика и дипмайнд, мы, наконец, можем говорить о том, что с помощью интерпретируемости можем не только понимать как работают трансформеры, но и изменять их поведение в нужном для нас направлении. В докладе Никита рассказал, чем его группа занимается прямо сейчас в направлении механистик интерпретабилити. #nlp #ml #тбанк
Желтый Club Talks - Что происходит в мире LLM-приложений и тулинга?
Просмотров 2,1 тыс.2 месяца назад
А у нас - новый выпуск! Даня Гаврилов встретился с Артуром Самигуллиным. В этой серии разговоры про практическое применение LLM (и не только): как появилось направление LLM-тулинга, что происходит в тулинге и какие проблемы существуют, что происходит в точки зрения применения LLM в Т-Банке, уйдет ли специализация промпт инженера в прошлое и т.д. Ведущий выпуска: - Даниил Гаврилов, руководитель ...
Особенности работы предиктивных моделей для разных видов спроса - Ринат Шарафетдинов, ecom.tech
Просмотров 4173 месяца назад
Вместе с Ринатом поговорили на тему прогнозирования спроса в сервисе быстрой доставки продуктов. Обсудили особенности работы предиктивных моделей для разных видов спроса: регулярный, новинки, промо и комбо. Разбрали основные подходы и инструменты для каждого из них (признаки, временные ряды), #time_series #ml #тбанк
Зачем и как строить эмбеддинги для временных рядов - Егор Батурин, Т-Банк
Просмотров 3693 месяца назад
Вместе с Егором поговорили о том, зачем и как строить эмбеддинги для временных рядов. Подробно разбрали, как устроены DL-модели для генерации эмбеддингов, а так же посмотрели, как использовать их в библиотеке ETNA. #time_series #ml #тбанк
Как работать с данными и оценивать их качество - Максим Жерело, Т-Банк
Просмотров 3173 месяца назад
Максим рассказал про задачу оффлайн мониторинга и о том, как работать с данными и оценивать их качество. Также рассмотрел алгоритмы для обнаружения разных типов изменений во временных рядах. #time_series #ml #тбанк
Желтый Club Talks - Про ACL, идеи для исследований и конкуренцию в ресерче
Просмотров 7763 месяца назад
Ребята из команды Research Т-Банка совсем недавно вернулись из Бангкока, где рассказывали на ACL 2024 о своей научной статье. В этом выпуске Даниил Гаврилов пообщался с ними о том, как устроены исследования в NLP сегодня и чего можно ждать в будущем. Ведущий выпуска: - Даниил Гаврилов, руководитель Research команды Т-Банка В гостях: - Ярослав Аксенов, исследователь в группе LLM Foundations, ком...
Как прошла Turbo ML Conf
Просмотров 1704 месяца назад
Это была наша первая ML-конфа, и прошла она в режиме турбо! Что было внутри: - четыре потока - NLP & MLOps/LLMOps, Research & RnD, CV & Speech и RecSys & TS; - кейсы лидеров индустрии - заглянем в самое сердце AI- продуктов Т-Банка, VK, Яндекса, MTS AI, AIRI, Lamoda и других бигтехов; - афтепати, нетворкинг и уникальные челленджи, чтобы проверить свои скиллы на деле. В общем - все, чтобы и врем...
Полтора года с ChatGPT - Артем Бондарь, Т-Банк
Просмотров 7684 месяца назад
Поговорили о том, как LLM поменял ландшафт промышленного машинного обучения. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
Как сделать хороший перевод документов на базе LLM - Николай Карпачев, Яндекс
Просмотров 4584 месяца назад
Николай ассказал, почему задача по переводу в 2024 году еще не решена. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
Вредные LLM‑советы для непослушных NLP‑разработчиков и их продактов - Иван Самсонов, AI VK
Просмотров 4214 месяца назад
Иван дал пачку непрошеных советов непослушным разработчикам. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
Особенности продуктового внедрения LLM - дискуссия
Просмотров 2984 месяца назад
Поговорили о том, как эффективно решать бизнес-задачи при помощи LLM, о сложностях, ноу-хау и личном опыте в этой области. Спикеры: Артем Бондарь, Т-Банк Анатолий Потапов, Т-Банк Николай Карпачев, Яндекс Иван Самсонов, AI VK Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/...
Подходы к построению LLM-приложений - Артур Самигуллин, Т-Банк
Просмотров 1 тыс.4 месяца назад
На примерах Вселенной ассистентов Т-Банка Артур рассказал об основных концепциях разработки LLM-приложений. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
LLM для автоматизации поддержки - Ирина Степанюк, Т-Банк
Просмотров 6344 месяца назад
Доклад о том, как с помощью LLM можно поменять подход к задаче автоматизации поддержки. Наш телеграм: t.me/zheltyi_ai Дайджесты, статьи и анонсы митапов: t.me/kod_zheltyi Жизнь команда изнутри и вакансии по направлениям: t.me/t_crew Блог на Хабре: habr.com/ru/companies/tbank
Строим сильную базовую LLM на основе открытых моделей - Анатолий Потапов, Т-Банк
Просмотров 7374 месяца назад
Строим сильную базовую LLM на основе открытых моделей - Анатолий Потапов, Т-Банк
Как мы делали свою foundation-модель для временных рядов - Мартин Габдушев, Т-Банк
Просмотров 1415 месяцев назад
Как мы делали свою foundation-модель для временных рядов - Мартин Габдушев, Т-Банк
Создание персонализированных подборок на главной странице Lamoda - Данил Комаров, Lamoda Tech
Просмотров 2925 месяцев назад
Создание персонализированных подборок на главной странице Lamoda - Данил Комаров, Lamoda Tech
Генерация синтетических временных рядов для поиска аномалий - Владислав Власов, Т-Банк
Просмотров 1395 месяцев назад
Генерация синтетических временных рядов для поиска аномалий - Владислав Власов, Т-Банк
RL RecSys в проде: хайп или игра вдолгую - Олег Лашинин, Т-Банк
Просмотров 4085 месяцев назад
RL RecSys в проде: хайп или игра вдолгую - Олег Лашинин, Т-Банк
Адаптивное квотирование источников кандидатов в near real-time - Даниил Самойлов, VK
Просмотров 745 месяцев назад
Адаптивное квотирование источников кандидатов в near real-time - Даниил Самойлов, VK
Умная лента контента: как сделать AI-банк персональным для каждого - Михаил Печатов, Т-Банк
Просмотров 1935 месяцев назад
Умная лента контента: как сделать AI-банк персональным для каждого - Михаил Печатов, Т-Банк
Тайны трансформерной персонализации - Кирилл Хрыльченко, Яндекс
Просмотров 5785 месяцев назад
Тайны трансформерной персонализации - Кирилл Хрыльченко, Яндекс
Индустриальные тренды в RecSys - Марина Ананьева, Т-Банк
Просмотров 3785 месяцев назад
Индустриальные тренды в RecSys - Марина Ананьева, Т-Банк
Дискуссия: Какое будущее ждет AI?
Просмотров 5 тыс.5 месяцев назад
Дискуссия: Какое будущее ждет AI?
Летопись ассистента для разработчиков Nestor от начала до наших дней: Николай Пермяков, Т-Банк
Просмотров 4395 месяцев назад
Летопись ассистента для разработчиков Nestor от начала до наших дней: Николай Пермяков, Т-Банк
AI in Context: Иван Стельмах, Центральный университет
Просмотров 5395 месяцев назад
AI in Context: Иван Стельмах, Центральный университет
ML в эпоху LLM: Даниил Киреев, MTS AI
Просмотров 1 тыс.5 месяцев назад
ML в эпоху LLM: Даниил Киреев, MTS AI
RL in Embodied AI fine tune, pretrain, offline: Александр Панов, AIRI
Просмотров 2255 месяцев назад
RL in Embodied AI fine tune, pretrain, offline: Александр Панов, AIRI
Динамические вычисления в языковых моделях: Никита Балаганский, Т-Банк
Просмотров 8775 месяцев назад
Динамические вычисления в языковых моделях: Никита Балаганский, Т-Банк

Комментарии

  • @Piupipu
    @Piupipu 13 дней назад

    Тот, который никита, красивый

    • @Leivik569
      @Leivik569 9 дней назад

      Тот самый Некита, брат моей мамы. 😅

  • @ДмитрийАкимов-й8в
    @ДмитрийАкимов-й8в 15 дней назад

    А есть какое-нибудь отличие от подхода МТС с его ллмкой Cotype, которая тоже была создана файнтюном qwen и тоже выбивает топ на mera?

  • @Denis.Kochetov
    @Denis.Kochetov Месяц назад

    Начало на 38:19 )))))))))))

  • @KLpoqi
    @KLpoqi Месяц назад

    Супер понятно и по делу

  • @ЮрийСоколов-л9д
    @ЮрийСоколов-л9д Месяц назад

    Спасибо! Было интересно послушать про day by day usage, конкретные cases и tooling set.

  • @bambell5378
    @bambell5378 2 месяца назад

    Спасибо за интервью! Было бы круто, если ведущий меньше бы перебивал гостя.

  • @НикитаЧистяков-ь8к
    @НикитаЧистяков-ь8к 2 месяца назад

    Очень интересно было слушать. Случайно забрел на ваш канал. Спасибо и Дане за хорошие вопросы и Артуру за глубокие ответы! Особенно понравилась тема с gpt-стартапами.

  • @Zaznobable
    @Zaznobable 2 месяца назад

    Все еще непонятно нафиг нужен langchain ?

  • @mnikk1
    @mnikk1 2 месяца назад

    Таймкоды нужны

  • @SeanTorres-bb2pk
    @SeanTorres-bb2pk 2 месяца назад

    "Что-то пишут, какие-то задачи решают..." Вы прямо скажите какие задачи. Уровень ответа примерно как у человека который мимо проходил.

    • @ArturSamigullin-70b
      @ArturSamigullin-70b 2 месяца назад

      Привет! В этом выпуске не было цели раскрыть кейсы применения внутри, цель - рассказать, что происходит с применением со стороны тулинга и приложений. Но базово представь, зачем ты приходишь, например, в ChatGPT/Claude/etc: поредактировать тексты, позадавать вопросы к документам/таблицам, написать код/sql и многое другое - для всего этого используют разные LLM и наши сотрудники внутри нашего домена. Кстати, у меня есть доклад о том, как мы применяем LLM с конкретными примерами, и как мы внутри классифицируем подходы к применению. Скорее всего, это закроет твой вопрос: ruclips.net/video/sNwgkLniGqQ/видео.htmlsi=GS7hFdDhQ3mLkR7P

    • @SeanTorres-bb2pk
      @SeanTorres-bb2pk 2 месяца назад

      ​@@ArturSamigullin-70b Ну то есть вы сделали тоже самое, что и у других, просто свое. Понятно. Я просто подумал, что это публичный канал, и это может быть мне интересно как потенциальному партнеру. А вы видимо этим видео делаете доклад для каких-то иных целей. Я просто после того как вы ответили так неясно, перестал смотреть видео. Не хочу тратить время на воду.

    • @SeanTorres-bb2pk
      @SeanTorres-bb2pk 2 месяца назад

      @@ArturSamigullin-70b Посмотрел на перемотке видео по ссылке вашей. Не заметил никакой классификации. Вы описываете модули технические, при это обходите стороной клиентский опыт. Вероятно вы технический специалист который не понимает какой профит бизнес может получить от технологии. Меня интересует именно это, а не то использовать RAG или промпт приколоить, с этим все и так ясно

  • @AlexWise-ed1zk
    @AlexWise-ed1zk 2 месяца назад

    Как обычно в сотый раз изобретаем велосипед

  • @chukgek-ew7il
    @chukgek-ew7il 2 месяца назад

    сброд какой то

  • @IvanLesnov
    @IvanLesnov 2 месяца назад

    Как файнтюнить оффлайн нейросеть?

    • @niyazleushkin
      @niyazleushkin Месяц назад

      Легко. Берешь модель, загружаешь в любой фреймворк, который умеет работать с твоей архитектурой твоей модели, желательно через модули LoRA, загружаешь датасет, делишь его на тестовые выборки и обучающие, устанавливаешь эпохи, да и в целом все. Запускаешь, если ресурсы позволяют(умножай вес модели на 2 примерно), столько видеопамяти по хорошему надо. Если же не можешь позволить, LoRA поможет, но учти, что в скорости будет провал в 1.5 раза где-то. Ну и сидишь и слушаешь гул вентиляторов. Советую задуматься над охлаждением блока с видеокартами) По итогу обучения, будет с десяток файлов весов, которые ты можешь сжать в нужный формат, чтобы запускать там, где хочется тебе)

    • @IvanLesnov
      @IvanLesnov Месяц назад

      @@niyazleushkin что лучше взять для задачи rtx 3060 12gb или 3070ti но 8gb ? Количество памяти и cuda ядер важней общей производительности карты?

    • @niyazleushkin
      @niyazleushkin Месяц назад

      @@IvanLesnov смотря какая задача и какую LLM обучать. По большей части скорость обучения, во многих случаях, упирается в объёмы видеопамяти и скорости их работы. Да, нельзя пренебрегать мощностью. Т.к скорость обучения будет прямо пропорционально зависеть от памяти и кол-ва вычислительных ресурсов. Если важно обучить "большую" модель, то берём больше видеопамяти. Если задача обучить быстро, но модель маленькая, берём мощнее gpu и скорость памяти. Если вы не будете использовать LoRA или QLoRA, то берите больше памяти, вам её понадобится много:) А так, 8 GB видеопамяти это крайне мало

    • @blupbob9598
      @blupbob9598 7 дней назад

      ​@@IvanLesnov все из перечисленного очень мало для нейросети особенно для обучения я бы посмотрел на 4090 или 3090 б/у либо специальные видюхи для ai типо rtx quadro или nvidia tesla правда стоят они тоже дофига и предназначены только для работы над спец задачами

  • @sergp5167
    @sergp5167 3 месяца назад

    Какой же костный язык у молодого человека

  • @ikanam-ai
    @ikanam-ai 3 месяца назад

    Огонь!

  • @Renatochka2207
    @Renatochka2207 3 месяца назад

    Супер!!! 😊

  • @atteloiv8
    @atteloiv8 3 месяца назад

    Классное выступление. Дизайн презентации, спикер, взаимодействие с аудиторией, юмор - на уровне.

  • @xes7777
    @xes7777 3 месяца назад

    Почему вы не на его месте еще?

  • @EvgeniyYatsenko
    @EvgeniyYatsenko 4 месяца назад

    Алаймент = выравнивание. Докладчик вызубрил термины но не понимает про что говорит))

  • @101picofarad
    @101picofarad 4 месяца назад

    А почему он докладывает не на английском?

    • @101picofarad
      @101picofarad 4 месяца назад

      Я понял! Это доклад на английском с кучей русицизмов!!!

    • @wadyn95
      @wadyn95 4 месяца назад

      Отраслевой стандарт, термины эти именно так используются, включайте Задорнова чтобы не было англицизмов

    • @101picofarad
      @101picofarad 4 месяца назад

      @@wadyn95 да ладно - ему просто лень писать доклад нормально )

  • @101picofarad
    @101picofarad 4 месяца назад

    А чем ещё не занимаются в тэбанке?

  • @theforcedblocker4655
    @theforcedblocker4655 4 месяца назад

    Это пиздец, конечно. Англицизм на англицизме, получается какая-то ядреная смесь из лексики английского языка и всем остальным из русского языка, понятия не переводятся, а прям так хуярятся, как есть, будто перевода этих слов в природе не существует и быть не может

    • @spyphyfarnsworth6050
      @spyphyfarnsworth6050 4 месяца назад

      ну да вообще интересно было бы посмотреть на видео, где все бы все эти термины были заменены на исконно русские слова. Там бы такой треш получился, что никто бы вообще ничего не понял:)

  • @Piupipu
    @Piupipu 5 месяцев назад

    Красивый

  • @idma94
    @idma94 5 месяцев назад

    Начал слушать

  • @idma94
    @idma94 5 месяцев назад

    А в итоге, под капотом Gemini, и Bert 😅

  • @idma94
    @idma94 5 месяцев назад

    Второе какую модель, GPT? Куда хепс тиры алайменты, слишком завуалированные теримины не популярные в машинном обучении

  • @idma94
    @idma94 5 месяцев назад

    У кого во-первых 1000 тренеров ИИ?

  • @user-of-world
    @user-of-world 5 месяцев назад

    Инсайд видео: в промте попросите llm рассуждать и аргументировать каждый этап принятия промежуточного решения.

  • @Denis.Kochetov
    @Denis.Kochetov 5 месяцев назад

    Когда аспирантура будет?

  • @Володя-щ4ю
    @Володя-щ4ю 5 месяцев назад

    Картина, начало проекта. Итог и урок, стратегия наша. Перечень важных ошибок труда и управы, откроет глаза. Советы, курс и страну потеряли, а по факту, они были у нас. Познаём себя и науку, инструмент бытия. От интереса студента, нашей надежды. Лучшее в мире образование, а по делам. Страна бензоколонка, ресурсы без передела, дайте денег мы купим. И многие миллионы инженеров, о личном новаторстве, никогда и не думали. А для жизни, где берёте средства, не выполняя работу свою. Начальник всё решает один, инженер не бастует спустя малое время, телок с поводком. Кто посмел устранить, вечный творческий стимул мотор, борьбу мнений в поиске истины. Полстолетия нет развития, что появилось купили. Наука, её голова, академики и доктора, за такие дела и порядок, не отвечают, ждут мужика. Ленин сказал, контроль и контроль. Если хотя миллиону таких инженеров, в каждые три года в дипломе, штемпель поставим. Безыдейный слабак, по труду нет способности, что получим. Рабочего обложили нормативным контролем. Каждый шофёр отвечает за перевозки, за каждый час тонну и километр. В деревне, кругом трудовой норматив, личный и общий. Каждый инженер имея диплом, мотор для прогресса, за развитие не отвечает как и наука. Он технический соучастник, учётчик чужого труда, активный попутчик в зарплате. Ладно оставим, смотрим управу после соединим. И сразу отметим, где грамотный человек, там беда. Наука, участия не приняла в устройстве уклада мечты, не решала копила вопросы. Даже с пинка и коленки, ведь грозно указано было перстом, без теории тактики нам смерть. Слово стратега и нету страны. Решили, щуку утопим, пусть паук узурпатор начальник правитель царёк, справедливо устроит народовластие и науку саму. После царя и капиталиста, кругом усадили тупо начальника С общей кассой рабочей, в тёмную от коллектива. Шаг роковой. Самый малый начальник, не сразу но станет, злом самым большим. Карьерист коррупционер, вор общака, закрепостит десятки и сотни лучших себя. Он будет умный кругом, красным директором станет, все дураки. Важное место. Начинающий инженер, будучи в силе интереса высокого, через год потеряет его, вкус новаторства не узнает. Как и миллионы тех инженеров, отупеют от живого не участия в деле развития. Скажут, а как ты хотел. Всё на равных решим, лишь затем ты начальник я начинающий. Что правильно выгодно всем то начальнику смерть, надо быть лидером а не начальником. Суть вопроса. Помимо плана, пять процентов что на развитие ежемесячно выделяем. Не тратим по мелочи а заводим посильное меньшее дело, с быстрой отдачей. Умножим процент для общего роста, социалку наполним товаром в план не попавшим. План станет гибким, без лишних артелей. Так будем искать исправлять ошибки свои, или будем шуметь и петлять, так на авось из ничего. Марксисты школы создали, однако не замечали закрепощенный властью умственный труд. Не создали по существу, творческий принцип социализма. Метод коллективных решений, с отбором не средних а лучших решений. Не понимали, без духовного фактора, лукавой науки подхвата новаторства, трудовые силы не полноценны слабы. Диктатура советы не родила, с отбором способных им зачем, стала глупой дубиной, слепой поводырь. И времени было в достатке, до развала страны, но эти прохвосты опять ищут власти, не понимая куда Марксизм развивать. А как не понять, не нужен эгоист барыга бизнесмен, нужен инженер единой команды. Не научимся коллективно решать в труде в науке в стране, грош нам цена. Советы в труде, суть начало социализма без Революции. Перво зерно, не власть в стране, не партия болтунов, нет и плана пока. А любое хозяйство, с коллективной управой, кто запрещает. Они в деле должны себя показать, завлечь и других, вытеснить старый уклад эксплуатации. И главный урок. Наука, не имея порядка в себе, не способна совместно решать, быть впереди, без команды искать самое важное. Из чего и получили, трудовой и духовный тупик. Наука главный виновник развала страны, предательство многих, всё было потом, результат тупика. С такою наукой, нам смерть. Трудовой отбор сосредоточит, всех активными делает, без отбора в науке рассеянность, пофигизм безответственность. А посему, науку ждёт парадигма реформа Томаса Куна. Новая форма, порядок другой и новый учёт, как в религии новый завет. С получением третей силы, помимо денег и власти, от науки коллективного Я. И характерный маркер и признак. Если наука из многих вопросов, не способна выделить главный. Дающий начало проекту всему, как ГОЭЛРО в индустрии мы помним. Значит нет у неё здравомыслия, значит нет и науки самой Есть пардон, толпа или сброд эгоистов, такими академиками и докторами будут править не то криминал и предатели всякие, но и чужие рабы. И ещё, сегодня наука стоит на подхвате, на посылках у бизнесмена барыги, в реверансе у банкира ростовщика. Ждёт приема у двери начальника, руку держит под козырек. Ожидая пенок или под дых, и всё ругает пассивный народ. Не начальник царек проходимец и временщик, должен страну создавать, а понятно наука. Но у науки пока, нет ума своего, нет порядка нет голоса и опыта жизни, а знания, это не ум. Всё решает начальник, он не может, всё устроить научно и справедливо, но против себя любимого. Наука не может, эгоизм в науке, превышает эгоизм олигархов. Жду ответа, пенсионер Владимир.

  • @вика-з7ж2ж
    @вика-з7ж2ж 5 месяцев назад

    Одни банкиры😂😂😂 а вот оплаты через окв 643 не отображаются у наемников частных собственников которые зарплаты на Мосбирже получают, которых НКО оформили. 😂😂😂

  • @pspetrov
    @pspetrov 5 месяцев назад

    так и не понял, почему tesseract не подошел?

  • @SibrelDOTcom
    @SibrelDOTcom 5 месяцев назад

    ruclips.net/video/ELPmVA4IAN4/видео.html

  • @pozarkov
    @pozarkov 5 месяцев назад

    почему просто не купить и вкатить продукт Abby, которая 20 лет потратила на ocr? Зачем для этого нанимать несколько команд, брать архитектора и повторять путь, который прошёл коммерческий OCR много лет назад?

    • @Matantsev
      @Matantsev 4 месяца назад

      В какой-то момент api Abbyy стала недоступна из-за санкций

    • @pozarkov
      @pozarkov 4 месяца назад

      @@Matantsev эм, они же Росс бизнес выделили и там всё что было - бери и юзай, нет?

  • @94SERP
    @94SERP 5 месяцев назад

    Елена, подача супер, как и сам доклад! Респект!

  • @vlad-n-ag
    @vlad-n-ag 5 месяцев назад

    Не совсем понятно, какие преимущества даёт большая языковая модель по сравнению с набором специализированных, которые можно затем комбинировать под разные задачи. Обучать их проще, инференс - на порядки дешевле, результаты могут получаться сопоставимые с тем, что получается на выходе LLM.

    • @mqtrade5743
      @mqtrade5743 5 месяцев назад

      Напиши плиз какие специализированные модели есть? Первый раз слышу просто

    • @vlad-n-ag
      @vlad-n-ag 5 месяцев назад

      @@mqtrade5743 - классификаторы - суммаризаторы - переводчики - преобразователи (text-to- -speech, text-to-image, text-to-textб и т.д.) Можете поискать на Обниморде более предметно. Например модели Михаила Утробина для перевода русский/английский/китайский.

  • @firstnofate
    @firstnofate 6 месяцев назад

    Докладчику бы самому не помешало почистить свою речь от мусора.

  • @tushevsergey
    @tushevsergey 6 месяцев назад

    Отличное выступление, презентация более чем доступна для понимания. Вот только в конце опечатка - одинНадцать должно быть, 2 "Н". Ну, раз уж мы про нормализацию текста говорим)

  • @ds_sss_rank
    @ds_sss_rank 7 месяцев назад

    Вы очень крутые, давайте больше рексиса

  • @Fenixtremo
    @Fenixtremo 7 месяцев назад

    Мы под санкциями, поэтому не можем использовать chatGPT. А ещё надо делать импортозамещение

  • @Giblotus
    @Giblotus 7 месяцев назад

    Очень интересно было увидеть подобного рода разбор. Уважение рассказчику. Печально что это Тинькофф. История с обманом людей озвучки оставляют на Тинькофф тень, которая уходит в кучу других уголовных историй. Неуплата налогов, суды со своими же клиентами и отбирания у них денег. Суд с блогером.

  • @blackbigdeath
    @blackbigdeath 8 месяцев назад

    Нормально, только почему используете термин Расстояние Жикарда, если есть Расстояние Левенштейна?

    • @vlad-n-ag
      @vlad-n-ag 5 месяцев назад

      Расстояние Левенштейна - минимальное число правок содержимого одного из множеств, чтобы оно стало идентично другому. Сходство Жаккара - отношение числа общих элементов двух множеств к числу элементов обоих множеств (расстояние Жаккара = 1- сходство Жаккара). Судя по формуле на слайде используется сходство Жаккара.

    • @blackbigdeath
      @blackbigdeath 5 месяцев назад

      ​@@vlad-n-agспасибо

  • @andreyleonov6400
    @andreyleonov6400 8 месяцев назад

    Очень интересно. Большое спасибо❤

  • @andreyleonov6400
    @andreyleonov6400 8 месяцев назад

    Очень интересно. Большое спасибо❤

  • @dmitryp1257
    @dmitryp1257 8 месяцев назад

    Используя SLIC-HF-sample-rank, где мы возьмём обученную reward-модель, чтобы расставить оценки SFT-датасету?

    • @АнтонСеливанов-ь2о
      @АнтонСеливанов-ь2о 6 месяцев назад

      Полагаю, изначально можно обучить на размеченных данных, как в других стратегиях, а потом уже генерировать и дообучать. Но вообще надо в статье посмотреть)

  • @Aidar_Zaripov
    @Aidar_Zaripov 9 месяцев назад

    Когда Russian LLM можно будет скачать дайте знать пожалуйста.

    • @vlad-n-ag
      @vlad-n-ag 5 месяцев назад

      Есть русская базовая модель Сбера. Доступна для скачивания на Обниморде.

  • @examore-lite
    @examore-lite 9 месяцев назад

    Спасибо!

  • @ИванТолстых-п6я
    @ИванТолстых-п6я 9 месяцев назад

    Спасибо спикеру, было интересно!

  • @РоманКаленкин
    @РоманКаленкин 9 месяцев назад

    Какой способ деления трейн тест в рекомендациях правильный?

    • @yellow_ai
      @yellow_ai 9 месяцев назад

      global timeline

    • @fcz1488
      @fcz1488 5 месяцев назад

      @@yellow_ai почему сплит по людям неправильный и в чем там лик?

    • @wadyn95
      @wadyn95 Месяц назад

      Там может быть лик через популярные айтемы ? Ну это моё дилетантское предположение

  • @mariab.6311
    @mariab.6311 9 месяцев назад

    Очень интересно!