BayesGroup.ru
BayesGroup.ru
  • Видео 179
  • Просмотров 636 076
AI Alignment problem [in Russian]
Докладчик: Михаил Самин (CEO, AudD)
Не кажется непредставимым, что в течение следующего десятилетия, искусственный интеллект может превзойти способности людей в большинстве важных областей. Среди исследователей, работающих над созданием общего ИИ, есть растущее ожидание, что без усилий для предотвращения этого, ИИ могут выучить и преследовать цели, нежеланные с точки зрения людей, что может привести к катастрофическим последствиям. Десятки сотрудников OpenAI, Anthropic и DeepMind, работающих над проблемой, обычно называли мне числа от 15 до 80 процентов вероятности, что человечество будет буквально уничтожено искусственным интеллектом в ближайшие два десятилетия. Я постараюсь описать базов...
Просмотров: 1 853

Видео

Дискуссионный семинар о диффузных моделях
Просмотров 629Год назад
Докладчики: Никита Морозов (НИУ ВШЭ, Skoltech), Вячеслав Мещанинов (НИУ ВШЭ, МГУ), Григорий Бартош (AMLab, UvA) Как и в предыдущем осеннем сезоне, в весеннем у нас будет один семинар в необычном формате. Выступят три докладчика с небольшими (по 20-25 минут) докладами на общую тему диффузных моделей. Мы поговорим о применении диффузных моделей для генерации 3d объектов. Обсудим техники, позволяю...
Topological data analysis and machine learning [in Russian]
Просмотров 708Год назад
Докладчик: Илья Трофимов (Skoltech) В последнее время были разработаны эффективные методы вычислительной топологии. Концепции, использовавшиеся ранее только в математике (например, персистентные гомологии) нашли применение в машинном обучении. Топология описывает "форму" данных на разных масштабах. Топологический "взгляд" дополняет существующие подходы к анализу данных. В данном докладе будет в...
Image Manipulation by Diffusion Models [in Russian]
Просмотров 457Год назад
Докладчик: Айбек Аланов (AIRI, НИУ ВШЭ) Large-scale text-to-image diffusion models have shown their impressive ability to synthesize diverse and high-quality images. However, it is still challenging to directly apply these models for editing real images or generating special concepts provided by the user. Recently there were proposed many works to deal with these problems. In this seminar, we w...
Self-supervised Pre-training with Masked Image Modeling [in Russian]
Просмотров 538Год назад
Докладчик: Ильдус Садртдинов (НИУ ВШЭ, Сколтех) Consistent success of BERT-like models in language processing has lead to attempts to adapt masked modeling task to other data domains and create a universal framework for pre-training without manual annotations. In this seminar, we will have an overview of relatively recent (2021-2022) approaches for masked image modeling (MIM). We will start wit...
Star-Shaped Denoising Diffusion Probabilistic Models [in Russian]
Просмотров 368Год назад
Докладчик: Андрей Охотин (НИУ ВШЭ, МГУ) Methods based on Denoising Diffusion Probabilistic Models (DDPM) became a ubiquitous tool in generative modelling. However, they are mostly limited to Gaussian and discrete diffusion processes. We propose Star-Shaped Denoising Diffusion Probabilistic Models (SS-DDPM), a model with a non-Markovian diffusion-like noising process. In the case of Gaussian dis...
Monolingual and Cross-lingual Text Detoxification [in Russian]
Просмотров 298Год назад
Докладчик: Александр Панченко (Associate Professor, Skoltech, NLP Lab, AI Center) В этом докладе мы рассмотрим задачу переноса текстового стиля на примере задачи детоксикации текста. В первой части доклада мы рассмотрим моноязычный эксперимент сбора параллельных данных для задачи детоксикации. Мы собираем нетоксичные парафразы для английских и русских токсичных предложений. Используя полученный...
SketchBoost: быстрый бустинг для multiclass/multilabel классификации и multitask регрессии
Просмотров 609Год назад
Докладчик: Антон Вахрушев (Sber AI Lab) Градиентный бустинг - один из самых эффективных инструментов для решения задач машинного обучения на табличных данных. Однако в задачах, когда требуется прогнозировать сразу несколько выходов, таких как multiclass/multilabel классификация и multitask регрессия, построение бустинга на деревьях требует существенных вычислительных затрат и может занимать неп...
Finemap-MiXeR: A variational Bayesian approach for genetic finemapping
Просмотров 412Год назад
Speakers: Bayram Akdeniz, Oleksandr Frei (Norwegian Centre for Mental Disorders Research (NORMENT), University of Oslo; Centre for Bioinformatics, Department of Informatics, University of Oslo) Genome-wide association studies (GWAS) implicate large clusters of highly correlated genetic variants, which makes it hard to interpret the results from a biological point of view. Several methods in sta...
Все дело в языке, а он ― меняется. И поэтому...
Просмотров 765Год назад
Докладчик: Екатерина Владимировна Рахилина, лингвист, доктор филологических наук, профессор НИУ ВШЭ (Школа лингвистики) В докладе речь пойдет о языковых изменениях. Это постоянный и неуправляемый процесс, связанный с изменением значений большого числа переменных. Однако прежде чем научиться его измерять, вычислять и предсказывать, нужно убедиться в том, что он есть и масштабен причем не только ...
From GPT-3 to ChatGPT: Training Language Models on Instructions and Human Feedback [in Russian]
Просмотров 2,6 тыс.Год назад
Speaker: Max Ryabinin, Yandex Research, HSE University В 2020 году исследователи из OpenAI обнаружили, что большие языковые модели можно не дообучать на целевой задаче: достаточно подать в качестве контекста несколько примеров для этой задачи с ответами на них, а иногда хватает и вовсе текстовой инструкции. После этого научное сообщество стало активно развивать способы, позволяющие повысить кач...
Domain Adaptation of GANs [in Russian]
Просмотров 469Год назад
Speaker: Aibek Alanov, AIRI, Higher School of Economics Slides: github.com/bayesgroup/bayesgroup.github.io/blob/master/bmml_sem/2022/Alanov_DomainAdaptationofGANs_09.12.2022.pdf Современные модели ГАНов требуют больших датасетов высокого качества для успешного обучения, что является серьезным ограничением на практике. Мы рассмотрим методы доменной адаптации, которые позволяют обучить ГАН на дом...
Diffusion Models in Latent Space [in Russian]
Просмотров 683Год назад
Speaker: Tingir Badmaev, Higher School of Economics Slides: github.com/bayesgroup/bayesgroup.github.io/blob/master/bmml_sem/2022/Badmaev_Diffusion_models_in_latent_space_02_12_22.pdf За последние пару лет диффузионные модели продемонстрировали отличное качество генерации, сопоставимое с sota-алгоритмами на основе GAN и VAE. Однако зачастую процесс диффузии происходит в пространстве данных, кото...
Discovering Faster Matrix Multiplication Algorithms with Reinforcement Learning [in Russian]
Просмотров 541Год назад
Speaker: Alexander Novikov, DeepMind Slides: github.com/bayesgroup/bayesgroup.github.io/blob/master/bmml_sem/2022/Novikov et al._Discovering faster matrix multiplication algorithms with reinforcement learning.pdf В данной работе мы применили модифицированную программу AlphaZero для поиска быстрых алгоритмов умножения матриц в символьном виде. Мы фокусируемся на поиске быстрых алгоритмов умножен...
Квантовая механика
Просмотров 1,2 тыс.Год назад
Докладчик: Илья Зиганшин, физический факультет МГУ им. М.В. Ломоносова Презентация: github.com/bayesgroup/bayesgroup.github.io/blob/master/bmml_sem/2022/Ziganshin_Quantum_Mechanics_17_11_22.pdf Доклад полупопулярно излагает основы квантовой механики. В рассказе разберем ее аксиоматику. Разберем формализм чистых и смешанных состояний, разрешим парадокс кота Шредингера на основе явления декогерен...
Станислав Дробышевский: вопросно-ответная сессия
Просмотров 322 тыс.Год назад
Станислав Дробышевский: вопросно-ответная сессия
Training Scale-Invariant Neural Networks on the Sphere Can Happen in Three Regimes [in Russian]
Просмотров 360Год назад
Training Scale-Invariant Neural Networks on the Sphere Can Happen in Three Regimes [in Russian]
Overview of Controllable Generation of Text and Images [in Russian]
Просмотров 314Год назад
Overview of Controllable Generation of Text and Images [in Russian]
Diffusion Models: Discussion Seminar, Part 2 [in Russian]
Просмотров 417Год назад
Diffusion Models: Discussion Seminar, Part 2 [in Russian]
Diffusion Models: Discussion Seminar, Part 1 [in Russian]
Просмотров 848Год назад
Diffusion Models: Discussion Seminar, Part 1 [in Russian]
Object-Centric Representations with Slot Attention for Visual Tasks [in Russian]
Просмотров 1,8 тыс.Год назад
Object-Centric Representations with Slot Attention for Visual Tasks [in Russian]
Neural Optimal Transport [in Russian]
Просмотров 9222 года назад
Neural Optimal Transport [in Russian]
Digital Pre-Distortion [in Russian]
Просмотров 2792 года назад
Digital Pre-Distortion [in Russian]
Минимизация энергии в моделях Изинга с помощью нейронных сетей
Просмотров 4202 года назад
Минимизация энергии в моделях Изинга с помощью нейронных сетей
Novel View Synthesis [in Russian]
Просмотров 2712 года назад
Novel View Synthesis [in Russian]
MLP for CV and NLP problems [in Russian]
Просмотров 3122 года назад
MLP for CV and NLP problems [in Russian]
Autoformer and Autoregressive Denoising Diffusion Models for Time Series Forecasting [in Russian]
Просмотров 7872 года назад
Autoformer and Autoregressive Denoising Diffusion Models for Time Series Forecasting [in Russian]
Mathematics of Multi-Antenna Transmission in 5G networks [in Russian]
Просмотров 3072 года назад
Mathematics of Multi-Antenna Transmission in 5G networks [in Russian]
Диффузионные модели, восстановление изображений через обратные линейные задачи
Просмотров 1,1 тыс.2 года назад
Диффузионные модели, восстановление изображений через обратные линейные задачи
Random Matrix Theory approach to Deep Learning Optimisation and Generalisation [in English]
Просмотров 1,1 тыс.2 года назад
Random Matrix Theory approach to Deep Learning Optimisation and Generalisation [in English]

Комментарии

  • @micahdelaurentis6551
    @micahdelaurentis6551 16 дней назад

    why would you put the camera there?

  • @progamer1196
    @progamer1196 28 дней назад

    Very well put together presentation. Great job.

  • @PirminLemberger
    @PirminLemberger Месяц назад

    Congratulation for the patience of the speaker who is facing many repetitive and naive questions from an audience which apparently had never thought about why causality is important in machine learning. The speaker has even to explain the standard notation for composing functions... There is a problem with (part of) the audience not with the speaker which is competent, although the clarity of the notations could (and should) be improved..

  • @nauseouscustody1440
    @nauseouscustody1440 6 месяцев назад

    Интересно. Спасибо. По Информеру странные результаты показаны - отличаются от результатов автора в худшую сторону. И в Информере применяется несколько разных механизмов внимания, в том числе Вероятностное (Prob Attention). И внимание на сезонность есть, правда не через автокорреляцию, а через выделение временных периодов, в том числе "бизнесс дней".

  • @ВладимирКучеренко-ъ9н
    @ВладимирКучеренко-ъ9н 6 месяцев назад

    У каждого свое мнение на частично просмотренный бред. Вообще то интеллект ни как не связан со свободной энергией. И если проштудировать помойную яму "интернет", то можно прийти к единственному выводу, мы живем по коммерческим сегодняшним законам. История - вранье, формулы - извращены, как и их воры, ой писатели или переработаны под коммерцию и нет научных работников, есть руководители, которыми манипулирует государство, от которого оно получает зарплату. Что касается свободной энергии, все опускается со школьной программы, типа, Вы это должны знать, это основа. Вы можете эту информацию подчерпнуть в солидных лабораториях, занимающихся определёнными разработками, имеющим допуск к литературе, типа под грфом секретно, части из которых проскакивают по интернету.

  • @해위잉
    @해위잉 6 месяцев назад

    Fantastic,,,, i want to go samsung

  • @ShrihanPande
    @ShrihanPande 8 месяцев назад

    amazing

  • @xorelgo
    @xorelgo 8 месяцев назад

    Выступлению как будто не хватает структуры, из-за этого сложновато воспринимать. Просто как будто набор интересных и сложных идей: вот есть инструментальная сходимость, а еще есть меса оптимизаторы, а еще вот гроккинг. В идеале объединить бы все это в какую-то одну общую складную историю.

  • @denzosh1173
    @denzosh1173 9 месяцев назад

    Дорогой Владимир Георгиевич, а может быть такое , что ряд больших взрывов и схлопываний было?

  • @denzosh1173
    @denzosh1173 9 месяцев назад

    Много вопросов, ну пока воздержусь .....

  • @denzosh1173
    @denzosh1173 9 месяцев назад

    Мне ещё поравились рассказы Сергея Попова. Там такое Георгиевич....

  • @denzosh1173
    @denzosh1173 9 месяцев назад

    Владимир Георгиевич , а откуда Вы такой артистизм преподносите!?!? Такой человек как Вы очень редко, очень приятно. Вы от бога! Пусть он научным будет! Ну как есть ...

  • @Vladimir-nn2zm
    @Vladimir-nn2zm 9 месяцев назад

    О, гигаваты света будут давить на парус. 😊 Нет ещё таких мощных лазеров. 1 энергоблок АЭС имеет мощность 1 гват.

  • @Vladimir-nn2zm
    @Vladimir-nn2zm 9 месяцев назад

    Улекислый газ разве яд? По моему он нейтрален как азот. Ядовит СО - угарный газ. Надо только кислород в со2 добавить и можно дышать.

  • @МихаилГилевич-ф3ъ
    @МихаилГилевич-ф3ъ 11 месяцев назад

    Бурно размножаются менее цивилизованные сообщества Азии, Востока и Африки. Естественно, что все развитие в дальнейшем будет соответствовать новому населению. Хочется верить, что они научаться использовать огонь.

  • @ВладимирЛитвин-т8м
    @ВладимирЛитвин-т8м 11 месяцев назад

    Дядька интересно глаголит. Андромеды ему в подарок

  • @АнтонРоманов-с8ь

    Уникальный человек, низкий поклон.

  • @alex_shadow_1978
    @alex_shadow_1978 Год назад

    Извените, но парящие города на высоте 55 км в ядовитой атмосфере - это моразм ...

  • @freelspb
    @freelspb Год назад

    Видео в первую очередь действительно интересно небанальными вопросами.

  • @ДаниилАврамец
    @ДаниилАврамец Год назад

    Почему бы намеренно не заселять ближайшие планеты и планеты-спутники земными бактериями или водорослями?

  • @bingbingsun6304
    @bingbingsun6304 Год назад

    学习

  • @bingbingsun6304
    @bingbingsun6304 Год назад

    学习

  • @edoardoguerriero2464
    @edoardoguerriero2464 Год назад

    Amazing content and explanations! 👏👏👏

  • @Figaro_Anonim
    @Figaro_Anonim Год назад

    Платон не австралопитек и древние евреи тоже не питекантропы. 🤣

  • @АлексейСвищев-н7к

    Запись с головой говорящего лучше делать с другого ракурса. На уровне лица. Это правило хорошего тона.

    • @MikhailSamin
      @MikhailSamin Год назад

      ¯\_(ツ)_/¯ прошу прощения Не успел настроить нормальную камеру, поэтому пользовался встроенной в ноут (она снизу экрана)

  • @bingbingsun6304
    @bingbingsun6304 Год назад

    very good talk!

  • @РоманОлеговичДегтярев

    Спасибо большое за ваши доклады, очень много полезного узнаю для работы

  • @Humarium
    @Humarium Год назад

    Какие рациональные ученые, вся наука сплошь коррупционных сфера, у них даде вода в море загибается создавая бугор, во лепит горбатого Дробыш, скоморох не иначе от науки, у меня ищ ушей кровь закапала, рука еле дотянулась в конвульсиях до кнопки выключить этот поток бездоазательной воды

  • @КонстантинШарашов

    понятно, если завтра потоп, то Дробышевские вымрут, а Кличко с Валуевым выживут.

  • @yuryrabyshko4837
    @yuryrabyshko4837 Год назад

    Уж не этот ли лохматый пытался отжать книги у проф. Савельева?

  • @UlanOrc
    @UlanOrc Год назад

    Дробышевский только что обосновал необходимость религии для сплочения этноса в сегодняшнем обществе. 😮 Ну круто.

  • @salvadordali7611
    @salvadordali7611 Год назад

    После вопроса о Платоне уровень познаний Дробышевского не требует дальнейшего анализа)

  • @nick2209
    @nick2209 Год назад

    Очень супер видос!!! Спасибо за здравое обоснование бытия живого!!!

  • @victorr-name
    @victorr-name Год назад

    Было интересно, размышления Дробышевского своеобразные, не стандартные, как и ответы на вопросы. Но слушать его надо на скорости 0.75 . А то, как и ведущий, не успеете вспомнить, когда последний раз бегали по саванне и ели тухлую жирафину

  • @зассср
    @зассср Год назад

    вы кто?

  • @АлексейГладких-н7э

    Как всегда брешет .... И кто его продвигает ??? видимо диверсия для отупления Россиян.

  • @PushkaryovVsevolod
    @PushkaryovVsevolod Год назад

    Придет время когда за науку будут сжигать на костре.

  • @РусьМировеева
    @РусьМировеева Год назад

    Почему умные люди не обсуждают продолжающуюся приватизацию?????!

  • @user-sijanieswet
    @user-sijanieswet Год назад

    Что ты несёшь??))))

  • @Виричу-Цукрачу
    @Виричу-Цукрачу Год назад

    Таким как эти болтуны , вообще по жизни без ИИ не справиться по жизни)) А человек и без ИИ обошёлся до сих пор

  • @uralmitra
    @uralmitra Год назад

    мда

  • @pavelantonov251
    @pavelantonov251 Год назад

    Интересно-то как! Даже не думалось почему-то (хотя следовало бы) о том, что мозг-интеллект-сознание-психика в том числе и сигналы от ног и вообще от всех клеток организма, и без таких обратных связей уже и мозг как бы и не совсем мозг и интеллект не интеллект. Будет правительство без страны, или там медицина без больных, универ без студентов... ну да. Уж тем более AI крышу от высокого тестостерона не снесет... я о целеполагании, из чего таковое могло бы возникнуть у AI, лишенного голода, боли, страха и т.п.

  • @nm3125
    @nm3125 Год назад

    Ну ты и дерьмо втираешь)) все пиздеж

  • @ВиталийКотенев-к5ь

    Добрешевсвкий, достал, своимм Эээммннн ааамннн , эээээ

  • @Shapker
    @Shapker Год назад

    Добрый день, вопрос. Можно ли было бы провести сравнительную характеристику между человечеством и любым вирусом? Можно ли сказать, что мы являемся болезнью планеты? Распространение, адаптация к хосту, выживаемость и приспособляемость. Сравнение с ковидом или чумой, пожалуйста. И если игнорировать сознание, ведь оно лишь инструмент для еще большего распространения, можно ли утверждать, что мы - разумная болезнь планеты? Чума, осознающая себя как чуму, к чему может привести нас?

  • @СергейБарамыгин

    Мелодрамы Украины2016

  • @wictor1999
    @wictor1999 Год назад

    Австралопитек говорить научился , теперь не остановишь . Команды замолчать не понимает .

  • @nadekoneko2266
    @nadekoneko2266 Год назад

    Платон - не австралопитек, и древние евреи тоже не питекантропы👌 добавляем в цитатник

  • @АлександрКузнецов-н8ь7с

    почему-то он мне напоминает Егора Летова

  • @константин-ф5ч8ф

    Он бредит.