Лекция. Генеративные модели, автоэнкодеры

Поделиться
HTML-код
  • Опубликовано: 30 янв 2025

Комментарии • 19

  • @XoJI991
    @XoJI991 3 года назад +11

    Отличная лекция! Огромное спасибо!

  • @ЕвгенияЕлизейко
    @ЕвгенияЕлизейко Месяц назад

    какие экстремальные трюки с переодеванием))

  • @varivodasergei
    @varivodasergei Год назад

    Как интересно! :)

  • @gogaworm
    @gogaworm Месяц назад

    Почему этот человек не ведёт все лекции :)

  • @МарияТаран-с8щ
    @МарияТаран-с8щ 6 месяцев назад

    Какие подписи к осям в распределении точек? Это мо и дисперсия?

  • @oanovitskij
    @oanovitskij 3 года назад +2

    На 25:01 должно быть для q (x-mu)^2

  • @alili3664
    @alili3664 3 года назад +7

    Хотелось бы получить больше математического обоснования в лекциях

    • @НикитаБалаганский
      @НикитаБалаганский 3 года назад +2

      Я тоже хотел бы все рассказать, но помните о других слушателях, которые не достаточно хорошо разбираются в теории вероятности и мат. анализе. Я сознательно оставил вариационный вывод за рамками этой лекции.

    • @alili3664
      @alili3664 3 года назад

      @@НикитаБалаганский понял, хорошо)

  • @alili3664
    @alili3664 3 года назад +1

    30:24, от 0 до -1.5 по ОX и OY. Но масштабы на двух графиках разные, и, как я понимаю, нет взаимооднозначного преобразования между графиками. Или есть. Можете пояснить?

    • @НикитаБалаганский
      @НикитаБалаганский 3 года назад

      Возможно такое преобразование есть, но суть даже не в этом. Главная мысль в том, что даже после масштабирования итд мы нормально не сможем сэмплировать из квадрата [-1.5, 1.5] x [-1.5, 1.5].
      По поводу преобразований: вы видимо хотите построить биекцию из одного пространства в другое. Такие модели существуют и называются flow. Если вкратце, они как раз строят биекцию из пространства с "плохим" распределением в пространства с нормальным распределением. К сожалению, этот материал не влез в программу.

    • @alili3664
      @alili3664 3 года назад

      @@НикитаБалаганский хорошо, спасибо!

  • @szhavel
    @szhavel Год назад +1

    31:55 поплыли глаза)

  • @ai_minds_
    @ai_minds_ 2 года назад

    Интересная обзорная лекция, спасибо

  • @DiamondSane
    @DiamondSane 3 года назад

    23:56 не особо понятно что по оси икс на правом графике. верхний предел интегрирования?

  • @DiamondSane
    @DiamondSane 3 года назад

    29:21 здесь было бы приятно знать сколько реально размерность скрытого пространства. На рисунке проекция на 2d или сами распределения?

  • @kamila5207
    @kamila5207 Год назад +1

    не особо внятно и нормально объяснены недостатки автоэнкодера и преимущества вариационного, очень поверхностный материал

  • @СергейРоговой-у6я
    @СергейРоговой-у6я 3 года назад +9

    Ужасная лекция, ничего не объясняется нормально и подробно, все на уровне вот смотрите это так, а некоторое и хуже

  • @АнатолийЦыбиков-ъ2л

    Слишком радужная лекция, глаза слепит...