Что такое генеративно-состязательные сети (GAN) | #31 нейросети на Python

Поделиться
HTML-код
  • Опубликовано: 30 янв 2025

Комментарии • 36

  • @ЮрийГребеников
    @ЮрийГребеников Год назад +7

    Вам при жизни памятник надо поставить за Вашу работу! Спасибо!

  • @НиколайЛощинин-м7ч
    @НиколайЛощинин-м7ч 4 месяца назад +2

    Очень доступно объяснено, спасибо

  • @ksiva__
    @ksiva__ 11 месяцев назад +1

    Спасибо огромное за такое понятное и структурированное объяснение, контента лучше в открытом доступе не найти! Действительно, за такой титанический труд нужно памятник при жизни ставить!
    Сейчас все большую популярность для генерации изображений/видео набирают диффузные модели. Подскажите, есть ли в планах создание ролика по данной тематике? Очень бы хотелось послушать именно Ваше объяснение

  • @sergeygetto7480
    @sergeygetto7480 3 года назад +6

    Единственные пробел в знаниях на момент окончания курса, который я заметил - это пробел в знания библиотеки matplotlib XD Всё понятно кроме этой библиотеки, но с учётом того, что разбор данной библиотеки есть на этом канале. Думаю пробел в знаниях будет устранён. Спасибо за материал!)

  • @sergeyworm1476
    @sergeyworm1476 Год назад +1

    Я в восторге от ваших курсов! Спасибо!
    А почему вы не просите донат? Сейчас ведь все так делают? Или вы богаты?

  • @user-ce1qy6uf2d
    @user-ce1qy6uf2d 4 года назад +3

    Спасибо!

  • @ИванКурилов-ы3е
    @ИванКурилов-ы3е 3 года назад +1

    Красава!

  • @ryanhackery6515
    @ryanhackery6515 Год назад +1

    Здравствуйте. У меня вопрос, как сделать реалистичное изображение? Я переделал ваш код на гитхаб, теперь данные для обучения CIFAR-10. И я не могу разобраться, как сделать реалистичные картинки? Если это нужно, я работаю в гугл колаб GPU t4.

  • @lit1041
    @lit1041 Год назад +3

    Можно вопрос? А разве если на дискриминатор подавать только выход генератора (или реальное изображение), не получится ли такая ситуация, при которой генератор будет генерировать всегда одно и то же изображение, независимо от его входа? Насколько я понимаю, дискриминатор также должен получать на вход помимо изображения генератора ещё и входные данные, которые получил генератор на вход для генерации этого изображения. Точно также и с реальными данными - на вход дискриминатора стоит подавать как реальное изображение, так и вход, которому соответствует это реальное изображение

  • @НикитаДемидов-ц1ю
    @НикитаДемидов-ц1ю 3 года назад +2

    Спасибо, все понятно.

    • @zanejimmy6905
      @zanejimmy6905 3 года назад

      i realize I am kind of randomly asking but does anybody know of a good website to stream newly released series online ?

    • @jaxonjerry8581
      @jaxonjerry8581 3 года назад

      @Zane Jimmy i watch on FlixZone. You can find it by googling =)

    • @jonprinceton7986
      @jonprinceton7986 3 года назад

      @Jaxon Jerry Yea, been watching on flixzone for since april myself :D

    • @zanejimmy6905
      @zanejimmy6905 3 года назад

      @Jaxon Jerry Thanks, signed up and it seems like they got a lot of movies there :D Appreciate it !!

    • @jaxonjerry8581
      @jaxonjerry8581 3 года назад

      @Zane Jimmy Happy to help xD

  • @upjumpful
    @upjumpful 9 месяцев назад +2

    Спасибо за лекцию. Возник вопрос: а что именно значит "показатель качества должен быть максимален для сгенерированных изображений"? loss_dis_fake мы стремимся сделать меньше, а loss_dis считается на основе реального и фейкового изображения сразу, а не по отдельности. Ну или как именно выглядит показатель качества для сгенерированных изображений, раз уж мы стремимся сделать его максимальным?

    • @talkingbirb2808
      @talkingbirb2808 5 месяцев назад

      loss_dis = loss_dis_fake+loss_dis_true и используется в дискриминаторе
      loss_gen используется в генераторе
      то что показатель качества должен быть максимален для сгенерированных изображений означает, что для генератора мы хотим, чтобы дискриминатор выдал единицу, на чем и основывается loss_gen. (Если я правильно все понял)

  • @evgzhu8558
    @evgzhu8558 3 года назад +1

    Cпасибо! 5+

  • @Michael-n9w
    @Michael-n9w 4 года назад +2

    Не могли бы указать список литературы, которую используете в курсе?

    • @selfedu_rus
      @selfedu_rus  4 года назад +4

      конкретно по GAN - интернет + собственный опыт, а по нейронкам, как введение: 1. Хайекен. Нейронные сети (полный курс), 2. Bishop Neural networks for pattern recognition

  • @Илья-ф8ц4ы
    @Илья-ф8ц4ы Год назад +1

    На сколько я понял, GAN можно использовать не только для создания реалистичных изображений, но и для звука.

    • @selfedu_rus
      @selfedu_rus  Год назад

      да, для чего угодно!

  • @dubinin_s
    @dubinin_s 4 года назад +2

    Спасибо за видео. Скажите, пример где машины едут по улице - это реальный пример?

    • @selfedu_rus
      @selfedu_rus  4 года назад +2

      да, все примеры реальные и это еще далеко не все возможности, эти сети вообще творят чудеса! )

    • @dubinin_s
      @dubinin_s 4 года назад +4

      @@selfedu_rus Блин, эти железяки совсем уже страх потеряли. Но если начнется война, пусть они знают, что пересматривая Терминатора я всегда был на стороне Скайнет.

    • @dubinin_s
      @dubinin_s 4 года назад

      @@selfedu_rus Получается как в шпионских фильмах, можно будет прочитать надпись на бумажке которую плохо видно. Более того, другая нейронка прочитает ее, да еще и голосом твоего любимого актера))

    • @ValstanSav
      @ValstanSav 4 года назад +4

      @@dubinin_s "Получается как в шпионских фильмах, можно будет прочитать надпись на бумажке которую плохо видно" - в любом случае, когда информация изначальная потеряна, то результат будет считаться ДОГАДКОЙ, но не ИСТИНОЙ.

    • @dubinin_s
      @dubinin_s 4 года назад

      @@ValstanSav Как показали предыдущие видео, с ДОГАДКАМИ у нейронок все в порядке))

  • @pages777
    @pages777 3 месяца назад

    21102024

  • @alexeysavostin
    @alexeysavostin 4 года назад +1

    Спасибо!

  • @КоляВасильев-о5и
    @КоляВасильев-о5и 3 года назад +1

    Спасибо!

  • @ДарьяКарелина-к7ю

    Спасибо!