Сингулярное удовольSVDие

Поделиться
HTML-код
  • Опубликовано: 9 ноя 2024

Комментарии • 53

  • @МаликКадиевНИЯУМИФИИЯФиТ

    Спасибо тебе ОГРОМНОЕ! Неужели это все было так просто)

  • @MrThrash90
    @MrThrash90 3 года назад +49

    Преподавателю просто огромный респект, вот бы весь курс линейной алгебры с Вами посмотреть на ютубе!

  • @ЗакарянАрсен
    @ЗакарянАрсен 6 месяцев назад +3

    Преподаватель очень крут. Не часто встретишь тех, кто свой предмет рассказывает с таким энтузиазмом. Лайк

  • @vasilijkrukovskij5519
    @vasilijkrukovskij5519 3 месяца назад +1

    Благодаря вам понял математическую суть SVD и многие вещи по ТУ, очень этого не хватало. Спасибо вам огромное!

  • @sergeshirokov6064
    @sergeshirokov6064 2 года назад +16

    Лучшее объяснение сингулярного разложения, что я встречал! Алексей, спасибо Вам огромное! Снимаю шляпу!

    • @Zeekless
      @Zeekless  2 года назад +2

      Спасибо Вам!

  • @АлександрКоваленко-р6р
    @АлександрКоваленко-р6р 5 месяцев назад +1

    Вот это красава лектор! Я начал только смотреть и он просто шикарен: объяснение супер, пока лучше во всем Ютуб не нашел чем это!

  • @dansedanse1173
    @dansedanse1173 Год назад +2

    Какое крутое видео! Спасибо вам, Алексей Перегудин! Записывайте ещё, очень хорошо объясняете, как повезло вашим студентам!

  • @ДмитрийСимакин-ь2л
    @ДмитрийСимакин-ь2л 11 месяцев назад +5

    Алексей, Вы даже представить Себе не можете, насколько ценна Ваша запись лекции, огромнейшее Вам спасибо! До чего всё отточено, непосредственно, открыто и увлекательно)
    Уже на 59 минуте получил ментальный ...удовольствие)
    Видна и тщательнейшая подготовка презентации, такое видел только в очень хороших онлайн-школах, но там этим занимаются целые отделы...
    Спасибо Вам ещё раз, именно благодаря Вам когда-то прослушанный курс линейной алгебры (весьма некачественный, увы) вновь заискрился любопытством и лучами понимания!
    Если это как-то возможно, прошу Вас, подарите русскоговорящему сообществу подобный этому видео курс по линейной алгебре, ему не будет ценны! Всех благ.

    • @Zeekless
      @Zeekless  11 месяцев назад +3

      Ох, после такого сообщения хочется жить и создавать!) Спасибо Вам огромное!!!

  • @juliaaleksandrova9859
    @juliaaleksandrova9859 Год назад +2

    Мне кажется, вы лучший преподаватель, которого я встречала! Никто обычно не парится над визуализацией всех-всех понятий, чтобы студентам на интуитивном уровне все было понятно!

  • @gienek_mscislawski
    @gienek_mscislawski 3 года назад +9

    Не думал, что математика бывает настолько затягивающая и простая! Спасибо!

  • @valeriailina7112
    @valeriailina7112 2 года назад +3

    Пересмотрела кучу видео и полностью поняла про сингулярное после вашего. Спасибо!

  • @Tipichny_Zadrot
    @Tipichny_Zadrot 11 месяцев назад

    Алексей Алексеевич, вы лучший преподаватель! Надеюсь, частотные методы в следующем семестре не будут уступать пла!

  • @vadymkos3509
    @vadymkos3509 3 года назад +5

    Спасибо большое, настолько подробно и интересно про сингулярное разложение никто не рассказывал!

  • @sharrish6025
    @sharrish6025 2 года назад +3

    Прекрасная лекция! Спасибо Вам большое!!!

  • @hardmath9340
    @hardmath9340 2 года назад +2

    Очень крутое видео!) В универе пропустил многие вещи мимо ушей, но сейчас все прояснилось.
    Думаю, студентам это точно пригодится.

  • @evgenialakeeva2189
    @evgenialakeeva2189 2 года назад +2

    Спасибо огромное за лекцию, одно удовольствие слушать и понимать! 🔥

  • @pricolno7603
    @pricolno7603 9 месяцев назад

    Очень очень круто,
    очень хочется послушать о чем угодно, но побольше!

  • @mindcore2819
    @mindcore2819 9 месяцев назад

    очень крутое обьяснение тем которые интуитивно вообще не понятно обьясняют везде

  • @blackbigdeath
    @blackbigdeath Год назад

    С трудом успеваю, но продолжайте😅😅😅

  • @dkflbf
    @dkflbf 4 года назад +14

    Таймкоды концов слайдов:
    Свойства ортогональных матриц 13:00
    Симметричные матрицы 27:55
    Спектральное разложение симметричных матриц 31:30
    Сингулярное разложение 43:00
    Коммутативная диаграмма SVD 48:45
    Терминология SVD 51:55 59:30
    Связь с Rangeи NullSpace 1:10:15
    Как находить спектральное разложение 1:15:40 1:18:20
    Псевдо обратная 1:45:10
    Нахождение псевдо обратной 1:46:45
    Решение уравнений 1:53:55 1:59:20

  • @ДмитрийМихалевич-н5т

    Спасибо огромное! Самое подробное и понятное объяснение, вы действительно талантливый преподаватель

  • @Филиппфедотченко
    @Филиппфедотченко 8 месяцев назад

    Знания + позитив, респект

  • @NubGaming-k5q
    @NubGaming-k5q 3 года назад +3

    Очень крутое, простое и наглядное обьяснение, всем рекомендую !!!!!

  • @ТатьянаБаева-п1ъ
    @ТатьянаБаева-п1ъ 3 года назад +1

    Вы мой краш

  • @ВячеславИсаков-ж4ы
    @ВячеславИсаков-ж4ы 2 года назад +1

    Алексей, спасибо. Очень крутое видео.

  • @alexpotap3985
    @alexpotap3985 2 года назад

    Красавчик, от души рассказывает)

  • @im_buddha
    @im_buddha 2 года назад

    отлично, Алексей

  • @svetlanatsimakouridze436
    @svetlanatsimakouridze436 Год назад

    Спасибо

  • @АлексейСамойленко-ю1н

    Великолепно!

  • @blackbigdeath
    @blackbigdeath Год назад

    Сингулярное разложение (Singular Value Decomposition, SVD) - это разложение матрицы на произведение трёх матриц: U, Σ и Vᵀ, где U и V - ортогональные матрицы (т.е. их столбцы и строки ортогональны друг другу), а Σ - диагональная матрица с неотрицательными элементами.
    SVD широко используется в машинном обучении и анализе данных по следующим причинам:
    1. Уменьшение размерности: С помощью SVD можно уменьшить размерность данных, отбросив некоторые малозначащие компоненты. Это позволяет сохранить наиболее информативные особенности данных и сократить количество признаков, что упрощает анализ и улучшает эффективность алгоритмов.
    2. Приближенное восстановление матрицы: Используя только некоторое подмножество главных компонент, можно приближенно восстановить исходную матрицу. Это полезно, например, для сжатия изображений или удаления шума из данных.
    3. Факторизация и понижение ранга: SVD позволяет разложить матрицу на произведение более простых компонент. Например, в рекомендательных системах SVD может быть использовано для факторизации матрицы пользователей и товаров, что позволяет оценить скрытые факторы, влияющие на взаимодействия между ними.
    Пример использования SVD на языке Python:
    ```python
    import numpy as np
    # Создаем матрицу размером 4x5
    matrix = np.array([[1, 2, 3, 4, 5],
    [6, 7, 8, 9, 10],
    [11, 12, 13, 14, 15],
    [16, 17, 18, 19, 20]])
    # Применяем SVD
    U, s, VT = np.linalg.svd(matrix)
    # Печатаем матрицы U, Σ и V^T
    print("Матрица U:")
    print(U)
    print("Матрица Σ (диагональная):")
    print(np.diag(s))
    print("Матрица V^T:")
    print(VT)
    ```
    Этот пример демонстрирует применение функции `np.linalg.svd` из библиотеки NumPy для разложения матрицы на компоненты U, Σ и V^T. Компоненты Σ представлены в виде диагональной матрицы сингулярных значений.
    chatgpt

  • @pinpad5956
    @pinpad5956 2 года назад +1

    Круто! Где бы теперь взять остальные лекции этого курса?

  • @ИльдусСамигуллин-э1к
    @ИльдусСамигуллин-э1к 2 года назад +2

    Я бы поставил три лайка если бы была возможность.

  • @yungrussiarip6505
    @yungrussiarip6505 2 года назад +1

    ЛАЙК + ПОДПИСКА ЗА ВИЗУАЛИЗАЦИЮ

  • @nadiaka8459
    @nadiaka8459 3 года назад +1

    веселый чувак

  • @МаксимДембовский-ю7щ

    я влюблен

  • @ГригорийДанилов-и3р

    Чувак явно под коксом, но поясняет в целом неплохо

  • @МихаилФедосеев-ь7с
    @МихаилФедосеев-ь7с 3 года назад +1

    Огромное уважение автору. Снимаю шляпу. Осталось понять почему левые и правые сингулярные вектора это собственные вектора тех самых произведений исходной и транспонированной матриц. Как это увидеть? Кто-то понял? Я очень хочу понять :)

    • @Zeekless
      @Zeekless  3 года назад

      Чтобы это понять, надо посмотреть на формулы этого слайда: ruclips.net/video/AE4L00ELqdU/видео.html и увидеть в них спектральное разложение тех самых произведений исходной и транспонированной матриц. В спектральном разложении присутствует матрица собственных векторов (в соседних видео я обозначаю её P), а здесь в её роли выступает матрица U (в одном случае) и матрица V (в другом случае). Вот и получается, что столбцы матрицы U (матрицы V) являются собственными векторами для матриц-произведений. Если нужно повторить понятие "спектральное разложение" (не путать с сингулярным), то можно заглянуть сюда: ruclips.net/video/feOoab8TMgk/видео.html.

  • @VasArkady
    @VasArkady 2 года назад

    Возможно не только у меня одного не сложилось всей картины относительно матриы U и V. С точки зрения визуализации и алгебраического смысла все понятно.
    Однако, что концептуально хранится в данных матрицах?
    Если взять пример из рекомендательных систем, почему в матрицах U и V будут хранится сущности связанные с пользователями и предметами? (если мы применили данное разложение к матрице оценок пользователей фильмам)?

  • @VasArkady
    @VasArkady 2 года назад

    1:03:13 - не понял, почему транспонирование матрицы V должно совместить сингулярные векторы матрицы A с координатными осями?
    Ортогональная матрица при умножении на вектор поворачивает его, но в нашем случае ведь просто транспонирование собственных векторов

    • @Zeekless
      @Zeekless  2 года назад +1

      Пусть e1, e2, e3 - базисные векторы, вдоль которых отложены оси x, y, z. В результате умножения матрицы V на эти вектора получаются её столбцы v1, v2, v3. Это показано на 0:53:56. Таким образом v1=V*e1, v2=V*e2, v3=V*e3. Из этого следует, что e1=inv(V)*v1, e2 = inv(V)*v2, e3 = inv(V)*v3, где inv(V) - обратная от матрицы V. Но в случае с ортогональными матрицами обратная = транспонированная, поэтому e1=V^T*v1, e2=V^T*v2, e3=V^T*v3, где V^T - транспонированная от матрицы V. Вот и получается, что V^T переводит векторы векторы v1, v2, v3 (столбцы матрицы v) в векторы e1, e2, e3 (направления координатных осей).
      Простыми словами: тройка векторов (v1,v2,v3) получается из тройки векторов (e1,e2,e3) с помощью поворота матрицей V. Значит, (e1,e2,e3) получается из (v1,v2,v3) с помощью обратного поворота, а это как раз и делает матрица V^T.

    • @VasArkady
      @VasArkady 2 года назад

      @@Zeekless Очень понятно, спасибо!

  • @rovsen1993
    @rovsen1993 3 года назад

    SVD применяется в рекомендательных системах. А что если нам не известен один элемент матрицы? Что тогда с этим элементом делать и как такую матрицу? Заполнить пустые элементы нулями?

    • @MrThrash90
      @MrThrash90 3 года назад +1

      Это зависит от прикладной сферы и самих данных. Можно удалить строки с пропусками или заполнить какими-либо значениями. Никто не даст конкретную рекомендацию в общих словах, это сильно зависит от самих данных и их смысловой нагрузки. Иногда пустое значение - это тоже информация, которую нужно как-то отметить. И это тема не SVD разложения =) Одно можно сказать точно, для SVD в матрице пропусков быть не должно. Как заполнять пропуски - отдельная тема.

  • @Pilatus6220
    @Pilatus6220 3 года назад

    Алексей, отличная лекция! Спасибо огромное. Можете еще поделиться источником, о котором упоминаете в видео 1:36:18 ? Буду благодарна!!!

    • @Zeekless
      @Zeekless  3 года назад

      Спасибо! Вот источник: ruclips.net/video/QQ8vxj-9OfQ/видео.html. У него на канале много отличных видео.

    • @girrra1233
      @girrra1233 3 года назад

      @@Zeekless можно код визуализации пожалуйста

    • @Zeekless
      @Zeekless  3 года назад

      @@girrra1233 Здесь использовался только PowerPoint

    • @girrra1233
      @girrra1233 3 года назад

      @@Zeekless У вас в самом конце штука в математике сделана вы говорили

    • @Zeekless
      @Zeekless  3 года назад

      @@girrra1233 А, вы правы! Напишите мне, пожалуйста, в вк vk.com/zeekless, я передам файл.

  • @АртемийМазуренко
    @АртемийМазуренко 2 года назад

    Никто не оценил жёсткую читку на 59:12