А.7.35 Собственные вектора и собственные значения матрицы

Поделиться
HTML-код
  • Опубликовано: 4 ноя 2024
  • #dudvstud #математиканапальцах #войтивайти
    Телеграм: t.me/dudvstud
    Плейлисты, литература, помощь проекту и прочее: dudvstud.wixsi...
    Станьте спонсором канала, и вы получите доступ к эксклюзивным бонусам. Подробнее:
    / @dudvstud9081
    Урок подготовлен при поддержке меценатов Evgeny Zychkov и PROFESSIONAL!
    Вступаем в новую эру знаний! Вводим понятие собственных векторов и собственных значений матрицы. Это открывает нам большие возможности, с которыми познакомимся на следующих уроках.

Комментарии • 48

  • @ИванЕвдокимов-л6ь
    @ИванЕвдокимов-л6ь 3 года назад +8

    Продолжайте записывать ролики! Вы классно объясняете)

    • @dudvstud9081
      @dudvstud9081  3 года назад +3

      Спасибо! Пока продолжаю, но скоро пойду в отпуск. Отдельно потом расскажу про это в ролике :)

  • @eralashly
    @eralashly 5 месяцев назад +1

    Спасибо большое!
    Я аж словил кайф оттого, что есть возможность увидеть прикладной смысл, например, при исследовании напряжённого состояния в точке через тензор напряжений (симметричная матрица 3*3). 3 собственных числа этой матрицы - главные напряжения, а три собственных вектора (каждый из которых состоит из трех направляющих косинусов) являются ортогональными нормалями (ввиду обязательной симметричности тензора напряжения в силу закона парности касательных напряжения), задающими положение трех главных площадок. Так вот сумма квадратов направляющих косинусов всегда равна единице, а значит и длина вектора, содержащего направляющие косинусы должна быть равна единице, а значит собственные векторы в таком случае - ортонормированный базис.
    P. S. Это я что-то увлекся и меня понесло, извините)

    • @dudvstud9081
      @dudvstud9081  4 месяца назад

      Спасибо за отзыв! :)

  • @user-xt5zi7de3u
    @user-xt5zi7de3u 2 года назад +3

    Вы большой молодец. Продолжайте дальше. Очень интересно.

  • @СергейЧёрный-л7ш
    @СергейЧёрный-л7ш Год назад +4

    Несколько дней слёз и страданий, и я разжевал наконец-то для себя эту тему максимально понятно. Сижу вот думаю, это я сильно туповат, что ушло дня 3 по часов 6 только на эту тему, или тема сама сложная) Сейчас, уже после 3-дневной боли выглядит всё как-то очень просто и понятно и логично, вот поэтому даже не знаю что думать про себя и про тему)) Но я осилил, слава богам)

    • @dudvstud9081
      @dudvstud9081  Год назад

      Ура, поздравляю! Мне эта тема тоже не сразу сдалась :))

    • @Семён-т9с7т
      @Семён-т9с7т 5 месяцев назад +1

      красавчик!

  • @pavelpetkun5269
    @pavelpetkun5269 3 года назад +5

    Спасибо огромное! Очень четкое объяснение и донесение интуиции, что помогает закрепить знания в математике и заполнить пробелы, где они есть.
    Вопрос по следствию номер 1: верно ли, что среди собственных векторов теоретически может быть такое, что при каких-то a_i = 0 линейная комбинация оставшихся собств. векторов может оказаться равной 0? Т.к. в следствии сказано "a_i#0 для любого i", а не "существует хотя бы одно i, для которого a_i # 0".

    • @dudvstud9081
      @dudvstud9081  3 года назад +3

      Хм, наверное, "существует хотя-бы одно", было бы правильнее. Но сути это не меняет: ни один собственный вектор не может быть выражен через линейную комбинацию остальных.

    • @pavelpetkun5269
      @pavelpetkun5269 3 года назад +2

      @@dudvstud9081 понял, спасибо!

  • @ЯнШульгин-э7м
    @ЯнШульгин-э7м Год назад +3

    5:08
    Для линейной зависимости нужно неравенство нулю хотя бы одного коэффициента в линейной комбинации, а не всех сразу

  • @anzarsh
    @anzarsh 7 месяцев назад +1

    32:24 то что становится равным нулю согласен, но не то что каждый из векторов образующих параллелепипед. В ноль превратится только один из них. Разве нет? Ведь лямбда для каждого вектора должна быть разной и они не равны друг другу.

    • @dudvstud9081
      @dudvstud9081  7 месяцев назад

      Так речь не про то, что они все одновременно обратятся в 0. Речь про то, что обращение каждого из них в 0 является решением уравнения и соответствует одному из лямбд.

  • @anzarsh
    @anzarsh 7 месяцев назад +1

    14:07 кажется что если сделать сдвиг, то мы уже не сможем найти n линейно-независимых собственных векторов, т.к. сдвиг сменит направление вектора и получается что остаются только поворот и масштабирование, если это так, то матрица V является матрицей поворота.

    • @anzarsh
      @anzarsh 7 месяцев назад +1

      хотя нет, матрицей поворота она не обязана быть, т.к. их там 2, но можно собрать собственные вектора такие чтобы они образовывали матрицу поворота)

    • @dudvstud9081
      @dudvstud9081  7 месяцев назад

      Я не до конца понял Ваши рассуждения, к сожалению. Матрица собственных векторов V может быть матрицей поворота, если матрица А - симметричная в ортогональном пространстве. В таком случае ее собственные вектора ортогональны. А матрица V связывает два ортогональных пространства.@@anzarsh

    • @anzarsh
      @anzarsh 7 месяцев назад +1

      @@dudvstud9081 да я и сам немного запутался, я хотел сказать что при разложении матрицы A на поворот, масштаб и сдвиг там будет только масштаб и поворота (без сдвига), т.к. сдвиг меняет направление вектора и не получится найти n линейно независимых собственных векторов.

  • @HOOKAH10
    @HOOKAH10 2 года назад +2

    « минута 1:40 - цитата « нормальный человеческий вектор 😂😂 .. здорово 😁

  • @applepixlife9286
    @applepixlife9286 2 месяца назад +1

    13:59 верно ли я понимаю,что в нашей матрице V-1 нам нужно базисы произвольного вектора C(к примеру) ,представить в виде базисов en? Учитывая определение матрицы в целом.

    • @dudvstud9081
      @dudvstud9081  2 месяца назад

      Не совсем понял, что Вы подразумеваете под базисами произвольного вектора. Если рассматривать базис собственных векторов матрицы V, то в этом базисе компоненты любого вектора будут умножаться на собственные значения матрицы (при умножении вектора на матрицу), то есть, матрица будет диагональной.

    • @applepixlife9286
      @applepixlife9286 2 месяца назад +1

      @@dudvstud9081 да,я имею ввиду,что нам же наш вектор надо как-то представить в новом базисе и мы это делаем с помощью матрицы,а насколько я понимаю,в нашей матрицы мы должны сначала представить базисы нашего вектора в новых базисах,которые как раз таки являются собственными векторами матрицы. Немного тавтология,но надеюсь суть вопроса мне удалось прояснить

    • @dudvstud9081
      @dudvstud9081  2 месяца назад

      @@applepixlife9286 Чтобы представить вектор а новом базисе, сы его умножаем на матрицу перехода, которая составлена из собственных. векторов (они и есть новый базис). Затем мы вектора умножаем на на диагональную матрицу, составленную из собственных значений, а затем на матрицу перехода обратно в изначальный базис.

  • @HOOKAH10
    @HOOKAH10 3 года назад +3

    Супер!

  • @anzarsh
    @anzarsh 7 месяцев назад +1

    34:32 а как найти самое первое лямбда, чтобы составить характеристический полином?

    • @anzarsh
      @anzarsh 7 месяцев назад +1

      Затупил 🤦‍♂ лямбда это и есть же неизвестное)

    • @dudvstud9081
      @dudvstud9081  7 месяцев назад

      @@anzarsh :))

  • @applepixlife9286
    @applepixlife9286 2 месяца назад +1

    26:58 будет ли более корректно сказать,что Ax - лямбдаX = нулевому вектору?

  • @KateKvitKateKvit
    @KateKvitKateKvit 2 года назад +2

    Большое спасибо!

    • @dudvstud9081
      @dudvstud9081  2 года назад

      И Вам спасибо за отзыв! :)

  • @anzarsh
    @anzarsh 7 месяцев назад +1

    12:25 правильно понимаю что не у всех матриц можно найти n линейно-независимых собственных векторов?

    • @dudvstud9081
      @dudvstud9081  7 месяцев назад

      Да, все правильно! Только у невырожденных

  • @4u4beck
    @4u4beck Год назад

    Очень круто, спасибо большое

    • @dudvstud9081
      @dudvstud9081  Год назад

      Спасибо за комментарий! 🙏

  • @АндрейКосарев-ъ6ц
    @АндрейКосарев-ъ6ц Год назад +1

    Тут это вроде бы не важно, НО если я не дурак, то V матрица с точностью наоборот. V - это матрица перехода из начального базиса, в котором выражены наши вектора e, в базис с. в. e. Соответственно V переводит в базис с.в., а V-1 в начальный базис. Сути не меняет, но я просто погуглил, чтобы не ошибиться. Скажите, если не прав.

    • @dudvstud9081
      @dudvstud9081  Год назад

      Мне вот кажется, что наоборот все-таки. В матрице V в столбцах стоят собственные вектора. Значит она должна способствовать переходу ИЗ базиса собственных векторов.
      А где Вы нагуляли, что матрица V переводит вектора в базис собственных векторов?

  • @vbIdr
    @vbIdr Год назад +2

    Не очень понятно почему все ai должны быть не равны нулю. Из определения линейной зависимости достаточно одного ненулевого коэффициента.

    • @dudvstud9081
      @dudvstud9081  Год назад +1

      Да. Правильнее было бы сказать, что хотя бы одно из значений не равно 0.

  • @enot35
    @enot35 Год назад +1

    А чем левый собственный вектор отличается от правого

    • @dudvstud9081
      @dudvstud9081  Год назад

      Собственные вектора не бывают левыми и правыми. Левыми и правыми бывают сингулярные вектора. Но про них, вроде бы, в другом уроке.

  • @Asmarone
    @Asmarone 9 месяцев назад +1

    Думал хуйня будет без стрргих доказательств а в итоге ошибся, увидел бы твое видео не тратил бы так много времени на поиск информации

    • @dudvstud9081
      @dudvstud9081  9 месяцев назад +1

      Спасибо за отзыв! :)

  • @НурболРыскелдиев-э6и
    @НурболРыскелдиев-э6и 10 месяцев назад +1

    На примере показат нельзя 😤

    • @dudvstud9081
      @dudvstud9081  10 месяцев назад

      Наверное, мне самому всегда понятнее было на переменных, а не на цифрах. Поэтому и сам люблю так объяснять...