А.7.35 Собственные вектора и собственные значения матрицы
HTML-код
- Опубликовано: 4 ноя 2024
- #dudvstud #математиканапальцах #войтивайти
Телеграм: t.me/dudvstud
Плейлисты, литература, помощь проекту и прочее: dudvstud.wixsi...
Станьте спонсором канала, и вы получите доступ к эксклюзивным бонусам. Подробнее:
/ @dudvstud9081
Урок подготовлен при поддержке меценатов Evgeny Zychkov и PROFESSIONAL!
Вступаем в новую эру знаний! Вводим понятие собственных векторов и собственных значений матрицы. Это открывает нам большие возможности, с которыми познакомимся на следующих уроках.
Продолжайте записывать ролики! Вы классно объясняете)
Спасибо! Пока продолжаю, но скоро пойду в отпуск. Отдельно потом расскажу про это в ролике :)
Спасибо большое!
Я аж словил кайф оттого, что есть возможность увидеть прикладной смысл, например, при исследовании напряжённого состояния в точке через тензор напряжений (симметричная матрица 3*3). 3 собственных числа этой матрицы - главные напряжения, а три собственных вектора (каждый из которых состоит из трех направляющих косинусов) являются ортогональными нормалями (ввиду обязательной симметричности тензора напряжения в силу закона парности касательных напряжения), задающими положение трех главных площадок. Так вот сумма квадратов направляющих косинусов всегда равна единице, а значит и длина вектора, содержащего направляющие косинусы должна быть равна единице, а значит собственные векторы в таком случае - ортонормированный базис.
P. S. Это я что-то увлекся и меня понесло, извините)
Спасибо за отзыв! :)
Вы большой молодец. Продолжайте дальше. Очень интересно.
Спасибо!
Несколько дней слёз и страданий, и я разжевал наконец-то для себя эту тему максимально понятно. Сижу вот думаю, это я сильно туповат, что ушло дня 3 по часов 6 только на эту тему, или тема сама сложная) Сейчас, уже после 3-дневной боли выглядит всё как-то очень просто и понятно и логично, вот поэтому даже не знаю что думать про себя и про тему)) Но я осилил, слава богам)
Ура, поздравляю! Мне эта тема тоже не сразу сдалась :))
красавчик!
Спасибо огромное! Очень четкое объяснение и донесение интуиции, что помогает закрепить знания в математике и заполнить пробелы, где они есть.
Вопрос по следствию номер 1: верно ли, что среди собственных векторов теоретически может быть такое, что при каких-то a_i = 0 линейная комбинация оставшихся собств. векторов может оказаться равной 0? Т.к. в следствии сказано "a_i#0 для любого i", а не "существует хотя бы одно i, для которого a_i # 0".
Хм, наверное, "существует хотя-бы одно", было бы правильнее. Но сути это не меняет: ни один собственный вектор не может быть выражен через линейную комбинацию остальных.
@@dudvstud9081 понял, спасибо!
5:08
Для линейной зависимости нужно неравенство нулю хотя бы одного коэффициента в линейной комбинации, а не всех сразу
Да, верно :)
32:24 то что становится равным нулю согласен, но не то что каждый из векторов образующих параллелепипед. В ноль превратится только один из них. Разве нет? Ведь лямбда для каждого вектора должна быть разной и они не равны друг другу.
Так речь не про то, что они все одновременно обратятся в 0. Речь про то, что обращение каждого из них в 0 является решением уравнения и соответствует одному из лямбд.
14:07 кажется что если сделать сдвиг, то мы уже не сможем найти n линейно-независимых собственных векторов, т.к. сдвиг сменит направление вектора и получается что остаются только поворот и масштабирование, если это так, то матрица V является матрицей поворота.
хотя нет, матрицей поворота она не обязана быть, т.к. их там 2, но можно собрать собственные вектора такие чтобы они образовывали матрицу поворота)
Я не до конца понял Ваши рассуждения, к сожалению. Матрица собственных векторов V может быть матрицей поворота, если матрица А - симметричная в ортогональном пространстве. В таком случае ее собственные вектора ортогональны. А матрица V связывает два ортогональных пространства.@@anzarsh
@@dudvstud9081 да я и сам немного запутался, я хотел сказать что при разложении матрицы A на поворот, масштаб и сдвиг там будет только масштаб и поворота (без сдвига), т.к. сдвиг меняет направление вектора и не получится найти n линейно независимых собственных векторов.
« минута 1:40 - цитата « нормальный человеческий вектор 😂😂 .. здорово 😁
13:59 верно ли я понимаю,что в нашей матрице V-1 нам нужно базисы произвольного вектора C(к примеру) ,представить в виде базисов en? Учитывая определение матрицы в целом.
Не совсем понял, что Вы подразумеваете под базисами произвольного вектора. Если рассматривать базис собственных векторов матрицы V, то в этом базисе компоненты любого вектора будут умножаться на собственные значения матрицы (при умножении вектора на матрицу), то есть, матрица будет диагональной.
@@dudvstud9081 да,я имею ввиду,что нам же наш вектор надо как-то представить в новом базисе и мы это делаем с помощью матрицы,а насколько я понимаю,в нашей матрицы мы должны сначала представить базисы нашего вектора в новых базисах,которые как раз таки являются собственными векторами матрицы. Немного тавтология,но надеюсь суть вопроса мне удалось прояснить
@@applepixlife9286 Чтобы представить вектор а новом базисе, сы его умножаем на матрицу перехода, которая составлена из собственных. векторов (они и есть новый базис). Затем мы вектора умножаем на на диагональную матрицу, составленную из собственных значений, а затем на матрицу перехода обратно в изначальный базис.
Супер!
Спасибо
34:32 а как найти самое первое лямбда, чтобы составить характеристический полином?
Затупил 🤦♂ лямбда это и есть же неизвестное)
@@anzarsh :))
26:58 будет ли более корректно сказать,что Ax - лямбдаX = нулевому вектору?
Да
Большое спасибо!
И Вам спасибо за отзыв! :)
12:25 правильно понимаю что не у всех матриц можно найти n линейно-независимых собственных векторов?
Да, все правильно! Только у невырожденных
Очень круто, спасибо большое
Спасибо за комментарий! 🙏
Тут это вроде бы не важно, НО если я не дурак, то V матрица с точностью наоборот. V - это матрица перехода из начального базиса, в котором выражены наши вектора e, в базис с. в. e. Соответственно V переводит в базис с.в., а V-1 в начальный базис. Сути не меняет, но я просто погуглил, чтобы не ошибиться. Скажите, если не прав.
Мне вот кажется, что наоборот все-таки. В матрице V в столбцах стоят собственные вектора. Значит она должна способствовать переходу ИЗ базиса собственных векторов.
А где Вы нагуляли, что матрица V переводит вектора в базис собственных векторов?
Не очень понятно почему все ai должны быть не равны нулю. Из определения линейной зависимости достаточно одного ненулевого коэффициента.
Да. Правильнее было бы сказать, что хотя бы одно из значений не равно 0.
А чем левый собственный вектор отличается от правого
Собственные вектора не бывают левыми и правыми. Левыми и правыми бывают сингулярные вектора. Но про них, вроде бы, в другом уроке.
Думал хуйня будет без стрргих доказательств а в итоге ошибся, увидел бы твое видео не тратил бы так много времени на поиск информации
Спасибо за отзыв! :)
На примере показат нельзя 😤
Наверное, мне самому всегда понятнее было на переменных, а не на цифрах. Поэтому и сам люблю так объяснять...