Как работает метод наименьших квадратов? Душкин объяснит
HTML-код
- Опубликовано: 13 сен 2024
- Метод наименьших квадратов - это базовый метод любой регрессии. Изучим его.
Курс «Основы искусственного интеллекта» на Udemy: bit.ly/3BD2I4W
ТГ-канал Романа Душкина: t.me/drv_official
#ИИ #ИскусственныйИнтеллект #Вычисление #Система #Видеошпаргалка #ИНС #РоманДушкин #ДушкинОбъяснит #МашинноеОбучение #Классификация #Кластеризация #Экстраполяция #Интерполяция #Аппроксимация #Регрессия #ОбучениеСУчителем #ОбучениеБезУчителя #ОбучениеСПодкреплением #ТрансгрессивноеОбучение #ОбучениеПоАналогии #Регрессия #МетодНаименьшихКвадратов
Душкин, спасибо вам большое! Самое лучшее объяснение, которое я смог на найти на ютубе. Максимально доходчиво!!!
Благодарю. Такие комментарии прямо как елей на душу.
почему у него такая большая голова 😅
Все видео канала по искусственному интеллекту: ruclips.net/video/n3wEM7P11kI/видео.html
Вы всегда можете обратиться к нам за консультациями.
И, кроме того, вы всегда можете написать мне в ТГ: @rdushkin
Отличное видео, доступно объясняется суть. В других видео квадраты не рисовали, из-за не до конца было ясно почему все так. Спасибо!
Просто Душкин объяснит на пальцах всё что угодно :)
так квадраты не совсем правильно нарисованы, квадрат там вылазит, потому что мы находим евклидово расстояние и соответственно там гипотенуза вылазит, ее по пифагору находим, а так как извлечение корня высислительно тоудоемкая операция берем квадрат расстояний, отсюда и название
также есть и другие методы с другими формулами расстояний, например городским, или чебышева, методы соответственно МНМ, МАО
Рома, спасибо РОМА!!! 4 суток на кофе, перечитанный Смирнов по дефурам, голова как арбуз, а понимания метода наименьших квадратов вообще небыло и тут ты!!!
Вот так бывает.
Учусь на финансах в Нидерландах. Спасибо огромное, ваши объяснения очень помогают. У нас много линейной алгебры и статистики, а вы так доходчиво объясняете
Раньше царь Пётр ездил в Голландию за корабельной наукой, теперь из Нидерландов ходят за линейной алгеброй к нам :)
спасибо большое! очень доходчиво объяснено
Благодарю. Такие комментарии нам очень дороги :)
понятно объясняешь, респект. что то просмотров нету, неужели ето менее интересно чем порнхаб
Благодарю.
Спасибо 🙏 Вам приятный мужчина, вы хорошо обьяснили суть !!!! Очень помогли!
Стараюсь.
Спасибо! Все по сути и ничего лишнего
Стараюсь.
Роман, ты - лучший
Благодарю.
Огонь! Понял даже медик
Отлично!
Отличное объяснение
Мы старались
Роман, в Ваши объяснения закралась некоторая недоговоренность. Для чего минимизируется сумма именно квадратов отклонений от искомой функции (их Гаусс - автор МНК - назвал невязками), а не, например, модулей или любых других четных степеней невязок? Ответ лежит в идее самого метода, которая состоит в том, что надо так построить итоговую (аппроксимирующую) функцию, чтобы рассеяние исходных данных вокруг нее было бы минимальным. Это соответствует минимуму случайной погрешности, с которой найден результат, т.е. построена искомая функция. Рассеяние количественно характеризуется значением дисперсии, величина которой как раз и зависит от этой суммы квадратов невязок. Остальные элементы дисперсии, т.е. число данных N и количество искомых коэффициентов M на сумму квадратов невязок после принятия априори вида искомой функции и постановки некоторого числа опытов уже влиять не будут, т.к. по существу становятся константами. Не могу точно утверждать, но на мой взгляд минимизация суммы квадратов ортогональных невязок в эту эту идею не вписывается, поскольку такие невязки не характеризуют отличие экспериментальных данных от данных, полученных после их аппроксимации искомой функцией.
Спасибо. Интересно дополнение.
спасибо, всё понятно)
Пожалуйста. Я очень рад :)
Спасибо
Пользуйтесь, на здоровье!
Почему разности возводят во вторую степень? почему нельзя суммировать разности в первой степени?
Потому что если бы мы не возводили бы их в квадрат, это был бы не метод наименьших квадратов.
Абсолютно неграмотный ответ. Использование квадратов разностей даёт НЕСМЕЩЕННЫЕ оценки параметров, то есть коэффициентов моделей. А в качестве примера, существует метод минимизации суммы модулей линейных невязок. Описан в монографии Хартмана и Бецкого.
Лицо, которое вы делаете иногда во время решения - самое смешное что я видел..☻☻☻☻☻
извините
Прекрасно :)
На заставке написано -- Метод наименьших квадротов :-)
Вот о чём думала человек, которая это делала?
Исправил.
И почему-то никто не спрашивает у автора ролика , почему этот анализ называется РЕГРЕССИОННЫМ? Слова РЕГРЕССИСИЯ означает падение, и что же в этом анализе падает? Только не отвечайте, что падает остаточная сумма квадратов!!! Она не падает , а уменьшается. 😂
Спасибо за комментарий.