Золотой человек. Честный. По факту. Вот кто должен быть в универе ректором и убирать неадекватных людей с должностных лиц, а то некоторые профессоры возомнили что слишком много знаю. Лайк - 100% заслуженно. Просмотров тебе и славы
Ну если не слышали про функцию правдоподобия то да, но я сам видел лекции где этой проблеме выделялся час времени, так же само для классификации максимизируется правдоподобие распределения бернулли и получается бинарная кроссэнтропия в качестве лоса.
Блин, что-то похожее я "изучал" в универе (КГУ ВМК), но на деле прогуливал и играл в Варкрафт3. И дипломная была про апроксимации функций в каких-то гильбертовых пространствах. Я ничего не учил, блин, даже дипломную назвать не могу. Теперь уже самостоятельно изучаю.
Производную можно определить как скорость изменения функции, то есть нуль это экстремум, а какое то значение это изменение функции (то есть она либо возрастает, либо убывает в этой точке). Скорость изменения скорости (в физике) это ускорение. Значит производная от скорости - ускорение!
Хотелось бы, конечно, чтобы немного подробнее рассмотрены были математические вычисления и преобразования. Если можно, дополните пожалуйста материалами. Спасибо!
хотел спросить, с чем может быть связано: попытался данным методом апроксимировать функцию f(x) = 0.3х^2 - 2х + 1. использовал для апроксимации параболу, соответственно три коеффициента для апроксимации f(x; a,b,c), дифференцировал, все как в уроке только с учетом 3 коэфициентов. В итоге функция апроксимирует очень и очень не точно. С чем это может быть связано? может есть какие то стандартные причины?
Добрый день. Когда мы брали частную производную от функции, мы применили правило дифференцирования сложной функции ? Если, да, то мы потеряли константу "2" ?
а почему в формуле квадрата ошибок E = Sum(y - f(x))^2 нету деления на кол-во элементов и корня, так бы получалась более наглядная средняя ошибка, из вычислений не особо ясно, может есть какая-то более простая мысль?
Нам нужно минимизировать квадрат отклонений. Конечно, эту величину можно разделить на N, или на другую константу, но эта дополнительная операция совершенно ничего не дает для алгоритма, поэтому, просто отброшена.
@@selfedu_rus понял вроде, алгоритму всё равно с какими числами работать, главное уменьшать, а если в качестве метрики использовать, то там уже для наглядности эти операции можно проделать
Золотой человек. Честный. По факту. Вот кто должен быть в универе ректором и убирать неадекватных людей с должностных лиц, а то некоторые профессоры возомнили что слишком много знаю. Лайк - 100% заслуженно. Просмотров тебе и славы
Исключительно поддерживаю комментаторов ниже! Такие люди как автор - золотой фонд интеллектуальной элиты нашей страны.
единственное видео во всем ютубе с объяснением откуда есть берутся квадраты в регрессии. Спасибо !!!
Ну если не слышали про функцию правдоподобия то да, но я сам видел лекции где этой проблеме выделялся час времени, так же само для классификации максимизируется правдоподобие распределения бернулли и получается бинарная кроссэнтропия в качестве лоса.
Спасибо! Редкая способность объяснять ёмко и понятно.
Самое подробное и понятное обьяснение которое можно найти. Спасибо за урок!
Спасибо большое за ролик, очень качественные объяснения сложной темы.
Видео отличное. Преподаватель -высший класс! Спасибо большое.
Потрясно! То, что искал. С первого раза не совсем понял как происходит минимизация, но просмотрев несколько раз дошло. Отличное изложение ♥️
Вот это я понимаю объяснение! Всё по полочкам разложено, большое спасибо)
Спасибо вам за передачу знаний!
Очень понравилось изложение. Всё понятно, большое спасибо!
От студента 1 курса мфти - автору огромное спасибо!
срочно надо весь канал посмотреть
спасибо, очень ценный материал!
Спасибо! Нормальное понятное объяснение на пальцах!
Потрясающий канал ! И такая же подача!!
Я видео пока не начал смотреть, уже подписался🤣
Супер!! чтобы освоить numpy plotlib это самое то!!!
Круто, умеете объяснять
Блин, что-то похожее я "изучал" в универе (КГУ ВМК), но на деле прогуливал и играл в Варкрафт3. И дипломная была про апроксимации функций в каких-то гильбертовых пространствах. Я ничего не учил, блин, даже дипломную назвать не могу. Теперь уже самостоятельно изучаю.
Ты лучший, я в честь тебя назову сына))))
чел ты легендарный
спасибо!
Спасибо! Помог реализовать данную аппроксимацию в JavaScript. И немного понять Python
Привет. Ты крут!!!
Интересно
Производную можно определить как скорость изменения функции, то есть нуль это экстремум, а какое то значение это изменение функции (то есть она либо возрастает, либо убывает в этой точке). Скорость изменения скорости (в физике) это ускорение. Значит производная от скорости - ускорение!
все верно, еще это тангенс угла наклона касательной с осью абсцисс и в точках экстремума он принимает нулевое значение
Хотелось бы, конечно, чтобы немного подробнее рассмотрены были математические вычисления и преобразования. Если можно, дополните пожалуйста материалами. Спасибо!
В смысле? Там и так предельно подробно расписано. Если остаются вопросы, то см. плейлист по теории вероятностей на этом канале.
оп, снова ты)
Здравствуйте, очень полезное видео!
У меня вопрос: что нужно поменять в коде, что бы использовать его, например для 3+ признаков?
Спасибо. Использовать трехмерную плотность распределения.
ImportError: DLL load failed while importing _cext: Не найден указанный модуль.
😎
Заснул на 6 минуте😅
хотел спросить, с чем может быть связано: попытался данным методом апроксимировать функцию
f(x) = 0.3х^2 - 2х + 1. использовал для апроксимации параболу, соответственно три коеффициента для апроксимации
f(x; a,b,c), дифференцировал, все как в уроке только с учетом 3 коэфициентов. В итоге функция апроксимирует очень и очень не точно. С чем это может быть связано? может есть какие то стандартные причины?
А почему на 4:28 первый множитель перевернулся (сигма на корень два Пи) вместо 1 / (сигма корень 2ПИ)?
это опечатка
Добрый день. Когда мы брали частную производную от функции, мы применили правило дифференцирования сложной функции ? Если, да, то мы потеряли константу "2" ?
Все верно, я ее намеренно отбросил, т.к. умножение на константу не влияет на вычисление точки оптимума.
С синусом не получится сделать? У меня производные сложных функций получились и там ничего не вынесешь как a11,a2 получается?
да, уравнения не всегда линейными могут получаться
@@selfedu_rus А полученные производные можно раскладывать по формуле sin(x+y)=sin(x)cos(y)+cos(x)sin(y)
А если набор точек случайный, без всяких сигм, то это будет работать?
сигма - это мера разброса случайных точек
ruclips.net/video/8sVfWyQrMiM/видео.html на 3.58 утрачен числитель дроби с сигмой в формуле плотности вероятности?
Подача материала отличная!
да, спасибо, ошибка... хотя она не влияет на дальнейшие рассуждения и кроме того, до этого в формуле все верно
@@selfedu_rus , да, всё здорово! Спасибо!:)
Бамп
а почему в формуле квадрата ошибок E = Sum(y - f(x))^2 нету деления на кол-во элементов и корня, так бы получалась более наглядная средняя ошибка, из вычислений не особо ясно, может есть какая-то более простая мысль?
Нам нужно минимизировать квадрат отклонений. Конечно, эту величину можно разделить на N, или на другую константу, но эта дополнительная операция совершенно ничего не дает для алгоритма, поэтому, просто отброшена.
@@selfedu_rus понял вроде, алгоритму всё равно с какими числами работать, главное уменьшать, а если в качестве метрики использовать, то там уже для наглядности эти операции можно проделать
Это как то не очень к ЦОС относится
поправочка. тут 1/сигма*sqrt(pi)