Действительно, прекрасный перевод с очень замечательными и интересными занятиями. Как же все таки профессилналы могут просто объяснить. Огромная благодарность, спасибо за уроки ❤❤❤
6:32 Я где-то в сети видел видео как несколько нейронов взаимодействуют друг с другом, так вот, они не создают устойчивые связи, а наоборот - постоянно меняют их. Так что да, пока что математическая "нейронка" далека от биологической.
Если кто-то тоже делал нейросеть для распознавания таких цифр, то напишите, пожалуйста, ваши гиперпараметры (батчи и мини-батчи тоже), метод активации нейрона и количество эпох, через которое вы получили более менее обученную нейросеть. Я для диплома делаю почти такую же нейросеть (там ещё латинские буквы) с нуля на C#, и мне бы хотелось с чем-то сравнить результаты обучения, что бы понять - обучение сделано правильно или нет.
@@ПравильнойЖизни У меня не было опыта в этой сфере, я взял нейросеть, как тему дипломного проекта. У нее получилась очень низкая точность, к тому же датасет не сбалансирован, хотя рисунки (сделал рисование на winfows forms) при достаточном обучении, иногда распознает. В общем, мне нужно больше опыта, а нейросети больше оптимизации в алгоритме обучения (например параллельные прохождения мини-батчей в нескольких потоках, но я пока хз как это сделать). Но защитить диплом на 5 получилось
А каждый новый вес в векторе градиента вычисляется с помощью формулы: Wn = Wp - a * df/dWp, где Wn - обновленный вес, Wp - предыдущее значение веса, a - скорость спуска, df/dWp - наклон к екстремуму функции ошибки ?
Если мой вопрос кто-то видит, объясните пожалуйста, на основе чего я должен понять в каких корректировках нуждаются веса? Я не совсем понял из контекста.
Как я понял чем ближе результат возрата к истине, тем ниже он требует смещение, а исходит нужно из данных полного прогона цифр, то от 1 до 9, если 8=8 а 2 = 1 то мы смещаем лишь одно значение нейрона. Наверное так, но тем слишком тяжкая чтоб я мог сказать точно😂
Круто! Почти всё понял, но всё-таки с тем, как метод обратного распространения определяет, что изменять, просто пока сложно переварить. Метод градиентного спуска - понял что делает, но не понял, как. Есть продолжения с этим же переводом (перевод супер!)? Или даже больше по поводу градиентного спуска, и как он делает требуемое? По кусочкам понятно, а в целом - не очень (но в целом про нс очень понятно, молодцы!).
@@VitanXaos такое впечатление, что это делается специально. Прочитал и просмотрел огромное количество материалла, но так и не понял как это работает досконально. Везде много воды (как и в этом видео), которую никто не замечает, ибо не использует это все на практике...
@@horlonangel просто конкретику надо искать на курсах. В курсере машин лёрнинг - там вот да, там конкретика. Просто на ютубе же всё научно-популярное же, нужно развлекать
@@tigdang конкретику вам даст матан - 5 курсов университета. если кажется, что нейронки - это просто, то это не так. внутри сильная математика, которую на пальцах в 4 20-минутных роликах не описать. хотите разораться "досконально" - нужно получать полноценное высшее образование. вопрос только зачем? pytorch, keras и т.п. для того и разработаны, чтобы в такие дебри не лезть. а информации из этой серии роликов должно быть достаточно, чтобы работать с этими готовыми библиотеками.
@@eugene_fedда хотя бы затем, чтобы уметь реально работать с материалом и быть профессионалом, а не типичным болванчиком с курсов, который за месяц изучил курс и хочет зарплату 300к.
А что если нейрону с большим весом поступило число приближенное к 0, а нейрону с малым весом поступило большое число, то получается нейрон с малым весом имел большее влияние на полученный результат?
@@Fakster_Bakster тоже подушню - вы сначала мотивировали тем что объекта больше нет, а затем перешли на то что не смотря на то что больше объекта нет - он оставил значимый след. дак СССР тоже след оставил. и очевидно что СССР-а нет не из-за того что там "думали о космосе"
Как же классно что вы продолжаете делать переводы. Большое вам спасибо!
Действительно, прекрасный перевод с очень замечательными и интересными занятиями. Как же все таки профессилналы могут просто объяснить. Огромная благодарность, спасибо за уроки ❤❤❤
Какое толковое видео! Спасибо! На примере математического анализа мне вообще было не понятно.
Еще еще еще😍...прекрасные переводы...
Ура ! ! Продолжение! Завариваем чай!
Где? Киньте пожалуйста, у меня не отображается.
@@АртемШамсутдинов-н8н ruclips.net/video/rP_k8cpsNWY/видео.htmlsi=VHryyIDJWyknSgSJ если еще нужно
у меня защита проекта в 10 классе благодаря вашем роликам думаю сдам на отлично upd: точно сказу завтра как сдал
И как?
Каааак? Интересно же ..😢
Защитился?
Потеряли парня
Спасибо большое! Жду продолжения.
6:32 Я где-то в сети видел видео как несколько нейронов взаимодействуют друг с другом, так вот, они не создают устойчивые связи, а наоборот - постоянно меняют их. Так что да, пока что математическая "нейронка" далека от биологической.
Есть и такие нейронные сети. В них нейроны передвигаются, создают и разрывают соединения, пока учатся.
эти нейронные сети не аналог нейронов в мозгу
@@horlonangelКак называется подобный принцип работы нейросетей, если не секрет?
Спасибо, ребята!
Thank you a lot! =) U are the best! =)
Если кто-то тоже делал нейросеть для распознавания таких цифр, то напишите, пожалуйста, ваши гиперпараметры (батчи и мини-батчи тоже), метод активации нейрона и количество эпох, через которое вы получили более менее обученную нейросеть. Я для диплома делаю почти такую же нейросеть (там ещё латинские буквы) с нуля на C#, и мне бы хотелось с чем-то сравнить результаты обучения, что бы понять - обучение сделано правильно или нет.
Получилось ?
@@ПравильнойЖизни У меня не было опыта в этой сфере, я взял нейросеть, как тему дипломного проекта. У нее получилась очень низкая точность, к тому же датасет не сбалансирован, хотя рисунки (сделал рисование на winfows forms) при достаточном обучении, иногда распознает.
В общем, мне нужно больше опыта, а нейросети больше оптимизации в алгоритме обучения (например параллельные прохождения мини-батчей в нескольких потоках, но я пока хз как это сделать). Но защитить диплом на 5 получилось
@@rollocks9138 какой курс?
@@djdje75hbebd5kzoem, в этом году закончил (колледж)
То есть, в прошлом: 2023
Нужно ещё видео по нейронным сетям!!!
А каждый новый вес в векторе градиента вычисляется с помощью формулы: Wn = Wp - a * df/dWp, где
Wn - обновленный вес,
Wp - предыдущее значение веса,
a - скорость спуска,
df/dWp - наклон к екстремуму функции ошибки ?
вы лучший!!!!!!!!!!!!!!!
Благодарю вас!
Если мой вопрос кто-то видит, объясните пожалуйста, на основе чего я должен понять в каких корректировках нуждаются веса? Я не совсем понял из контекста.
Как я понял чем ближе результат возрата к истине, тем ниже он требует смещение, а исходит нужно из данных полного прогона цифр, то от 1 до 9, если 8=8 а 2 = 1 то мы смещаем лишь одно значение нейрона. Наверное так, но тем слишком тяжкая чтоб я мог сказать точно😂
Круто! Почти всё понял, но всё-таки с тем, как метод обратного распространения определяет, что изменять, просто пока сложно переварить. Метод градиентного спуска - понял что делает, но не понял, как. Есть продолжения с этим же переводом (перевод супер!)? Или даже больше по поводу градиентного спуска, и как он делает требуемое? По кусочкам понятно, а в целом - не очень (но в целом про нс очень понятно, молодцы!).
ну так суть то я то же понял, я досконально не уловил)) привык просто разбираться досконально в принципах (код же не закодить "наобум")
@@VitanXaos такое впечатление, что это делается специально. Прочитал и просмотрел огромное количество материалла, но так и не понял как это работает досконально. Везде много воды (как и в этом видео), которую никто не замечает, ибо не использует это все на практике...
@@horlonangel просто конкретику надо искать на курсах. В курсере машин лёрнинг - там вот да, там конкретика. Просто на ютубе же всё научно-популярное же, нужно развлекать
@@tigdang конкретику вам даст матан - 5 курсов университета. если кажется, что нейронки - это просто, то это не так. внутри сильная математика, которую на пальцах в 4 20-минутных роликах не описать. хотите разораться "досконально" - нужно получать полноценное высшее образование. вопрос только зачем? pytorch, keras и т.п. для того и разработаны, чтобы в такие дебри не лезть. а информации из этой серии роликов должно быть достаточно, чтобы работать с этими готовыми библиотеками.
@@eugene_fedда хотя бы затем, чтобы уметь реально работать с материалом и быть профессионалом, а не типичным болванчиком с курсов, который за месяц изучил курс и хочет зарплату 300к.
Нужен идиальныйй вес!!! ИИ Всем Будеет Счастье!!!
теоретически все понятно но вот как это может выглядеть в коде я не представляю
Це база
Привет с Пикабу.
Подписался, сейчас смотрю ваши переводы! Первая лекция на старте.
А что если нейрону с большим весом поступило число приближенное к 0, а нейрону с малым весом поступило большое число, то получается нейрон с малым весом имел большее влияние на полученный результат?
Добавьте, пожалуйста, ссылку на патреон
В описании оригинальное видео (это перевод), там найдешь ссылку.
@@bin5460 Спасибо!
Подскажите пожалуйста как делается подобная визуализация на видео? Это в After Effects сделано?
Это озвучка, про оригинал можете спросить у 3blue1brown.
библиотека в python
Самый большой вопрос: как вам удалось убрать голос оригинального автора?
Нейронные сети 🤣
Супер!!!
Ничего не понял, очень много неточностей (не в переводе, а в объяснении первого автора видео).
Automatic HeadShot Accuracy Only!!! PUBG и Config
великолепно!
Добавте PayPal, пожалуйста,
очень полезно!
А переводы предыдущих видео есть?
Красивый графон, но жвачка вообще
НИXPEHA НЕ ПОНЯТНО. 😢
Но очень интересно 😂
21000!!!!
Совок много думал о космосе и где он теперь? А вы много думаете о нейронах.
Хмм... попахивает нацизмом(я нац)
Совок остался забытым в песочнице(
аргумент уровня - Эйнштейн много думал... и где он теперь?
@@pavel3510-v6c Вообще-то, Эйнштейн теперь во всём.
@@Fakster_Bakster тоже подушню - вы сначала мотивировали тем что объекта больше нет, а затем перешли на то что не смотря на то что больше объекта нет - он оставил значимый след. дак СССР тоже след оставил. и очевидно что СССР-а нет не из-за того что там "думали о космосе"