Афигенный у тебя контент. Желаю дальше развиваться и выкладывать свои успехи на ютуб. У тебя стабильно раз в месяц видео выходит. Круто, что упор на качество, а не на количество. Я уже привык - сначала ставлю лайк, потом смотрю видео.
Автор, где ты был когда я учился. Плакать хочется. Впервые я хоть что-то понял про нейросети. С благодарностью и уважением отношусь к тебе. Искренне желаю творческих успехов и всех благ. Чести и удачи! ;)
Когда-то в универе поверхностно начинал разбираться с искуственным интелектом но прекратил. Случайно открыл твой ролик и как-то чувствую, что ты меня смотивировал снова попробовать в это погрузиться. Спасибо!
тем не менее, по вашему ролику мне стало намного понятнее строение и реализация нейронных сетей. Благодарю за помощь в "первой ступеньке" к пониманию темы.
(Сейчас я уже знаю про нейросети) Вот честно, ты этот материал намного лучше рассказал. У тебя нет сплошного текста с непонятными формулами через переменные в три и более индексов, ты всё рассказал пошагово без стояния на одном моменте по несколько минут + сразу показал применение и очень простую реализацию, не используя сторонних библиотек, на простом коде pixilang'а. Делай дальше!
Идея для экспериментов: 1 сделать песочницу типа змейки только с более сложным миром и стравить разных змеек между собой, чтобы посмотреть какая конфигурация нейронной сети жизнеспособнее. 2 в той же песочнице сделать так чтобы конфигурация нейронной сети генерировалась случайно, а в процессе появлялись новые случайные блоки и дообучались. А победители могли перемешивать конфигурации своих сетей с разной степенью. Цель посмотреть сможет ли комп сгенерировать лучший вариант сети под задачу. 3 ко 2 варианту прирастание новых сенсоров. 4 змейки с разными маленькими сетями соединить в коллективный разум, мегасеть одного вида будет сражаться с мегасетью другого вида.
Хорошая задумка, но уже становится ясно что обученная нейросеть (сети) будут применимы только э к этой песочнице, к этому типу задач. Вот состряпать нейросеть которая обучена побирать необходимые параметры для предоставленной модели с дальнейшей целью контроля обучения нейросети более низкого уровня для работы с предоставленной моделью. (модель обучения с учителем, где учителем будет нейросеть :) ). Если очень закручено написал, могу переписать по проще. Сам использую brainJS, постепенно подбираюсь к convnetjs и tensorflow
Вот +++++++++++, а то напишут где в иной раз: "Вам наверняка не понятно как происходит A+B (я утрирую), ну а из этого нейронку построить - очевидный шаг. Всем спасибо до свидания" и ничего не понятно - а тут классно, всё понятно)
ооочень кайфанул! Спасибо огромное. Подписка! Давно не хватало такого канала мне. Сочетание твоего голоса и интонаций с темой и музыкой неожиданно хорошо заходит.
Я месяц искал и тестил формулы для нейронных сетей чтоб правильно обучать и всегда напарывался на сети с ошибочными формулами. Нарвался на это видео и решил глянуть. Автор без воды и по существу рассказал как и что работает. Лучше инструкции и представить не могу. ПС: У меня сеть сошлась по этим формулам, спасибо)
спасибо, ты очень мне помог, долго не мог понять как оно работает, а в интернете подробной информации так и не нашёл, но после просмотра твоего ролика получилось написать многослойный персептрон
Большое спасибо! Видео и правда полезное! Главное (что другие не снимают) что код понятен для чтения его не много и зависит от темы, т.е. разказ код расказ код расказ код! Этото очень удобно и ориентироваться не сложно! Я переписал всё на другой язык и на удивление всё заработало!!!
Спасибо огромное! До этого видел много материала про нейросети из других источников, но здесь для меня наиболее понятно и доходчиво! Теперь я понимаю их не только снаружи, но и внутри ;)
Подписка, однозначно! Очень нравится изложение, спокойный конкретный голос, кто-то скажет - монотонный - но это не так. Очень доходчиво для тех кто только знакомится с нейронками - мне бы этот видос лет пять назад посмотреть ) По теме - хотел бы увидеть вашу работу с рекуррентными и сверточными сетями, в таком же понятнтом виде с примерами и деталями.
Спасибо за ролик. Уже 4 года пытаюсь подобраться к нейронкам. Книги с питоном не сильно помогают, только отупляют, слишком много скрытой математики. На последнем подходе сконцентрировался на задаче написания простейшего персептрона. Понимая, что понадобятся очень эффективные вычисления постепенно подбираюсь к вычислительной математике, x86 ассемблеру, языку Си и операционной системе UNIX. Вы мне открыли глаза, я почему-то был уверен, что функция активации стоит на последнем выходном слое нейросети, а сейчас осознал насколько ошибался. И кстати в Вашем примере функция активации называется сигмоида, а не логистическая. Для большего изучения терминологии советую: Саймон Хайкин. "Нейронные сети. Полный курс."
Если быть серьезным, то видео - действительно классное. Видно, что старался. Очень понятно и доходчиво обьясняешь. А если не быть : АААААААААААА СПАСИБО, НАКОНЕЦ Я ЧТО-ТО ПОНЯЛ В ИИ!!!
ТОП контент на канале! Побольше бы такого, тем более в русскоязычном сегменте! Залпом посмотрел почти все. Надеюсь увидеть что-нибудь об обучении с подкреплением. Благо тема хорошо подходит для игр типа змейки, но к сожалению достаточно мало годной информации по ней. Да и сама тема гораздо более сложна для понимания. Но с таким серьёзным подходом я думаю можно разобраться.
Бро, большое тебе спасибо! Лазил по другим сайтам.... Лазил, и ничего так и не понял... Уже решил забросить... Но! Тут натыкаюсь на твой ролик, смотрю и думаю, как этот человек всё понятно объясняет! И подумал я, за хорошее объяснение ставлю лайк! Спасибо за понятно изложенную информацию!
Круто! В остальных ролика тонны воды, зубодробительных формул, и крайне много ущербной терминологии, причем ролики обучающие, у тебя же, все доступно и детально описано, спасибо!
Автор, огромный "респект и уважуха"! Сам пытаюсь разобраться с темой нейронных сетей, сижу с карандашом и бумагой, пытаюсь повторить путь Автора. Есть вопрос, на 6:39 идет корректировка весов связи и вычисляется производная df(e)/de. Я считаю, что запись df(e)/de не корректна. По правилам математики df(e)/de - это будет какая-то функция от переменной e: f'(e), именно функция, не число! Но здесь же вы оперируете абсолютными величинами ( числами). Я считаю более корректная запись должна выглядеть следующим образом: вычисляем производную функции активации в точке x=e: df(x)/dx | x=e. Вот теперь мы получаем число, которое участвует в вычислениях. В общем случае, для произвольной функции активации, при корректировке весов надо использовать наклон функции активации в точке e - в общем-то геометрический смысл первой производной))) А в целом все очень доступно и понятно! Спасибо за видео!
По моему вы очень хорошо разбираетесь в нейронных сетях, могли бы вы создать полноценный урок по нейронным сетям с ЗАОСТРЕНИЕМ НА ВАЖНЫХ ДЛЯ ПОНИМАНИЯ МОМЕНТАХ, ну тоесть по пунктам какую роль играют слои, ДЛЯ ЧЕГО НУЖНЫ ВЕСЫ, как распознается звук, видео и тд...ну тоесть весь потенциал ваших знаний по нейронным сетям в одном или нескольких уроках. НА ЯЗЫКЕ ПРОГРАММИРОВАНИЯ к примирования на С++ (только не готовый питон, потому что важно понимание внутренностей.). Понимаю, что на ютубе этого добра навалом, но по моему у вас понимание без лишнего хлама, от чего уроки получатся компактними.
Собственно примерно так и есть. Скопирую из комментариев выше: "Классические искусственные нейронные сети , всё то огромное многообразие современных крутых нейросетей, от тех, что распознают котиков и самолетов, до тех, что играют в игры Атари и доту - всё это, по сути, к сводится к задаче апроксимации функций. Есть некий вход, есть некий выход, сеть должна обучиться функции, которая примерно отображает вход на выход. Ни более, и не менее. А реализуются сети через много-много операций матричного умножения."
@@foo52ru КРУТО!!! Я подписан на ваш канал и с удовольствием просматриваю ваши видео. Я радиолюбитель, "ардуинщик" :)) именно любитель, по образованию не имею ничего общего с техникой или программированием. Но ваши видео очень интересны и полезны, так как помогают в понимании определенных алгоритмов. Возможно, когда-то и я дойду до создания своей нейронной сети на микроконтроллерах :)) Желаю успехов вам!
вы меня заразили и вдохновили ) на праздниках решил взяться за шашки. лет 10 в руки не брал и вот. написал все это на с++. ни как обучацо не хотело. пока образы с одной палкой (горизонтальной или вертикальной) не стал скармливать сетке в три раза чаще чем с двумя в одной эпохе. плюс добавил немного шума на вход. за пицот-шессот эпох учится. но я сделал с одним скрытым слоем 9-6-2 получилось. щя попробую вашу конфигурацию. интересно слушай )
вашу конфигурацию тоже удалось обучить. только больше итераций требуется. таргеты для обоих сетей 0.9 и 0.1. на входы подаю 0.99 и 0.01 с некоторым случайным шумом на каждом входе. обе без нейронов смещения. нужна теперь возможность сохранять и загружать параметры. и научиться скармливать реальные картинки. я уже позабыл все эти GDI, смотрю на свой древний код и ничего не понимаю )
Там и нужен один скрытый слой, я использовал два, что бы посмотреть корректность работы функций. Сейчас доделываю видео по работе с реальными картинками.
Чувак, ты только не обижайся) У тебя не самый приятный голос для диктора, НО я смотрю твои видео и не могу оторваться. И от начала до самого конца ролика не замечаю этого. Классный контент и подача материала! P.S. не вздумай что-либо менять в формате вещания (ни в лучшую , ни в худшую сторону) - это твоя фишка.
Класс! Это очень приемлемо для восстановления и оценки растровой графики, но не для векторной. Два года читаю в новостях- нейросеть, нейросеть... Одним Вашим видео понял ( в общих чертах), что и как она считывает. Сразу призадумался, как это можно использовать. Понимать, не ломая глаз ( на 85-90% ), капчу на сайтах? - Не нужно. Обработка ( восстановление) повреждённых фото (старинные, чёрно-белые )? Как вариант - интересно, зависит от степени повреждения снимка. Не об этом хочу сказать. Спасибо за пояснения алгоритма работы! Очень интересное видео! P.S. Продолжения ждём. Особенно- применение (интересное ( ознакомительное ), использование) на наших, не супер компьютерах.
Чтобы увидеть на то, как нейросети можно использовать, достаточно посмотреть на DeepHD, на автомобили с автопилотом, например, Tesla, у Яндекса и Гугла тоже есть какие-то наработки, вот уже в России вводят наклейку "А" для техники с автопилотом. А боты уже давно научились расшифровывать капчу, так что здесь им остаётся лишь держать планку.
@@CapitanSuk Боты еще не научились расшифровывать капчу. Есть соответствующие сервисы, в которых капчу расшифровывают индусы в ручном режиме, сидя у себя в Индии и выдавая ответ по линиям связи. Стоимость обработки одной капчи - около 10 центов.
@@СергейПартизанов-н1х В этом твоя проблема: ты говоришь "я все сказал выше" и не слушаешь чужих мнений, хотя до этого ты самостоятельно признал, что нихера в предмете не понимаешь. А ведь человек тебе дело может говорить.
Вот ещё одна книга по нейросетям для чайников: «Тадеусевич Р., Боровик Б., Гончаж Т., Леппер Б. Элементарное введение в технологию нейронных сетей с примерами программ, 2011 г.»
пусть пишет хоть на асме, у него достаточно интересная подача и подход даже к элементарным задачам. Кое что можно взять на вооружение при обучении детей программированию
+Eugene Pavlov, откуда статистика? Какая была выборка? Что с остальными 30%? Привожу Ваши-же слова - "Великолепно, наконец-то понял эти чертовы нейронные сети." вот это вот наконец-то могло произойти намного раньше. Что-же в этом плохого?
2:00 Подскажите, пожалуйста, где в функции f(e), приведённой в видео, можно взять значение переменной x, которая находится в показатели степени числа e, в знаменателе дроби?
функция записывается f(x). x - это число, которое передаётся функции. В данном случае - то, что пришло на вход нейрона(сумма входных сигналов). Результат, полученный после применения функции - это выход нейрона.
Результат похож на алгоритм SAO для обработки графики в видеоиграх. Просто блюр кинуть на конечную картинку и всё. Я про чёрно-белый оконтуренный видос.
Всю жизнь думал, зачем нужна математика для программирования, ведь там нужно хорошо мыслить, уметь писать код что бы был читабельным и работающим а математика по сути то и не нужна, но с этого видео увидел какие вещи можно творить с помощью математики! Спасибо автору за расширения сознания в области программирования!
Показал это видео своей нейронной сети, говорит надо лайк поставить...
Нажми класс если тебя держит умный дом
@@thzeroucken "Нажми класс" как это убого звучит
@@FUNKAFANTAS1 Нищебродский
@@thzeroucken а ты точно сможешь помочь, черт он идет
гыгыгыгыгыгыгыгы
Как говорится "Ничего не понял, но очень интересно"
Ну там ни "нечего", там другое слово)))
@@user-xtkjdtr16 Ну да, там написано "ничего".)
@@JosephStalin6730 , цензура
Так уходи отсюда
НИЧЕГО ИНТЕРЕСНОГО В НЕПОНЯТНОМ... ЧАСТОТНОМ ХАРАКТЕРЕ УСИЛЕННОГО СИГНАЛА НЕЙРОАКСОНОДЕНДРИТНОГО ХАРАКТЕРА,С ХАРАКТЕРИСТИКОЙ ОТКРЫТОГО КЛЮЧА...ТАК И ТЯНЕТСЯ НЕРВНЫЙ ИМПУЛЬС К МЫШЦЕ РУКЕ ЛАЙК ПОСТАВИТЬ...НО НЕНАШЛОСЬ АРГУМЕНТОВ.
Афигенный у тебя контент. Желаю дальше развиваться и выкладывать свои успехи на ютуб. У тебя стабильно раз в месяц видео выходит. Круто, что упор на качество, а не на количество. Я уже привык - сначала ставлю лайк, потом смотрю видео.
тоже лайк сразу поставил, мне очень зашло
То что система проявила хитрожопость- убила XD Класс мне понравилось!!!
Услышал и заплакал. Ааааа!!! Сеть проявила хитрожопость:))) ааааа
Автор, где ты был когда я учился. Плакать хочется. Впервые я хоть что-то понял про нейросети. С благодарностью и уважением отношусь к тебе. Искренне желаю творческих успехов и всех благ. Чести и удачи! ;)
Когда-то в универе поверхностно начинал разбираться с искуственным интелектом но прекратил. Случайно открыл твой ролик и как-то чувствую, что ты меня смотивировал снова попробовать в это погрузиться. Спасибо!
тем не менее, по вашему ролику мне стало намного понятнее строение и реализация нейронных сетей. Благодарю за помощь в "первой ступеньке" к пониманию темы.
Как тречок Кровостока слушать...)))))
После твоего коммента я не смог дальше слушать автора)))
Эта музыка у меня в голове заела, на столько всё плохо))
Коллаб НТР и Кровостока
смотрю на скорости 1.25
Хочешь станцуй грязные танцы.
Хочешь считай редкие шансы.
Умножай всё в уме. Дели на бумажке -
А я тут затру, про смерть Чебурашки...)
(Сейчас я уже знаю про нейросети) Вот честно, ты этот материал намного лучше рассказал. У тебя нет сплошного текста с непонятными формулами через переменные в три и более индексов, ты всё рассказал пошагово без стояния на одном моменте по несколько минут + сразу показал применение и очень простую реализацию, не используя сторонних библиотек, на простом коде pixilang'а. Делай дальше!
Идея для экспериментов:
1 сделать песочницу типа змейки только с более сложным миром и стравить разных змеек между собой, чтобы посмотреть какая конфигурация нейронной сети жизнеспособнее.
2 в той же песочнице сделать так чтобы конфигурация нейронной сети генерировалась случайно, а в процессе появлялись новые случайные блоки и дообучались. А победители могли перемешивать конфигурации своих сетей с разной степенью. Цель посмотреть сможет ли комп сгенерировать лучший вариант сети под задачу.
3 ко 2 варианту прирастание новых сенсоров.
4 змейки с разными маленькими сетями соединить в коллективный разум, мегасеть одного вида будет сражаться с мегасетью другого вида.
ruclips.net/video/KCB_eYkxk98/видео.html
тут нейронная сеть на биологических параметрах
Хорошая задумка, но уже становится ясно что обученная нейросеть (сети) будут применимы только э к этой песочнице, к этому типу задач.
Вот состряпать нейросеть которая обучена побирать необходимые параметры для предоставленной модели с дальнейшей целью контроля обучения нейросети более низкого уровня для работы с предоставленной моделью. (модель обучения с учителем, где учителем будет нейросеть :) ). Если очень закручено написал, могу переписать по проще.
Сам использую brainJS, постепенно подбираюсь к convnetjs и tensorflow
Это самое лучшее объяснение работы НС, что я видел!
"сеть проявила хитрожопость..." Поржал, стоит посмотреть хотя бы ради того чтобы понять эту фразу. Лайк.
Годно. В което веке доходчиво про нейросети.
Вот +++++++++++, а то напишут где в иной раз: "Вам наверняка не понятно как происходит A+B (я утрирую), ну а из этого нейронку построить - очевидный шаг. Всем спасибо до свидания" и ничего не понятно - а тут классно, всё понятно)
Разве сложно перемножать матрицы и оптимизировать веса градиентным спуском?? Это всего лишь аппроксимация функции
@@denispashnev912 вот-вот, а у него всё понятно)
ооочень кайфанул! Спасибо огромное. Подписка! Давно не хватало такого канала мне. Сочетание твоего голоса и интонаций с темой и музыкой неожиданно хорошо заходит.
Слава математике!
Математикам слава!
@@ВикторБухаров-ф3ь алгебра изи предмет
Слава богу
Мотемотечке*
Матану слава!
Михаил, как ни странно, после просмотра множества роликов про нейросети, этот оказался наиболее простым и понятным для понимания.
Жду вторую часть.
я очень жду
Чувак, я нифига не понял что ты сказал, но ты заговорил ...... и достучался до сердца !!! =)))
Просто, доступно, и по сути. Это видео меня реально заразило! Теперь думаю где можно применить нейронные сети в своих (в т.ч. будущих) проектах : )
Я месяц искал и тестил формулы для нейронных сетей чтоб правильно обучать и всегда напарывался на сети с ошибочными формулами. Нарвался на это видео и решил глянуть. Автор без воды и по существу рассказал как и что работает. Лучше инструкции и представить не могу.
ПС: У меня сеть сошлась по этим формулам, спасибо)
Классное понятное видео по контенту! В коем то веке что то практично встретил! Жду продолжения по этой теме.
Огромное спасибо Вам за видеоуроки, у Вас замечательное чувство юмора при этом. Здорово!
Спасибо за подробное разжовывание, похожих роликов не встречал...
Почему дневник автора гораздо полезнее и понятнее руководств, инструкций и книг? 😆 Автора прошу больше рассказывать про нейросети. 👍
Потому, что Ваш уровень знаний ближе к автору видео, а не автору книг.
спасибо, ты очень мне помог, долго не мог понять как оно работает, а в интернете подробной информации так и не нашёл, но после просмотра твоего ролика получилось написать многослойный персептрон
Большое спасибо! Видео и правда полезное! Главное (что другие не снимают) что код понятен для чтения его не много и зависит от темы, т.е. разказ код расказ код расказ код! Этото очень удобно и ориентироваться не сложно! Я переписал всё на другой язык и на удивление всё заработало!!!
Спасибо Вам за такие хорошие видео. Ждём продолжения.
Спасибо огромное! До этого видел много материала про нейросети из других источников, но здесь для меня наиболее понятно и доходчиво! Теперь я понимаю их не только снаружи, но и внутри ;)
Самое лучшее видео по нейронным сетям что я видел!
Подписка, однозначно! Очень нравится изложение, спокойный конкретный голос, кто-то скажет - монотонный - но это не так. Очень доходчиво для тех кто только знакомится с нейронками - мне бы этот видос лет пять назад посмотреть )
По теме - хотел бы увидеть вашу работу с рекуррентными и сверточными сетями, в таком же понятнтом виде с примерами и деталями.
Чувак, мне нравится твоё занятие нейросетями! Пожалуйста не бросай это дело, осень жду продолжения
По поводу Вашей ошибки - не ошибается только тот кто ничего не делает. Отличный ролик! Подписался )
Спасибо за канал.
я как раз ночью думал для себя что то подобное организовать.
Автор!
Никто так хорошо не обучает этому как ты...
Ты просто топ!!!
Спасибо за ролик. Уже 4 года пытаюсь подобраться к нейронкам. Книги с питоном не сильно помогают, только отупляют, слишком много скрытой математики. На последнем подходе сконцентрировался на задаче написания простейшего персептрона. Понимая, что понадобятся очень эффективные вычисления постепенно подбираюсь к вычислительной математике, x86 ассемблеру, языку Си и операционной системе UNIX. Вы мне открыли глаза, я почему-то был уверен, что функция активации стоит на последнем выходном слое нейросети, а сейчас осознал насколько ошибался. И кстати в Вашем примере функция активации называется сигмоида, а не логистическая. Для большего изучения терминологии советую: Саймон Хайкин. "Нейронные сети. Полный курс."
Если быть серьезным, то видео - действительно классное. Видно, что старался. Очень понятно и доходчиво обьясняешь. А если не быть : АААААААААААА СПАСИБО, НАКОНЕЦ Я ЧТО-ТО ПОНЯЛ В ИИ!!!
Отличное видео ! Очень буду ждать следующее видео !
Ютубчик подкинул твой видосик про змейки, заинтересовался этой темой, твои видео лучшие =) Спасибо.
ТОП контент на канале! Побольше бы такого, тем более в русскоязычном сегменте! Залпом посмотрел почти все. Надеюсь увидеть что-нибудь об обучении с подкреплением. Благо тема хорошо подходит для игр типа змейки, но к сожалению достаточно мало годной информации по ней. Да и сама тема гораздо более сложна для понимания. Но с таким серьёзным подходом я думаю можно разобраться.
Спасибо, очень простое и доступное объяснение без спама!
В предвкушении второй части подписался. С Новым Годом!
Слава Науке! Математикам Слава! Кто не дифференцирует, тот Паскаль!
Слава Україні
+Vitalii Savchuk, зачем?
@@gigigaga5469 хероям в срало
@@gigigaga5469 тупа рашня ніколи не скаже "Слава " своєму смітнику,зате буде обсиратися коли хтось скаже "Слава Україні". хворі люди...
Ребята, давайте жить дружно
Спасибо, я смог сделать нейронную сеть на c++, которая различает цифры с точностью 98%. Жду продолжения))
+TiStaliv а сама цифры писать умеет? Автор вон не обучал рисовать, а она рисует.
интересно, занимаюсь такой же задачей в рамках курсовой. Не очень получается, если честно
Спасибо за видосы. Очень годно. С нетерпением жду следующего.
Просмотрел видео и нашел ошибку в своей нейронке, спасибо! Жду продолжения, может в очередной раз найду ошибки и пробелы знаний у себя.
Бро, большое тебе спасибо! Лазил по другим сайтам.... Лазил, и ничего так и не понял... Уже решил забросить... Но! Тут натыкаюсь на твой ролик, смотрю и думаю, как этот человек всё понятно объясняет! И подумал я, за хорошее объяснение ставлю лайк! Спасибо за понятно изложенную информацию!
Интересная работа! Респект автору!
Как же хорошо вы все разложили. Спасибо.
Класс, хоть это и твой дневник мне стало очень многое понятно. Спасибо!
Спасибо. Интересно. Подписался буду следить за вашим экспериментом.
Спасибо, классное объяснение! Смотрел это видео ещё в конце 2019, но комментарий написал только сейчас.
Очень крутой и полезный контент. Спасибо за труды!
Круто! В остальных ролика тонны воды, зубодробительных формул, и крайне много ущербной терминологии, причем ролики обучающие, у тебя же, все доступно и детально описано, спасибо!
Жду змейку на основе нейросети)
Жду нейросеть на основе змейки
Змейка станет предком скайнета - через 1000000 итераций !
лол
ага, хочешь чтоб было как в матрице?!?!?!
Появляйся в моих рекомендациях как можно чаще!
Автор, огромный "респект и уважуха"!
Сам пытаюсь разобраться с темой нейронных сетей, сижу с карандашом и бумагой, пытаюсь повторить путь Автора.
Есть вопрос, на 6:39 идет корректировка весов связи и вычисляется производная df(e)/de.
Я считаю, что запись df(e)/de не корректна. По правилам математики df(e)/de - это будет какая-то функция от переменной e: f'(e), именно функция, не число! Но здесь же вы оперируете абсолютными величинами ( числами).
Я считаю более корректная запись должна выглядеть следующим образом:
вычисляем производную функции активации в точке x=e: df(x)/dx | x=e. Вот теперь мы получаем число, которое участвует в вычислениях.
В общем случае, для произвольной функции активации, при корректировке весов надо использовать наклон функции активации в точке e - в общем-то геометрический смысл первой производной)))
А в целом все очень доступно и понятно! Спасибо за видео!
Автор, ты капитальный молодец :)
Интереснейший канал! Ждем мир ботов на основе конкурирующих нейронных сетей! Рекомендую: Ян Гудфеллоу - глубокое обучение
По моему вы очень хорошо разбираетесь в нейронных сетях, могли бы вы создать полноценный урок по нейронным сетям с ЗАОСТРЕНИЕМ НА ВАЖНЫХ ДЛЯ ПОНИМАНИЯ МОМЕНТАХ, ну тоесть по пунктам какую роль играют слои, ДЛЯ ЧЕГО НУЖНЫ ВЕСЫ, как распознается звук, видео и тд...ну тоесть весь потенциал ваших знаний по нейронным сетям в одном или нескольких уроках. НА ЯЗЫКЕ ПРОГРАММИРОВАНИЯ к примирования на С++ (только не готовый питон, потому что важно понимание внутренностей.). Понимаю, что на ютубе этого добра навалом, но по моему у вас понимание без лишнего хлама, от чего уроки получатся компактними.
Давольно интересно, продолжай
лол
до меня только что дошло, что глубокая нейро сеть это грубо говоря огромное уравнение
Собственно примерно так и есть. Скопирую из комментариев выше:
"Классические искусственные нейронные сети , всё то огромное многообразие современных крутых нейросетей, от тех, что распознают котиков и самолетов, до тех, что играют в игры Атари и доту - всё это, по сути, к сводится к задаче апроксимации функций. Есть некий вход, есть некий выход, сеть должна обучиться функции, которая примерно отображает вход на выход. Ни более, и не менее. А реализуются сети через много-много операций матричного умножения."
Это просто офигенно!
Спасибо за очень интересное видео!!!
Подскажите, а что за музыка у вас используется?
я сам пишу музыку для роликов
@@foo52ru КРУТО!!!
Я подписан на ваш канал и с удовольствием просматриваю ваши видео. Я радиолюбитель, "ардуинщик" :)) именно любитель, по образованию не имею ничего общего с техникой или программированием. Но ваши видео очень интересны и полезны, так как помогают в понимании определенных алгоритмов. Возможно, когда-то и я дойду до создания своей нейронной сети на микроконтроллерах :))
Желаю успехов вам!
@@foo52ru 💪💪
@@UCanDo я тоже смотрю ваш канал! Очень круто что есть такие люди которые всем этим занимаются и помогают в понимании просессов)
СПС, Ждёёём второй части. =)
Респект за эти видео. Python всё таки облегчил бы жизнь)
вы меня заразили и вдохновили ) на праздниках решил взяться за шашки. лет 10 в руки не брал и вот. написал все это на с++. ни как обучацо не хотело. пока образы с одной палкой (горизонтальной или вертикальной) не стал скармливать сетке в три раза чаще чем с двумя в одной эпохе. плюс добавил немного шума на вход. за пицот-шессот эпох учится. но я сделал с одним скрытым слоем 9-6-2 получилось. щя попробую вашу конфигурацию. интересно слушай )
вашу конфигурацию тоже удалось обучить. только больше итераций требуется. таргеты для обоих сетей 0.9 и 0.1. на входы подаю 0.99 и 0.01 с некоторым случайным шумом на каждом входе. обе без нейронов смещения. нужна теперь возможность сохранять и загружать параметры. и научиться скармливать реальные картинки. я уже позабыл все эти GDI, смотрю на свой древний код и ничего не понимаю )
Там и нужен один скрытый слой, я использовал два, что бы посмотреть корректность работы функций. Сейчас доделываю видео по работе с реальными картинками.
тоже решил растить "свовего тамогочи" чисто ради удовольствия. могу поделицо исходниками. тем более что сегодня в них нет ничего секретного )
Давно ждал подобные ролики
Спасибо тебе добрый человек.Только просмотрев твое видео,понял свою ошибку.
Мне нравятся ваши преобразования * материи и времени 🌊🙊
спасибо за труд. и спасибо за Pixilang.
Спасибо большое за интересный ролик
музыка супер!
Чувак, ты только не обижайся)
У тебя не самый приятный голос для диктора, НО я смотрю твои видео и не могу оторваться. И от начала до самого конца ролика не замечаю этого.
Классный контент и подача материала!
P.S. не вздумай что-либо менять в формате вещания (ни в лучшую , ни в худшую сторону) - это твоя фишка.
Я себя таким идиотом чувствую, жалко не занимался программированием, автор, большое тебе уважение за твою крапотливость и упорство, так держать!!!!!!
Пробовали распаралеливать/передавать вычисление на GPU через через OpenCL ?
ты крутеший чел , с суперским контентом, продолжай том же духе
Очень круто, молодец!
Ура, долго ждали)
агонь!
а по какому принципу было выбрано количество нейронов в двух скрытых слоях в задаче про вертикальные и горизонтальные линии?
Благодарю за познавательное видео.
Начало великолепное
Класс! Это очень приемлемо для восстановления и оценки растровой графики, но не для векторной. Два года читаю в новостях- нейросеть, нейросеть... Одним Вашим видео понял ( в общих чертах), что и как она считывает. Сразу призадумался, как это можно использовать. Понимать, не ломая глаз ( на 85-90% ), капчу на сайтах? - Не нужно. Обработка ( восстановление) повреждённых фото (старинные, чёрно-белые )? Как вариант - интересно, зависит от степени повреждения снимка.
Не об этом хочу сказать. Спасибо за пояснения алгоритма работы! Очень интересное видео!
P.S. Продолжения ждём. Особенно- применение (интересное ( ознакомительное ), использование) на наших, не супер компьютерах.
Чтобы увидеть на то, как нейросети можно использовать, достаточно посмотреть на DeepHD, на автомобили с автопилотом, например, Tesla, у Яндекса и Гугла тоже есть какие-то наработки, вот уже в России вводят наклейку "А" для техники с автопилотом. А боты уже давно научились расшифровывать капчу, так что здесь им остаётся лишь держать планку.
@@CapitanSuk Я всё сказал выше. Мне Tesla- не интересна, и еже с ними... Ещё вопросы, по существу, будут?
@@CapitanSuk Боты еще не научились расшифровывать капчу. Есть соответствующие сервисы, в которых капчу расшифровывают индусы в ручном режиме, сидя у себя в Индии и выдавая ответ по линиям связи. Стоимость обработки одной капчи - около 10 центов.
@@СергейПартизанов-н1х В этом твоя проблема: ты говоришь "я все сказал выше" и не слушаешь чужих мнений, хотя до этого ты самостоятельно признал, что нихера в предмете не понимаешь. А ведь человек тебе дело может говорить.
Вот нейросеть прекрасно восстанавливает цвет на старинный ч/б фотках, особенно хорошо когда узнает объекты
demos.algorithmia.com/colorize-photos/
Отличное качество видео,спасибо очень полезно
Плюсую за математику! Если заниматься хай-теком, без нее как без рук. Сам страдаю.
Качественно и интересно супер спасибо
Блин, через два года я только теперь понял зачем квадраты ошибок. Да, математике во веки слава!
Огромное спасибо. Думаю автор объясняется то, что делает tenderflow, numpy, но не только.
Большое спасибо за труд !
Спасибо за видео очень интересно и полезно
Вот ещё одна книга по нейросетям для чайников: «Тадеусевич Р., Боровик Б., Гончаж Т., Леппер Б. Элементарное введение в технологию нейронных сетей с примерами программ, 2011 г.»
Спасибо.
15:06 сеть проявила хитрожопость :D ёрт да это гениально!
15:05 "Сеть проявила хитрожопость..." Люди у себя это называют "интуицией".
Великолепно, наконец-то понял эти чертовы нейронные сети. И да, лучше пиши на C++, Pixilang это ужс....
пусть пишет хоть на асме, у него достаточно интересная подача и подход даже к элементарным задачам. Кое что можно взять на вооружение при обучении детей программированию
@@Orakcool Дети в программировании это плохо в 70% случаев.
+Eugene Pavlov, откуда статистика? Какая была выборка? Что с остальными 30%?
Привожу Ваши-же слова - "Великолепно, наконец-то понял эти чертовы нейронные сети." вот это вот наконец-то могло произойти намного раньше. Что-же в этом плохого?
Ни фига не понятно, но ОООЧЕНЬ интересно )))))
очень интересно спасибо за годный контент
Слава математике! Живите и процветайте! :)
Круто! !! Молоток
2:00 Подскажите, пожалуйста, где в функции f(e), приведённой в видео, можно взять значение переменной x, которая находится в показатели степени числа e, в знаменателе дроби?
функция записывается f(x).
x - это число, которое передаётся функции. В данном случае - то, что пришло на вход нейрона(сумма входных сигналов). Результат, полученный после применения функции - это выход нейрона.
Результат похож на алгоритм SAO для обработки графики в видеоиграх. Просто блюр кинуть на конечную картинку и всё. Я про чёрно-белый оконтуренный видос.
4:13 если слоёв больше двух то функцию активации использовать для нейронов каждого слоя?
да
Всю жизнь думал, зачем нужна математика для программирования, ведь там нужно хорошо мыслить, уметь писать код что бы был читабельным и работающим а математика по сути то и не нужна, но с этого видео увидел какие вещи можно творить с помощью математики! Спасибо автору за расширения сознания в области программирования!