прекидовайш с каким фейспалмом да любые неробиологи на вот такое все неточто смотрят а СЛУШАЛИ с с60Х ? когда совковую кибернетику лженауко покрестили ...? и непсроста вашет еше боел неспроста ианч как ну свтасть 90х там .. и свта вера невьспена в 146% (ну 146млн рабсиянцев ) или еше боле ... 43млн морекопов дык каие данные то ?
Если это самое простое объяснение нейросети, то мне трудно представить, как будет выглядеть самое сложное. Как говорится, ниx*я не понятно, но очень интересно.
@@TheLogEdge Не думаю, что вопрос в плевать. Вполне могу допустить 2 варианта. 1 - у человека очень плохое аудио оборудование, или сводит звук в колонках, не тестируя в наушниках или что то вокруг этого. 2 - автор может в матчасть, но не чувствует \ не знает как в сведение. В целом то видос хороший. Тут не про плевать, как мне кажется.
Программированием занимался, но в другой сфере, всегда было интересно как люди додумались до процесса обучения машин. Теперь многое прояснилось и эта тема уже не столь загадочна, спасибо за хороший и содержательный ролик!
Не ну автор вообще красавчик, подача информации просто шик. Я уже посмотрел пару видосов на эту тему и у тебя самый подробный и исчерпывающий, по крайней мере для начинающего юзера, как я. Большой спасибо за труд!
@@programmcatкак база для первого видео по тематике - вполне неплохо. 👍🏻 Хотелось бы видео по теме нейросетей и решения каких-нибудь интересных задач о которых еще не снято миллиона роликов. Например, как создать и обучить нейросеть-автоответчик на основе своих диалогов в вк (там можно выгрузить вся историю в текстовых файлах). Здесь и парсинг текстовых файлов, и подготовка обучающего датасета, и нейросетка. Интересно, применимо и прикольно
как же я ору, как все пытаются "просто" объяснить основы нейронок и на моменте с обратным распространением каждый раз начинается вообще не простой ад)) хотя там всё очень просто: и "квадратичная функция ошибки" - если её значение находится в пределах от -1 до 1 (т.е. функция активации последнего слоя либо сигмоида, либо softsign), то это простая подгонка под последующие вычисления производной. ведь производная квадрата Х равна 2Х. и чтобы избавиться от этой двойки сразу делят на 2. В итоге, при вычислении ошибки мы используем dЕ/dx = (x - y) если E = (x - y)^2/2 т.е. просто разницу между выходным значением и желаемым результатом. а если бы мы не возвели в квадрат, то ошибка попросту бы нивелировалась при вычислении производной. и становится понятно почему ReLU ( x0 ? x ) является распространённой функцией активации, когда видишь, что её производная равна 0 либо 1, что упрощает вычисление обратного распространения ошибки и в ней вообще не учитывается значение этого нейрона. т.е. если нейрон никак не влияет на конечный результат, то и ошибку для него мы не вычисляем, и веса не меняем. это самая удобная функция для промежуточных слоёв. зы. и в видео никак не разъяснено что такое вспомогательный нейрон (b) (смещение) у каждого слоя, что его значение всегда равно 1, т.к. важно не его значение, а веса, идущие от него. зыы. лучшее объяснение этой темы в серии видео DeepLearning от канала 3Blue1Brown. в переводе Sciberia можно глянуть. там не просто. зато обретаешь понимание)
нормально объяснил, сначало говорит что у перцептрона много входов и один выход и тут же рисует нейронку где куча выходов, спасибо очень понятно, объяснения не ваш конек.
Короч на середине стало понятно что ничего не понятно. Нужен реальный проект и реальный пример, чтобы разобраться шаг за шагом. А этот дикий запад на фоне вообще отвлекает.
Нет. Главное в функции активации. Она выбирает, какие нейроны будут использоваться. Каждый нейрон превращается в кусочек распознанных данных, как флажок, означающий, что обнаружен некий кусочек
1)Генерация случайных чисел. 2)Сравнивание значений с логическими 1и 0. 3)Задание результатов генерации ответов. 4)Структуризация данных для генерации ответа. 5)В итоге мы имее большое количество переменных, операторов, и конвертеров значений которые превращают переменную в команду для выполнения в программе абстрагирующую систему сложных данных в результат: Картинка, Видео, Аудио. Тупо Фотошоп с пером и ФЛСтудио с виртуальной миди клавиатурой, и виртуальный сканер экрана.
Если бы я снимал подобное видео, я бы объяснил все так: Каждый слой ищет чуть более сложные структуры в предыдущем выходе предыдущего слоя. Пример: сверточная нейросеть, распознающая объекты на картинках: Это значит, что сначала пиксели собираются в черточки, которые эффективно описывают картинку (другие черточки отбрасываются, если они неэффективны) Затем собираются уголки из черточек и лишние снова отбрасываются. Затем фигуры из уголоков, затем сложные фигуры, затем части предметов и затем сами предметы. Простыми словами, нейросеть комбинирует все и со всем, но отбрасывает неэффективные комбинации, которые плохо описывают изображение
@@Ewixx_ тоже не понимаю это вечное "слишком сложно" у людей. По сути, познать можно многое, разве что разным людям требуется разное количество времени. И умение дробить сложные задачи на более мелкие. В том числе, на этапе обучения. Но всегда проще сказать "как это вообще, слишком сложно и вообще, автор виноват, что я всё равно ничего не понял") Приятно увидеть, что есть и вот такие люди в комментариях, как вы
Никаких весов в сети быть не должно, могут быть только электрические сопротивления синапсов. И да если эти сопротивления только положительные то сеть не сможет полностью обучиться, только наполовину. Как объяснить знак электрического сопротивления непонятно. Не умножать надо а делить: заряд нейрона делим на сопротивление синапса, получаем заряд следующего нейрона. ------------- Если человек понимает нейронную сеть он должен объяснить зачем нужны её элементы. Например: 1) зачем нужна функция активации, 2) зачем нужно смещение (?) Потому что без них не работает не принимается. Сеть которая тут показана излишне сложна для начинающих. Она должна выдавать всего два ответа: это единица и это не единица. Дробные числа не надо использовать - это усложняет программу и может вести к непредсказуемым, случайным ошибкам.
Автор, логика повествования хромает. Самые простые темы Вы подаете ещё проще. А на более сложных - не производите упрощение и сливаетесь. Огромный промежуток времени видео посвятили буквальному разжевыванию и визуализации того, что входной нейрон умножает показатель на вес, суммирует и тд. Очень много графики такого простого процесса. А на самой сложной и важной теме - как высчитываются веса - не даете никакой инфографики ограничившись буквально парой фраз в стиле "что-то там как-то высчитывается". Надо бы наоборот. За минуту пробежать по входному слою, а остальное время и инфографику с анимацией посвятить подробнее работе с весами. Очень нелогичное решение. Конечно программисты будут меня хейтить. Но, добавлю в ответ: Видео называется "Самое простое объяснение нейросети". Вряд ли профессиональным программистам нужно такое видео, не так ли? Они и так в курсе всего. Это видео для тех кто не в теме же!
Объяснение надо дорабатывать. Чтобы оно действительно было легко понятным. Кроме того, в ролике речь о решении лишь одной частной задачи - распознавание изображений (да и то не любых, а лишь цифр). А реальных задач в жизни гораздо больше и в них востребовано бОльшее разнообразие методов.
Скажите, может ли нейросеть сама выбирать параметры из списка, находить оптимальные параметры сглаживания и оптимальные значения. А также добавлять изменения при условии сохранения макс эффективности результата?
Привет, Кот! Как можно вставить в мягкую игрушку нейронную сеть и начать её обучать человеку, который не умеет пользоваться компьютером? Предполагается что обучение будет проходить только через диалог, и если нужно подтвердить правильность выбора, то тоже через диалог или на крайний вариант две кнопки на мягкой игрушке "Да" или "Нет". Может такая игрушка уже создана и недорого состоит? Сколько будут стоить недорогие компоненты что бы мягкую игрушку снабдить всем необходимым?
Нейросети требуют затратных вычислений и недорогой такая игрушка точно не будет. А учитывая голосовое обучение - так вовсе с заоблачной суммой, так как распознавание речи - сам по себе процесс сложный и задействующий другие предобученные нейросети.
Для рапознования рукописных цифр используются нейронные сети типа свёртки, а не перцептроны, как я слышал. Перцептрон - это простейший вид нейронной сети, который также еще называют полносвязной нейронной сетью.
Говорит что у каждого нейрона несколько входов и один выход, но на картинке 3:40 каждый нейрон скрытого слоя соединен с каждым нейроном выходного слоя... Так несколько выходов или один ?🤔
А чем, в таком случае, распознавание письменных букв отличается от того же phash (алгоритм поиска похожих картинок)? Ведь суть работы по факту cхожа. Тогда зачем заморачивается с этими всеми нейронами\перцептронами если есть алгоритм во много раз проще?
Одно дело сравнивать с существующими картинками, искать похожие картинки и совсем другое дело уметь распознавать цифры с разным написанием и быть способным на определение случаев, отсутствующих в обучающих данных. Этим и сильны нейросети. Они тупо мощнее распознают и могут действовать за пределами обучающей выборки, в то время, как phash только сравнивает с существующими картинками
@@Andrew-oh6kg нейросеть похожих не ищет. Она может познавать случаи, не похожие на имеющиеся. То есть она обобщает и находит зависимости. Не просто так сейчас нейросети популярны, это очень мощная технология
@programmcat, есть ли у меня смысл изучать нейросети и пытаться делать свои нейронные сети, если они очень развиты (например ChatGPT или Midjourney)? Или мне лучше не изобретать велосипеды и учить другую отрасль программирования, где мне тоже интересно?
Привет, классное видео, лучшее я бы сказал. А можно для тех кто в танке, у нас веса которые идут от входного слоя к скрытому слою тоже ведь обновляются?
Простое объяснение нейросети состоит из 2 предложений: 1. Нейросеть - метод аппроксимации набора эталонных точек (обучающей выборки) в многомерном пространстве входных/выходных данных (каждый вход/выход - отдельная координатная ось этого пространства) очень сложной нелинейной функцией (сама нейросеть), собранной из множества примитивных нелинейных функций ("нейронов"). 2. "Обучение" нейросети - минимизация ошибки этой функции в этих точках: метод наименьших квадратов на максималках. P.S. Нейросеть - эвристика, вынужденно используемая для задач, решать которые нужно, но алгоритма решения которых не существует или не найдено. И как любая эвристика, нейросеть не может не ошибаться. Если нейросеть никогда не ошибается, значит она бессмысленно расходует электроэнергию: для этой задачи существует алгоритм решения, требующий несравнимо меньше вычислений, чем нейросеть.
Спасибо за видео, но как же вы достали со своими телеграмм каналами, что полезные ссылки не судьба разместить в описании. А ведь почти подписался, удачи в телеграмме)
Насколько знаю лицензия на использования QT далеко не дешевая. Да и есть готовые свободные зрелые фреймворки на Python для скриптинга, а написаны на С++ - так намного удобнее. Если углубляться в машинное обучение вам понадобится линейная алгебра для расчета тензоров, дифференциальное, интегральное исчесление, статитстика и т.д. Состав нейросетей очень усложнился, что-бы стать спецом по нейросетям нужно только этим направлением и заниматься.
Спасибо за ролик. Очень громкая фоновая музыка, делайте пожалуйста тише. Может вообще в образовательные ролики не добавлять фоновую музыку? Люди же не для развлечений такое смотрят, а для получения нужной информации.
И где "готовый алгоритм" ? Конечно, нужно отдать автору должное - это самое полное руководство, из тех, что я видел по данной теме, и оставленные лакуны (как минимум - реализации функций, их производных и типичные значения констант) можно попробовать восстановить. Но это точно не "готовый алгоритм", который обещало видео. Кроме того. Общая иллюстрация категорически неполна - на ней обязаны присутствовать веса (отдельными узлами, показывающими их принадлежность) и смещения - атрибутами "нейронных" узлов.
про веса вообще плохо сказал нет точного описания "как влияет на..." откуда и что? пустота на исходнике мало влияет? или что на картинке влияет на вес?
@@umdois6849 да у меня диссонанс просто возник от фразы "даже в qt") я привык, что нейросети на питоне делают. И ожидал, что в этом видео, которое порекомендовал мне ютуб, будет что-то ещё проще, чем питон) А так, с++ немного знаю и умею. А qt, насколько мне известно, платная и к тому же (возможно) запрещают или ограничивают русских в его использовании. Полгода назад хотел попробовать его использовать. Сам я за полностью бесплатные и опенсорсные решения.
Отличное видео для людей с бессонницей - я два раза засыпал на фрагменте объяснения вычислений! 😆Шучу. Всё объяснил настолько доходчиво, что я заново понял то, что учил ещё в инстиуте. 👍 Одно непонятно: если у тебя большая выборка рукописных цифр и ты написал правильный алгоритм, почему он ошибается на рукописном вводе??
Плохая сходимость сети. Грубо говоря, модель плохо аппроксимировала исходную функцию зависимости между выходными и выходными данными. Это может быть связано либо с недостаточным набором данных, нейронов, либо с недоучиванием или с переобучением
В нейронной связи: просто перемножаются 2 значения, а за тем на выходе происходит сложение нейронных связей ВСЁ! да, их получается больше, но проще и быстрее
В одной папке картинки, в другой музыка, тоже разбитая по папкам и тд. Более простое объснение. Все это соединяется в общую картину по заданому алгоритму.Вообщем Как то так.
3.9.2023 Этой ночью, я успешно смоделировал, роботу своей первой в жизни нейросхемы. Основана на нейронах с нечёткой логикой. Вычисление одного ответа для сети из десяти тысячь нейронов занимает две секунды. Входит в состояние соответствия любой функции f(от трёх логических переменных) за минуту обучения сети из 14 нейронов. Жаль, что я всю жизнь безработный.
04:34 - я имел в виду входов ))
Видео класс. Думаю, что музыка в видео громковата
@@VladimirNerby есть такой косяк
не называй
те чипы
приметивыне кста
НЕРОНАМИ !
даже ладноб ешслиб еше ТОГДА назвал Исксвеным нероном
но
эт тогда
атерь
какой нахрен нейрон ? !
довай про то что транзистор это
КАКОЙ нейрон ?!
не неразу ж не подмена понятий ? !
дык какой ?
прекидовайш с каким фейспалмом да любые неробиологи на вот такое все неточто смотрят а СЛУШАЛИ
с
с60Х ?
когда совковую кибернетику лженауко покрестили ...?
и непсроста
вашет еше боел неспроста
ианч как
ну
свтасть 90х там ..
и свта вера невьспена в 146% (ну 146млн рабсиянцев )
или еше боле ...
43млн морекопов
дык каие данные то ?
Если это самое простое объяснение нейросети, то мне трудно представить, как будет выглядеть самое сложное.
Как говорится, ниx*я не понятно, но очень интересно.
Поймал себя на мысли что, с 10:00 было оч трудно слушать речь. Музыка очень активная, и громче голоса. Видос топчик)
У меня раньше началось, выбесила просто
Меня вот что удивляет - неужели настолько плевать на то, как будут воспринимать твое творение люди?
@@TheLogEdge Не думаю, что вопрос в плевать. Вполне могу допустить 2 варианта. 1 - у человека очень плохое аудио оборудование, или сводит звук в колонках, не тестируя в наушниках или что то вокруг этого. 2 - автор может в матчасть, но не чувствует \ не знает как в сведение. В целом то видос хороший. Тут не про плевать, как мне кажется.
Программированием занимался, но в другой сфере, всегда было интересно как люди додумались до процесса обучения машин. Теперь многое прояснилось и эта тема уже не столь загадочна, спасибо за хороший и содержательный ролик!
Не ну автор вообще красавчик, подача информации просто шик. Я уже посмотрел пару видосов на эту тему и у тебя самый подробный и исчерпывающий, по крайней мере для начинающего юзера, как я. Большой спасибо за труд!
Ура, тысячный ролик на тему создания нейронки для распознавания циферок просмотрен.
лучшая антиреклама таким роликам
Что просили, то и сделал
Ты думаешь, знания "просмотрами" в голову влазят? :) Тут кумекать нужно!
@@daitedve1984 , а я не про знания. Я про их количество.
@@programmcatкак база для первого видео по тематике - вполне неплохо. 👍🏻 Хотелось бы видео по теме нейросетей и решения каких-нибудь интересных задач о которых еще не снято миллиона роликов. Например, как создать и обучить нейросеть-автоответчик на основе своих диалогов в вк (там можно выгрузить вся историю в текстовых файлах). Здесь и парсинг текстовых файлов, и подготовка обучающего датасета, и нейросетка. Интересно, применимо и прикольно
как же я ору, как все пытаются "просто" объяснить основы нейронок и на моменте с обратным распространением каждый раз начинается вообще не простой ад)) хотя там всё очень просто:
и "квадратичная функция ошибки" - если её значение находится в пределах от -1 до 1 (т.е. функция активации последнего слоя либо сигмоида, либо softsign), то это простая подгонка под последующие вычисления производной. ведь производная квадрата Х равна 2Х. и чтобы избавиться от этой двойки сразу делят на 2. В итоге, при вычислении ошибки мы используем dЕ/dx = (x - y) если E = (x - y)^2/2 т.е. просто разницу между выходным значением и желаемым результатом. а если бы мы не возвели в квадрат, то ошибка попросту бы нивелировалась при вычислении производной.
и становится понятно почему ReLU ( x0 ? x ) является распространённой функцией активации, когда видишь, что её производная равна 0 либо 1, что упрощает вычисление обратного распространения ошибки и в ней вообще не учитывается значение этого нейрона. т.е. если нейрон никак не влияет на конечный результат, то и ошибку для него мы не вычисляем, и веса не меняем. это самая удобная функция для промежуточных слоёв.
зы. и в видео никак не разъяснено что такое вспомогательный нейрон (b) (смещение) у каждого слоя, что его значение всегда равно 1, т.к. важно не его значение, а веса, идущие от него.
зыы. лучшее объяснение этой темы в серии видео DeepLearning от канала 3Blue1Brown. в переводе Sciberia можно глянуть. там не просто. зато обретаешь понимание)
да понятно, что бред и без нормальной математики там не разберутся, только самые верха понять
но все равно автору спасибо! больше материалов, больше топлива для понимания.
@@serge2773 это да. правда, они повторяют все одно и то же. за год ситуация практически не изменилась.
Музыку можно погромче? Не слышу её
Просто нужно было смотреть в наушниках
Нет
@@psyhotel4009 чо нет то
Да
Автор сделал версию без музыки
В нынешнее время редко когда название ролика соответствует содержимому, отдельный лайк за это
Ложь. Тут заумно рассказоно. Не ведитесь
Вот это груз... спасибо за "простое" объяснение, проще наверное нейросеть попросить объяснить как она работает
чем тебе не нравится?
@@MathPTU туповат
@@MathPTUон математику не учил
нормально объяснил, сначало говорит что у перцептрона много входов и один выход и тут же рисует нейронку где куча выходов, спасибо очень понятно, объяснения не ваш конек.
Очень полезное видео, спасибо, ты практически на пальцах понятно разложил не самую простую тему.
Посмотрел 4 : 45 видео, и чувствую закипел, теперь надо всё переварить продолжу смотреть позже, за взрыв мозга сразу лайк ставлю
Ролик просто супер!
С ВОЗВРАЩЕНИЕМ, спасибо за качественный материал!
Это первое внятное объяснеие! Спасибо большое за труд!!!)😊
Ролик - отличный! Спасибо вам!
Ух! Я досмотрел видео до конца)
Короч на середине стало понятно что ничего не понятно. Нужен реальный проект и реальный пример, чтобы разобраться шаг за шагом. А этот дикий запад на фоне вообще отвлекает.
Главное в том, что нейрон может иметь несколько входов и лишь один выход.
Нет. Главное в функции активации. Она выбирает, какие нейроны будут использоваться. Каждый нейрон превращается в кусочек распознанных данных, как флажок, означающий, что обнаружен некий кусочек
1)Генерация случайных чисел.
2)Сравнивание значений с логическими 1и 0.
3)Задание результатов генерации ответов.
4)Структуризация данных для генерации ответа.
5)В итоге мы имее большое количество переменных, операторов, и конвертеров значений которые превращают переменную в команду для выполнения в программе абстрагирующую систему сложных данных в результат: Картинка, Видео, Аудио. Тупо Фотошоп с пером и ФЛСтудио с виртуальной миди клавиатурой, и виртуальный сканер экрана.
Привет! Очень классный монтаж. Подскажи пожалуйста какую программу для монтажа используешь?
Если бы я снимал подобное видео, я бы объяснил все так:
Каждый слой ищет чуть более сложные структуры в предыдущем выходе предыдущего слоя.
Пример: сверточная нейросеть, распознающая объекты на картинках:
Это значит, что сначала пиксели собираются в черточки, которые эффективно описывают картинку (другие черточки отбрасываются, если они неэффективны)
Затем собираются уголки из черточек и лишние снова отбрасываются. Затем фигуры из уголоков, затем сложные фигуры, затем части предметов и затем сами предметы.
Простыми словами, нейросеть комбинирует все и со всем, но отбрасывает неэффективные комбинации, которые плохо описывают изображение
Спасибо. Всё более менее ясно и понятно.
спец алгоритм нифига себе. Спасибо! :) )))
Крутое видео, только вот музыка на фоне слишком громкая и отвлекает сильно. На мой взгляд, для таких роликов нужен более спокойный и тихий фон
Можно музыку еще громче?
Всю дорогу говорится, что у нейрона один выход. Но весь ролик на картинках у промежуточных нейронов нарисовоно много выходов.
нероны то гиде ?))
искусвеные нероны НЕ НЕЙРОНЫ !
@@88vok посмеялся от души. Жги еще
отлично, понятно, спасибо!)
Супер. Так долго искал вводный материал который охватывает кей пойнты за 15 минут. А где можно скачать твою прогу, которую в конце показвал ?
очень хорошо 👌
музыка как будто обзор на ферму
Боже, как же Вы вовремя!! Буквально недели полторы назад начала изучать нейросети и мне жутко не хватало простого объяснения, спасибо!)
Нейросети слишком сложно
Как это можно понять
@@umdois6849 во всём можно разобраться, если действовать последовательно и настойчиво)
А зачем вы это начали?
@@ВиталийЧемизов во-первых - стало просто интересно, а во-вторых - хочу попробовать связать нейросети с химией
@@Ewixx_ тоже не понимаю это вечное "слишком сложно" у людей. По сути, познать можно многое, разве что разным людям требуется разное количество времени. И умение дробить сложные задачи на более мелкие. В том числе, на этапе обучения. Но всегда проще сказать "как это вообще, слишком сложно и вообще, автор виноват, что я всё равно ничего не понял") Приятно увидеть, что есть и вот такие люди в комментариях, как вы
Ничего не понял, но очень понравилось...)
Здравствуйте, подскажите, а есть ли нейросеть для экселя?! Если да, то могли бы вы сделать на неё обзор?
Никаких весов в сети быть не должно, могут быть только электрические сопротивления синапсов. И да если эти сопротивления только положительные то сеть не сможет полностью обучиться, только наполовину. Как объяснить знак электрического сопротивления непонятно. Не умножать надо а делить: заряд нейрона делим на сопротивление синапса, получаем заряд следующего нейрона.
-------------
Если человек понимает нейронную сеть он должен объяснить зачем нужны её элементы. Например: 1) зачем нужна функция активации, 2) зачем нужно смещение (?) Потому что без них не работает не принимается.
Сеть которая тут показана излишне сложна для начинающих. Она должна выдавать всего два ответа: это единица и это не единица.
Дробные числа не надо использовать - это усложняет программу и может вести к непредсказуемым, случайным ошибкам.
Ни хрена себе! И это самое простое объяснение нейросети?
Что за музыка? Что за трек? Где скачать минус?
3:15 а если на одной картинке размер 28 28, но на другой 32 32? Как делать? Искать фото с большим числом пикселей?
Надо всё преобразовать в один размер
Отличный ролик! Сэкономил кучу времени))) Спасибо автору.
2:00 нейрон это несколько входов и один выход, и уже следующий слайд - нейрон имеет несколько выходов 🤔
нет ето следуйщие нейрони кодключение к 1!! виходу предидущогго🤗
Это один и тот же выход из нейрона, подключенный ко входам во все нейроны последующего слоя
Там оговорка была, тоже услышал
Автор, логика повествования хромает. Самые простые темы Вы подаете ещё проще. А на более сложных - не производите упрощение и сливаетесь. Огромный промежуток времени видео посвятили буквальному разжевыванию и визуализации того, что входной нейрон умножает показатель на вес, суммирует и тд. Очень много графики такого простого процесса. А на самой сложной и важной теме - как высчитываются веса - не даете никакой инфографики ограничившись буквально парой фраз в стиле "что-то там как-то высчитывается". Надо бы наоборот. За минуту пробежать по входному слою, а остальное время и инфографику с анимацией посвятить подробнее работе с весами. Очень нелогичное решение. Конечно программисты будут меня хейтить. Но, добавлю в ответ: Видео называется "Самое простое объяснение нейросети". Вряд ли профессиональным программистам нужно такое видео, не так ли? Они и так в курсе всего. Это видео для тех кто не в теме же!
Тут всё очень просто, намного проще, чем у других. Если кто-то чего не понял, значит видимо ещё рано лезть в эту тему
видео лучший но можешь сделать звук музыки тише
Это база, так называемая основа)
Объяснение надо дорабатывать. Чтобы оно действительно было легко понятным. Кроме того, в ролике речь о решении лишь одной частной задачи - распознавание изображений (да и то не любых, а лишь цифр). А реальных задач в жизни гораздо больше и в них востребовано бОльшее разнообразие методов.
Единственное видео в котором я все понял )
Можно ссылку на исходный код?
А почему вы не нашли первую производную от ошибки? То есть почему не Eвых=(0,32-0)*f'(x)? Это же сложная производная.
Абстракция на регистры и алгоритмы преобразования. Генерация рандомных значений из суммы входных данных. И абстрагирование их в выходной результат.
Ничего не понятно но ОЧЕНЬ интересно!
Скажите, может ли нейросеть сама выбирать параметры из списка, находить оптимальные параметры сглаживания и оптимальные значения. А также добавлять изменения при условии сохранения макс эффективности результата?
Нет
Привет, Кот! Как можно вставить в мягкую игрушку нейронную сеть и начать её обучать человеку, который не умеет пользоваться компьютером? Предполагается что обучение будет проходить только через диалог, и если нужно подтвердить правильность выбора, то тоже через диалог или на крайний вариант две кнопки на мягкой игрушке "Да" или "Нет". Может такая игрушка уже создана и недорого состоит? Сколько будут стоить недорогие компоненты что бы мягкую игрушку снабдить всем необходимым?
Нейросети требуют затратных вычислений и недорогой такая игрушка точно не будет. А учитывая голосовое обучение - так вовсе с заоблачной суммой, так как распознавание речи - сам по себе процесс сложный и задействующий другие предобученные нейросети.
Для рапознования рукописных цифр используются нейронные сети типа свёртки, а не перцептроны, как я слышал. Перцептрон - это простейший вид нейронной сети, который также еще называют полносвязной нейронной сетью.
Спасибо. Очень занимательно. А можно в том же стиле не только про перцептрон? Он же вроде как считается изрядно устаревшим...
Мало понятно, но очень интересно )))
А можно ли эту нейросеть обученную на 28-пиксельный квадрат, применить к любому размеру цифр?
Если цифры подогнать, а так нет
Говорит что у каждого нейрона несколько входов и один выход, но на картинке 3:40 каждый нейрон скрытого слоя соединен с каждым нейроном выходного слоя... Так несколько выходов или один ?🤔
ссылку на группу добавишь куда-нибудь?
Она в описании, я про неё забыл 😐
Черная магия! Эта музыка делает, непонятное - понятным!
Зачем здесь запятая, мой безграмотный дружище?)
А чем, в таком случае, распознавание письменных букв отличается от того же phash (алгоритм поиска похожих картинок)? Ведь суть работы по факту cхожа. Тогда зачем заморачивается с этими всеми нейронами\перцептронами если есть алгоритм во много раз проще?
Одно дело сравнивать с существующими картинками, искать похожие картинки и совсем другое дело уметь распознавать цифры с разным написанием и быть способным на определение случаев, отсутствующих в обучающих данных. Этим и сильны нейросети. Они тупо мощнее распознают и могут действовать за пределами обучающей выборки, в то время, как phash только сравнивает с существующими картинками
@@CanisLupusCrossoutMobile ну есть же расстояние Хемминга, так что похожие он тоже найдет в принципе
@@Andrew-oh6kg нейросеть похожих не ищет. Она может познавать случаи, не похожие на имеющиеся. То есть она обобщает и находит зависимости. Не просто так сейчас нейросети популярны, это очень мощная технология
Очень круто, но музыка на фоне слишком уж громкая
Еёлучше сосем убрать.
@programmcat, есть ли у меня смысл изучать нейросети и пытаться делать свои нейронные сети, если они очень развиты (например ChatGPT или Midjourney)? Или мне лучше не изобретать велосипеды и учить другую отрасль программирования, где мне тоже интересно?
-Посмотри всех- Попробуй всё и занимайся тем, что больше зайдет лично тебе.
Да, стоит. С таким же успехом можно перестать разрабатывать новые игры, потому что уже есть Скайрим))
Дык вить пугают, что нейросети все за нас напишут, стало быть, зачем изучать программирование?))
@@ВиталийЧемизов жаль только - жить в эту пору прекрасную уж не придется ни мне, ни тебе)
7.50, откуда взялись числа кроме тех что в кружках, а именно 0.86, 0, 0.78 - с ними понятно, а вот откуда 0.9, 0.5 и 0.7????
мелодия на фоне бесит
Привет, классное видео, лучшее я бы сказал. А можно для тех кто в танке, у нас веса которые идут от входного слоя к скрытому слою тоже ведь обновляются?
Простое объяснение нейросети состоит из 2 предложений:
1. Нейросеть - метод аппроксимации набора эталонных точек (обучающей выборки) в многомерном пространстве входных/выходных данных (каждый вход/выход - отдельная координатная ось этого пространства) очень сложной нелинейной функцией (сама нейросеть), собранной из множества примитивных нелинейных функций ("нейронов").
2. "Обучение" нейросети - минимизация ошибки этой функции в этих точках: метод наименьших квадратов на максималках.
P.S. Нейросеть - эвристика, вынужденно используемая для задач, решать которые нужно, но алгоритма решения которых не существует или не найдено. И как любая эвристика, нейросеть не может не ошибаться. Если нейросеть никогда не ошибается, значит она бессмысленно расходует электроэнергию: для этой задачи существует алгоритм решения, требующий несравнимо меньше вычислений, чем нейросеть.
Интересно, если MNIST обучает белым цифрам на чёрном фоне, что будет если нарисовать наоборот, чёрным по белому?
будет обратный результат
Спасибо за видео, но как же вы достали со своими телеграмм каналами, что полезные ссылки не судьба разместить в описании. А ведь почти подписался, удачи в телеграмме)
Я успел поставить лайк, спасибо моей нейросети
Насколько знаю лицензия на использования QT далеко не дешевая. Да и есть готовые свободные зрелые фреймворки на Python для скриптинга, а написаны на С++ - так намного удобнее. Если углубляться в машинное обучение вам понадобится линейная алгебра для расчета тензоров, дифференциальное, интегральное исчесление, статитстика и т.д. Состав нейросетей очень усложнился, что-бы стать спецом по нейросетям нужно только этим направлением и заниматься.
Извините, вы из какой страны смотрите? Я не понимаю что такое по русски "лицензия"
@@programmcat a commercial license for the QT framework, I mean.
@@evgenysenkin2859 первый раз слышу
@@evgenysenkin2859видео относится к комерческому использованию?
музыку на фоне потише бы, а голос повыше
Спасибо за ролик. Очень громкая фоновая музыка, делайте пожалуйста тише. Может вообще в образовательные ролики не добавлять фоновую музыку? Люди же не для развлечений такое смотрят, а для получения нужной информации.
Это развлекательное видео. А образование на лекциях, в статьях и учебниках, в видео на Ютубе с теоретическим походом, но не тут
А в других видео просто говорили нейронные связи и всё, просто что они вот так вот связаны и всё, ни как они вычисляют ничего об этом не говорили
видос не плохой, но фоновая музыка очень громкая, а тема не то что бы сложная, но думать нужно. Музыку нужно тише сделать
И где "готовый алгоритм" ?
Конечно, нужно отдать автору должное - это самое полное руководство, из тех, что я видел по данной теме, и оставленные лакуны (как минимум - реализации функций, их производных и типичные значения констант) можно попробовать восстановить.
Но это точно не "готовый алгоритм", который обещало видео.
Кроме того. Общая иллюстрация категорически неполна - на ней обязаны присутствовать веса (отдельными узлами, показывающими их принадлежность) и смещения - атрибутами "нейронных" узлов.
Прям очень круто.
Спасибо!
Огонь, спасибо!
про веса вообще плохо сказал
нет точного описания "как влияет на..." откуда и что?
пустота на исходнике мало влияет? или что на картинке влияет на вес?
Это для более менее сообразительных видео было
спасибо за старания, но я не понял. наверное, это не моё. (комментарий для продвижения ролика: я посмотрел и автор старался)
0:28 "можно даже написать в Qt". Это как? Гуглю: Qt - это библиотека классов C++, а С++ один из самых сложных языков
Этот канал в целом о Qt ))
Сложно это ассемблер
Си не так сложен как пугают, а ты ведёшься, он будет для тебя изи, если у тебя склонность к программ и или ты не гуманитарий
@@umdois6849 да у меня диссонанс просто возник от фразы "даже в qt") я привык, что нейросети на питоне делают. И ожидал, что в этом видео, которое порекомендовал мне ютуб, будет что-то ещё проще, чем питон)
А так, с++ немного знаю и умею. А qt, насколько мне известно, платная и к тому же (возможно) запрещают или ограничивают русских в его использовании. Полгода назад хотел попробовать его использовать.
Сам я за полностью бесплатные и опенсорсные решения.
@@dmitriynayanov6428есть бесплатная open source qt, которая работает прекрасно. Не знаю, почему Вы ее не заметили
Пришел заниматься нейросетями, но в итоге попал на ферму и начал жеско кормить кур доить коров и пахать поля 🐽🐽
Фоновая музыка слишком громкая.
Я так понимаю ты писал сетку с полного нуля, без какой либо библиотеки? Писал на C++?
"какой-либо" пиши через дефис)
Спасибо
Надеюсь автор сам понял о чем говорит, пока всё это рисовал и монтировал.
Автор долбаёб, уже всем надоел со своими видосами
Чувак читает Википедию.
Во первых: Какой дистрибутив?
Во вторых: какая среда разработки?
Это канал о Qt))
"во-первых" и "во-вторых" пиши через дефис бл
Ахренительно!
Но правильно - "Охренительно"
@main_zhenek Охренительно, это так себе, а это Ахренительно, что на порядок круче.
Привет. уменьши громкость фоновой музыку на 70%, и перезалей
умный дохуя чтоли?
Музыка мешает, хотел образовательную информацию получить и в итоге какой то Ералаш.
😂
и вот тут я понял что не надо было прогуливать математику
Респект!
15:45 интересно, что нейросеть уже заранее предугадывает, какую цифру напишет человек
Отличное видео для людей с бессонницей - я два раза засыпал на фрагменте объяснения вычислений! 😆Шучу. Всё объяснил настолько доходчиво, что я заново понял то, что учил ещё в инстиуте. 👍 Одно непонятно: если у тебя большая выборка рукописных цифр и ты написал правильный алгоритм, почему он ошибается на рукописном вводе??
Похоже, недостаточно примеров для обучения было в подобных очертаниях, где происходили ошибки
Плохая сходимость сети. Грубо говоря, модель плохо аппроксимировала исходную функцию зависимости между выходными и выходными данными. Это может быть связано либо с недостаточным набором данных, нейронов, либо с недоучиванием или с переобучением
Музыка громче слов ведущего, зачем так громко?
2:00 у нейронов несколько входов и один выход, 2:10 чзх
В нейронной связи: просто перемножаются 2 значения, а за тем на выходе происходит сложение нейронных связей ВСЁ! да, их получается больше, но проще и быстрее
В одной папке картинки, в другой музыка, тоже разбитая по папкам и тд. Более простое объснение. Все это соединяется в общую картину по заданому алгоритму.Вообщем Как то так.
3.9.2023
Этой ночью, я успешно смоделировал, роботу своей первой в жизни нейросхемы.
Основана на нейронах с нечёткой логикой.
Вычисление одного ответа для сети из десяти тысячь нейронов занимает две секунды.
Входит в состояние соответствия любой функции f(от трёх логических переменных)
за минуту обучения сети из 14 нейронов.
Жаль, что я всю жизнь безработный.