прекидовайш с каким фейспалмом да любые неробиологи на вот такое все неточто смотрят а СЛУШАЛИ с с60Х ? когда совковую кибернетику лженауко покрестили ...? и непсроста вашет еше боел неспроста ианч как ну свтасть 90х там .. и свта вера невьспена в 146% (ну 146млн рабсиянцев ) или еше боле ... 43млн морекопов дык каие данные то ?
@@TheLogEdge Не думаю, что вопрос в плевать. Вполне могу допустить 2 варианта. 1 - у человека очень плохое аудио оборудование, или сводит звук в колонках, не тестируя в наушниках или что то вокруг этого. 2 - автор может в матчасть, но не чувствует \ не знает как в сведение. В целом то видос хороший. Тут не про плевать, как мне кажется.
Если это самое простое объяснение нейросети, то мне трудно представить, как будет выглядеть самое сложное. Как говорится, ниx*я не понятно, но очень интересно.
@@programmcatкак база для первого видео по тематике - вполне неплохо. 👍🏻 Хотелось бы видео по теме нейросетей и решения каких-нибудь интересных задач о которых еще не снято миллиона роликов. Например, как создать и обучить нейросеть-автоответчик на основе своих диалогов в вк (там можно выгрузить вся историю в текстовых файлах). Здесь и парсинг текстовых файлов, и подготовка обучающего датасета, и нейросетка. Интересно, применимо и прикольно
Программированием занимался, но в другой сфере, всегда было интересно как люди додумались до процесса обучения машин. Теперь многое прояснилось и эта тема уже не столь загадочна, спасибо за хороший и содержательный ролик!
как же я ору, как все пытаются "просто" объяснить основы нейронок и на моменте с обратным распространением каждый раз начинается вообще не простой ад)) хотя там всё очень просто: и "квадратичная функция ошибки" - если её значение находится в пределах от -1 до 1 (т.е. функция активации последнего слоя либо сигмоида, либо softsign), то это простая подгонка под последующие вычисления производной. ведь производная квадрата Х равна 2Х. и чтобы избавиться от этой двойки сразу делят на 2. В итоге, при вычислении ошибки мы используем dЕ/dx = (x - y) если E = (x - y)^2/2 т.е. просто разницу между выходным значением и желаемым результатом. а если бы мы не возвели в квадрат, то ошибка попросту бы нивелировалась при вычислении производной. и становится понятно почему ReLU ( x0 ? x ) является распространённой функцией активации, когда видишь, что её производная равна 0 либо 1, что упрощает вычисление обратного распространения ошибки и в ней вообще не учитывается значение этого нейрона. т.е. если нейрон никак не влияет на конечный результат, то и ошибку для него мы не вычисляем, и веса не меняем. это самая удобная функция для промежуточных слоёв. зы. и в видео никак не разъяснено что такое вспомогательный нейрон (b) (смещение) у каждого слоя, что его значение всегда равно 1, т.к. важно не его значение, а веса, идущие от него. зыы. лучшее объяснение этой темы в серии видео DeepLearning от канала 3Blue1Brown. в переводе Sciberia можно глянуть. там не просто. зато обретаешь понимание)
Не ну автор вообще красавчик, подача информации просто шик. Я уже посмотрел пару видосов на эту тему и у тебя самый подробный и исчерпывающий, по крайней мере для начинающего юзера, как я. Большой спасибо за труд!
нормально объяснил, сначало говорит что у перцептрона много входов и один выход и тут же рисует нейронку где куча выходов, спасибо очень понятно, объяснения не ваш конек.
Короч на середине стало понятно что ничего не понятно. Нужен реальный проект и реальный пример, чтобы разобраться шаг за шагом. А этот дикий запад на фоне вообще отвлекает.
Нет. Главное в функции активации. Она выбирает, какие нейроны будут использоваться. Каждый нейрон превращается в кусочек распознанных данных, как флажок, означающий, что обнаружен некий кусочек
Если бы я снимал подобное видео, я бы объяснил все так: Каждый слой ищет чуть более сложные структуры в предыдущем выходе предыдущего слоя. Пример: сверточная нейросеть, распознающая объекты на картинках: Это значит, что сначала пиксели собираются в черточки, которые эффективно описывают картинку (другие черточки отбрасываются, если они неэффективны) Затем собираются уголки из черточек и лишние снова отбрасываются. Затем фигуры из уголоков, затем сложные фигуры, затем части предметов и затем сами предметы. Простыми словами, нейросеть комбинирует все и со всем, но отбрасывает неэффективные комбинации, которые плохо описывают изображение
1)Генерация случайных чисел. 2)Сравнивание значений с логическими 1и 0. 3)Задание результатов генерации ответов. 4)Структуризация данных для генерации ответа. 5)В итоге мы имее большое количество переменных, операторов, и конвертеров значений которые превращают переменную в команду для выполнения в программе абстрагирующую систему сложных данных в результат: Картинка, Видео, Аудио. Тупо Фотошоп с пером и ФЛСтудио с виртуальной миди клавиатурой, и виртуальный сканер экрана.
@@Ewixx_ тоже не понимаю это вечное "слишком сложно" у людей. По сути, познать можно многое, разве что разным людям требуется разное количество времени. И умение дробить сложные задачи на более мелкие. В том числе, на этапе обучения. Но всегда проще сказать "как это вообще, слишком сложно и вообще, автор виноват, что я всё равно ничего не понял") Приятно увидеть, что есть и вот такие люди в комментариях, как вы
Никаких весов в сети быть не должно, могут быть только электрические сопротивления синапсов. И да если эти сопротивления только положительные то сеть не сможет полностью обучиться, только наполовину. Как объяснить знак электрического сопротивления непонятно. Не умножать надо а делить: заряд нейрона делим на сопротивление синапса, получаем заряд следующего нейрона. ------------- Если человек понимает нейронную сеть он должен объяснить зачем нужны её элементы. Например: 1) зачем нужна функция активации, 2) зачем нужно смещение (?) Потому что без них не работает не принимается. Сеть которая тут показана излишне сложна для начинающих. Она должна выдавать всего два ответа: это единица и это не единица. Дробные числа не надо использовать - это усложняет программу и может вести к непредсказуемым, случайным ошибкам.
Объяснение надо дорабатывать. Чтобы оно действительно было легко понятным. Кроме того, в ролике речь о решении лишь одной частной задачи - распознавание изображений (да и то не любых, а лишь цифр). А реальных задач в жизни гораздо больше и в них востребовано бОльшее разнообразие методов.
Простое объяснение нейросети состоит из 2 предложений: 1. Нейросеть - метод аппроксимации набора эталонных точек (обучающей выборки) в многомерном пространстве входных/выходных данных (каждый вход/выход - отдельная координатная ось этого пространства) очень сложной нелинейной функцией (сама нейросеть), собранной из множества примитивных нелинейных функций ("нейронов"). 2. "Обучение" нейросети - минимизация ошибки этой функции в этих точках: метод наименьших квадратов на максималках. P.S. Нейросеть - эвристика, вынужденно используемая для задач, решать которые нужно, но алгоритма решения которых не существует или не найдено. И как любая эвристика, нейросеть не может не ошибаться. Если нейросеть никогда не ошибается, значит она бессмысленно расходует электроэнергию: для этой задачи существует алгоритм решения, требующий несравнимо меньше вычислений, чем нейросеть.
Для рапознования рукописных цифр используются нейронные сети типа свёртки, а не перцептроны, как я слышал. Перцептрон - это простейший вид нейронной сети, который также еще называют полносвязной нейронной сетью.
Насколько знаю лицензия на использования QT далеко не дешевая. Да и есть готовые свободные зрелые фреймворки на Python для скриптинга, а написаны на С++ - так намного удобнее. Если углубляться в машинное обучение вам понадобится линейная алгебра для расчета тензоров, дифференциальное, интегральное исчесление, статитстика и т.д. Состав нейросетей очень усложнился, что-бы стать спецом по нейросетям нужно только этим направлением и заниматься.
Привет, Кот! Как можно вставить в мягкую игрушку нейронную сеть и начать её обучать человеку, который не умеет пользоваться компьютером? Предполагается что обучение будет проходить только через диалог, и если нужно подтвердить правильность выбора, то тоже через диалог или на крайний вариант две кнопки на мягкой игрушке "Да" или "Нет". Может такая игрушка уже создана и недорого состоит? Сколько будут стоить недорогие компоненты что бы мягкую игрушку снабдить всем необходимым?
Нейросети требуют затратных вычислений и недорогой такая игрушка точно не будет. А учитывая голосовое обучение - так вовсе с заоблачной суммой, так как распознавание речи - сам по себе процесс сложный и задействующий другие предобученные нейросети.
Автор, логика повествования хромает. Самые простые темы Вы подаете ещё проще. А на более сложных - не производите упрощение и сливаетесь. Огромный промежуток времени видео посвятили буквальному разжевыванию и визуализации того, что входной нейрон умножает показатель на вес, суммирует и тд. Очень много графики такого простого процесса. А на самой сложной и важной теме - как высчитываются веса - не даете никакой инфографики ограничившись буквально парой фраз в стиле "что-то там как-то высчитывается". Надо бы наоборот. За минуту пробежать по входному слою, а остальное время и инфографику с анимацией посвятить подробнее работе с весами. Очень нелогичное решение. Конечно программисты будут меня хейтить. Но, добавлю в ответ: Видео называется "Самое простое объяснение нейросети". Вряд ли профессиональным программистам нужно такое видео, не так ли? Они и так в курсе всего. Это видео для тех кто не в теме же!
Говорит что у каждого нейрона несколько входов и один выход, но на картинке 3:40 каждый нейрон скрытого слоя соединен с каждым нейроном выходного слоя... Так несколько выходов или один ?🤔
Спасибо за ролик. Очень громкая фоновая музыка, делайте пожалуйста тише. Может вообще в образовательные ролики не добавлять фоновую музыку? Люди же не для развлечений такое смотрят, а для получения нужной информации.
И где "готовый алгоритм" ? Конечно, нужно отдать автору должное - это самое полное руководство, из тех, что я видел по данной теме, и оставленные лакуны (как минимум - реализации функций, их производных и типичные значения констант) можно попробовать восстановить. Но это точно не "готовый алгоритм", который обещало видео. Кроме того. Общая иллюстрация категорически неполна - на ней обязаны присутствовать веса (отдельными узлами, показывающими их принадлежность) и смещения - атрибутами "нейронных" узлов.
Скажите, может ли нейросеть сама выбирать параметры из списка, находить оптимальные параметры сглаживания и оптимальные значения. А также добавлять изменения при условии сохранения макс эффективности результата?
Привет, классное видео, лучшее я бы сказал. А можно для тех кто в танке, у нас веса которые идут от входного слоя к скрытому слою тоже ведь обновляются?
А чем, в таком случае, распознавание письменных букв отличается от того же phash (алгоритм поиска похожих картинок)? Ведь суть работы по факту cхожа. Тогда зачем заморачивается с этими всеми нейронами\перцептронами если есть алгоритм во много раз проще?
Одно дело сравнивать с существующими картинками, искать похожие картинки и совсем другое дело уметь распознавать цифры с разным написанием и быть способным на определение случаев, отсутствующих в обучающих данных. Этим и сильны нейросети. Они тупо мощнее распознают и могут действовать за пределами обучающей выборки, в то время, как phash только сравнивает с существующими картинками
@@Andrew-oh6kg нейросеть похожих не ищет. Она может познавать случаи, не похожие на имеющиеся. То есть она обобщает и находит зависимости. Не просто так сейчас нейросети популярны, это очень мощная технология
Не думал, что тема нейронных сетей для меня окажется настолько сложной. Ещё забег не начался, а я уже обос..ся на старте и при этом смотрю, как многие убегают в даль со скоростью Усэйн Болта. В принципе, основы понятны и логичны, но удержать в голове полноту смысла сочетаний каждого нейрона входного слоя с каждым из последующего скрытого ... ой, чё-то мне плохеет. Не понимаю, как тот чувак, который это придумал в 60х ... нет, не так - не понимаю, как тот чувак, который придумал это был уверен, что вся эта мутная каша будет работать да ещё и при обучении, причём не имея компьютера (1960 всё таки). Но это всё полная чепуха по сравнению с тем, как так получается, что нейронные сети нашего мозга образуют виртуальные образы, которые нам чудятся, как реальные (я про квалиа). Иисус, какого чёрта?
В нейронной связи: просто перемножаются 2 значения, а за тем на выходе происходит сложение нейронных связей ВСЁ! да, их получается больше, но проще и быстрее
Да. Это сложно - для обычного человека, не программиста. Жаль. Надо было в 90-е годы всё бросить и заняться программированием. Штука увлекательная - я пробовал на Бейсике - чисто для себя написал пару программ - с нуля.
Да не знают программисты детально алгоритмы машинного обучения и нейросети, может быть только перед собеседованием подучат теорию. А вы если писали программы, то легко сможете разрабатывать что нибудь и сейчас, главное начните с практических задач, не углубляясь особо в теорию
@@ИловМакс Поздно. Этому увлекательному делу надо было жизнь посвящать. В 58 лет с нуля начинать поздновато. Хотя и хочется. Быть рядовым не хочется. Если бы лет 20 программированием занимался, может что-то интересное и сделал бы. Я эти нейросети, точнее искусственный интеллект чисто гуманитарно ещё лет 20 назад разрабатывал. Чисто для себя - просто осмысливал - как они могут работать. Но вот - кто-то уже сделал программными методами - воплотил идею в жизнь. (Впрочем - такое поднять для одного человека слишком много - задача комплексная)
@@umdois6849 да у меня диссонанс просто возник от фразы "даже в qt") я привык, что нейросети на питоне делают. И ожидал, что в этом видео, которое порекомендовал мне ютуб, будет что-то ещё проще, чем питон) А так, с++ немного знаю и умею. А qt, насколько мне известно, платная и к тому же (возможно) запрещают или ограничивают русских в его использовании. Полгода назад хотел попробовать его использовать. Сам я за полностью бесплатные и опенсорсные решения.
про веса вообще плохо сказал нет точного описания "как влияет на..." откуда и что? пустота на исходнике мало влияет? или что на картинке влияет на вес?
Спасибо за видео, но как же вы достали со своими телеграмм каналами, что полезные ссылки не судьба разместить в описании. А ведь почти подписался, удачи в телеграмме)
Отличное видео для людей с бессонницей - я два раза засыпал на фрагменте объяснения вычислений! 😆Шучу. Всё объяснил настолько доходчиво, что я заново понял то, что учил ещё в инстиуте. 👍 Одно непонятно: если у тебя большая выборка рукописных цифр и ты написал правильный алгоритм, почему он ошибается на рукописном вводе??
Плохая сходимость сети. Грубо говоря, модель плохо аппроксимировала исходную функцию зависимости между выходными и выходными данными. Это может быть связано либо с недостаточным набором данных, нейронов, либо с недоучиванием или с переобучением
@programmcat, есть ли у меня смысл изучать нейросети и пытаться делать свои нейронные сети, если они очень развиты (например ChatGPT или Midjourney)? Или мне лучше не изобретать велосипеды и учить другую отрасль программирования, где мне тоже интересно?
3.9.2023 Этой ночью, я успешно смоделировал, роботу своей первой в жизни нейросхемы. Основана на нейронах с нечёткой логикой. Вычисление одного ответа для сети из десяти тысячь нейронов занимает две секунды. Входит в состояние соответствия любой функции f(от трёх логических переменных) за минуту обучения сети из 14 нейронов. Жаль, что я всю жизнь безработный.
04:34 - я имел в виду входов ))
Видео класс. Думаю, что музыка в видео громковата
@@VladimirNerby есть такой косяк
не называй
те чипы
приметивыне кста
НЕРОНАМИ !
даже ладноб ешслиб еше ТОГДА назвал Исксвеным нероном
но
эт тогда
атерь
какой нахрен нейрон ? !
довай про то что транзистор это
КАКОЙ нейрон ?!
не неразу ж не подмена понятий ? !
дык какой ?
прекидовайш с каким фейспалмом да любые неробиологи на вот такое все неточто смотрят а СЛУШАЛИ
с
с60Х ?
когда совковую кибернетику лженауко покрестили ...?
и непсроста
вашет еше боел неспроста
ианч как
ну
свтасть 90х там ..
и свта вера невьспена в 146% (ну 146млн рабсиянцев )
или еше боле ...
43млн морекопов
дык каие данные то ?
Поймал себя на мысли что, с 10:00 было оч трудно слушать речь. Музыка очень активная, и громче голоса. Видос топчик)
У меня раньше началось, выбесила просто
Меня вот что удивляет - неужели настолько плевать на то, как будут воспринимать твое творение люди?
@@TheLogEdge Не думаю, что вопрос в плевать. Вполне могу допустить 2 варианта. 1 - у человека очень плохое аудио оборудование, или сводит звук в колонках, не тестируя в наушниках или что то вокруг этого. 2 - автор может в матчасть, но не чувствует \ не знает как в сведение. В целом то видос хороший. Тут не про плевать, как мне кажется.
Если это самое простое объяснение нейросети, то мне трудно представить, как будет выглядеть самое сложное.
Как говорится, ниx*я не понятно, но очень интересно.
Ура, тысячный ролик на тему создания нейронки для распознавания циферок просмотрен.
лучшая антиреклама таким роликам
Что просили, то и сделал
Ты думаешь, знания "просмотрами" в голову влазят? :) Тут кумекать нужно!
@@daitedve1984 , а я не про знания. Я про их количество.
@@programmcatкак база для первого видео по тематике - вполне неплохо. 👍🏻 Хотелось бы видео по теме нейросетей и решения каких-нибудь интересных задач о которых еще не снято миллиона роликов. Например, как создать и обучить нейросеть-автоответчик на основе своих диалогов в вк (там можно выгрузить вся историю в текстовых файлах). Здесь и парсинг текстовых файлов, и подготовка обучающего датасета, и нейросетка. Интересно, применимо и прикольно
Программированием занимался, но в другой сфере, всегда было интересно как люди додумались до процесса обучения машин. Теперь многое прояснилось и эта тема уже не столь загадочна, спасибо за хороший и содержательный ролик!
как же я ору, как все пытаются "просто" объяснить основы нейронок и на моменте с обратным распространением каждый раз начинается вообще не простой ад)) хотя там всё очень просто:
и "квадратичная функция ошибки" - если её значение находится в пределах от -1 до 1 (т.е. функция активации последнего слоя либо сигмоида, либо softsign), то это простая подгонка под последующие вычисления производной. ведь производная квадрата Х равна 2Х. и чтобы избавиться от этой двойки сразу делят на 2. В итоге, при вычислении ошибки мы используем dЕ/dx = (x - y) если E = (x - y)^2/2 т.е. просто разницу между выходным значением и желаемым результатом. а если бы мы не возвели в квадрат, то ошибка попросту бы нивелировалась при вычислении производной.
и становится понятно почему ReLU ( x0 ? x ) является распространённой функцией активации, когда видишь, что её производная равна 0 либо 1, что упрощает вычисление обратного распространения ошибки и в ней вообще не учитывается значение этого нейрона. т.е. если нейрон никак не влияет на конечный результат, то и ошибку для него мы не вычисляем, и веса не меняем. это самая удобная функция для промежуточных слоёв.
зы. и в видео никак не разъяснено что такое вспомогательный нейрон (b) (смещение) у каждого слоя, что его значение всегда равно 1, т.к. важно не его значение, а веса, идущие от него.
зыы. лучшее объяснение этой темы в серии видео DeepLearning от канала 3Blue1Brown. в переводе Sciberia можно глянуть. там не просто. зато обретаешь понимание)
да понятно, что бред и без нормальной математики там не разберутся, только самые верха понять
но все равно автору спасибо! больше материалов, больше топлива для понимания.
@@serge2773 это да. правда, они повторяют все одно и то же. за год ситуация практически не изменилась.
Хотя там вообще все просто: *сложная фигня*. Давайте уже признаем, что прога это сложно))
В нынешнее время редко когда название ролика соответствует содержимому, отдельный лайк за это
Ложь. Тут заумно рассказоно. Не ведитесь
Вот это груз... спасибо за "простое" объяснение, проще наверное нейросеть попросить объяснить как она работает
чем тебе не нравится?
@@MathPTU туповат
@@MathPTUон математику не учил
Не ну автор вообще красавчик, подача информации просто шик. Я уже посмотрел пару видосов на эту тему и у тебя самый подробный и исчерпывающий, по крайней мере для начинающего юзера, как я. Большой спасибо за труд!
Очень полезное видео, спасибо, ты практически на пальцах понятно разложил не самую простую тему.
нормально объяснил, сначало говорит что у перцептрона много входов и один выход и тут же рисует нейронку где куча выходов, спасибо очень понятно, объяснения не ваш конек.
С ВОЗВРАЩЕНИЕМ, спасибо за качественный материал!
Это первое внятное объяснеие! Спасибо большое за труд!!!)😊
Музыку можно погромче? Не слышу её
Просто нужно было смотреть в наушниках
Нет
@@psyhotel4009 чо нет то
Да
Автор сделал версию без музыки
Посмотрел 4 : 45 видео, и чувствую закипел, теперь надо всё переварить продолжу смотреть позже, за взрыв мозга сразу лайк ставлю
Ролик просто супер!
Ух! Я досмотрел видео до конца)
Короч на середине стало понятно что ничего не понятно. Нужен реальный проект и реальный пример, чтобы разобраться шаг за шагом. А этот дикий запад на фоне вообще отвлекает.
Главное в том, что нейрон может иметь несколько входов и лишь один выход.
Нет. Главное в функции активации. Она выбирает, какие нейроны будут использоваться. Каждый нейрон превращается в кусочек распознанных данных, как флажок, означающий, что обнаружен некий кусочек
Ролик - отличный! Спасибо вам!
Если бы я снимал подобное видео, я бы объяснил все так:
Каждый слой ищет чуть более сложные структуры в предыдущем выходе предыдущего слоя.
Пример: сверточная нейросеть, распознающая объекты на картинках:
Это значит, что сначала пиксели собираются в черточки, которые эффективно описывают картинку (другие черточки отбрасываются, если они неэффективны)
Затем собираются уголки из черточек и лишние снова отбрасываются. Затем фигуры из уголоков, затем сложные фигуры, затем части предметов и затем сами предметы.
Простыми словами, нейросеть комбинирует все и со всем, но отбрасывает неэффективные комбинации, которые плохо описывают изображение
спец алгоритм нифига себе. Спасибо! :) )))
1)Генерация случайных чисел.
2)Сравнивание значений с логическими 1и 0.
3)Задание результатов генерации ответов.
4)Структуризация данных для генерации ответа.
5)В итоге мы имее большое количество переменных, операторов, и конвертеров значений которые превращают переменную в команду для выполнения в программе абстрагирующую систему сложных данных в результат: Картинка, Видео, Аудио. Тупо Фотошоп с пером и ФЛСтудио с виртуальной миди клавиатурой, и виртуальный сканер экрана.
Спасибо. Всё более менее ясно и понятно.
Ничего не понял, но очень понравилось...)
Это база, так называемая основа)
Боже, как же Вы вовремя!! Буквально недели полторы назад начала изучать нейросети и мне жутко не хватало простого объяснения, спасибо!)
Нейросети слишком сложно
Как это можно понять
@@umdois6849 во всём можно разобраться, если действовать последовательно и настойчиво)
А зачем вы это начали?
@@ВиталийЧемизов во-первых - стало просто интересно, а во-вторых - хочу попробовать связать нейросети с химией
@@Ewixx_ тоже не понимаю это вечное "слишком сложно" у людей. По сути, познать можно многое, разве что разным людям требуется разное количество времени. И умение дробить сложные задачи на более мелкие. В том числе, на этапе обучения. Но всегда проще сказать "как это вообще, слишком сложно и вообще, автор виноват, что я всё равно ничего не понял") Приятно увидеть, что есть и вот такие люди в комментариях, как вы
Привет! Очень классный монтаж. Подскажи пожалуйста какую программу для монтажа используешь?
2:00 нейрон это несколько входов и один выход, и уже следующий слайд - нейрон имеет несколько выходов 🤔
нет ето следуйщие нейрони кодключение к 1!! виходу предидущогго🤗
Это один и тот же выход из нейрона, подключенный ко входам во все нейроны последующего слоя
Там оговорка была, тоже услышал
Мало понятно, но очень интересно )))
Никаких весов в сети быть не должно, могут быть только электрические сопротивления синапсов. И да если эти сопротивления только положительные то сеть не сможет полностью обучиться, только наполовину. Как объяснить знак электрического сопротивления непонятно. Не умножать надо а делить: заряд нейрона делим на сопротивление синапса, получаем заряд следующего нейрона.
-------------
Если человек понимает нейронную сеть он должен объяснить зачем нужны её элементы. Например: 1) зачем нужна функция активации, 2) зачем нужно смещение (?) Потому что без них не работает не принимается.
Сеть которая тут показана излишне сложна для начинающих. Она должна выдавать всего два ответа: это единица и это не единица.
Дробные числа не надо использовать - это усложняет программу и может вести к непредсказуемым, случайным ошибкам.
Всю дорогу говорится, что у нейрона один выход. Но весь ролик на картинках у промежуточных нейронов нарисовоно много выходов.
нероны то гиде ?))
искусвеные нероны НЕ НЕЙРОНЫ !
@@88vok посмеялся от души. Жги еще
Единственное видео в котором я все понял )
Ничего не понятно но ОЧЕНЬ интересно!
Черная магия! Эта музыка делает, непонятное - понятным!
Зачем здесь запятая, мой безграмотный дружище?)
Ни хрена себе! И это самое простое объяснение нейросети?
Объяснение надо дорабатывать. Чтобы оно действительно было легко понятным. Кроме того, в ролике речь о решении лишь одной частной задачи - распознавание изображений (да и то не любых, а лишь цифр). А реальных задач в жизни гораздо больше и в них востребовано бОльшее разнообразие методов.
музыка как будто обзор на ферму
отлично, понятно, спасибо!)
Крутое видео, только вот музыка на фоне слишком громкая и отвлекает сильно. На мой взгляд, для таких роликов нужен более спокойный и тихий фон
видео лучший но можешь сделать звук музыки тише
Абстракция на регистры и алгоритмы преобразования. Генерация рандомных значений из суммы входных данных. И абстрагирование их в выходной результат.
Простое объяснение нейросети состоит из 2 предложений:
1. Нейросеть - метод аппроксимации набора эталонных точек (обучающей выборки) в многомерном пространстве входных/выходных данных (каждый вход/выход - отдельная координатная ось этого пространства) очень сложной нелинейной функцией (сама нейросеть), собранной из множества примитивных нелинейных функций ("нейронов").
2. "Обучение" нейросети - минимизация ошибки этой функции в этих точках: метод наименьших квадратов на максималках.
P.S. Нейросеть - эвристика, вынужденно используемая для задач, решать которые нужно, но алгоритма решения которых не существует или не найдено. И как любая эвристика, нейросеть не может не ошибаться. Если нейросеть никогда не ошибается, значит она бессмысленно расходует электроэнергию: для этой задачи существует алгоритм решения, требующий несравнимо меньше вычислений, чем нейросеть.
Супер. Так долго искал вводный материал который охватывает кей пойнты за 15 минут. А где можно скачать твою прогу, которую в конце показвал ?
Очень круто, но музыка на фоне слишком уж громкая
Еёлучше сосем убрать.
Отличный ролик! Сэкономил кучу времени))) Спасибо автору.
Для рапознования рукописных цифр используются нейронные сети типа свёртки, а не перцептроны, как я слышал. Перцептрон - это простейший вид нейронной сети, который также еще называют полносвязной нейронной сетью.
очень хорошо 👌
Я успел поставить лайк, спасибо моей нейросети
Насколько знаю лицензия на использования QT далеко не дешевая. Да и есть готовые свободные зрелые фреймворки на Python для скриптинга, а написаны на С++ - так намного удобнее. Если углубляться в машинное обучение вам понадобится линейная алгебра для расчета тензоров, дифференциальное, интегральное исчесление, статитстика и т.д. Состав нейросетей очень усложнился, что-бы стать спецом по нейросетям нужно только этим направлением и заниматься.
Извините, вы из какой страны смотрите? Я не понимаю что такое по русски "лицензия"
@@programmcat a commercial license for the QT framework, I mean.
@@evgenysenkin2859 первый раз слышу
@@evgenysenkin2859видео относится к комерческому использованию?
Можно музыку еще громче?
Спасибо. Очень занимательно. А можно в том же стиле не только про перцептрон? Он же вроде как считается изрядно устаревшим...
Привет, Кот! Как можно вставить в мягкую игрушку нейронную сеть и начать её обучать человеку, который не умеет пользоваться компьютером? Предполагается что обучение будет проходить только через диалог, и если нужно подтвердить правильность выбора, то тоже через диалог или на крайний вариант две кнопки на мягкой игрушке "Да" или "Нет". Может такая игрушка уже создана и недорого состоит? Сколько будут стоить недорогие компоненты что бы мягкую игрушку снабдить всем необходимым?
Нейросети требуют затратных вычислений и недорогой такая игрушка точно не будет. А учитывая голосовое обучение - так вовсе с заоблачной суммой, так как распознавание речи - сам по себе процесс сложный и задействующий другие предобученные нейросети.
Спасибо!
Автор, логика повествования хромает. Самые простые темы Вы подаете ещё проще. А на более сложных - не производите упрощение и сливаетесь. Огромный промежуток времени видео посвятили буквальному разжевыванию и визуализации того, что входной нейрон умножает показатель на вес, суммирует и тд. Очень много графики такого простого процесса. А на самой сложной и важной теме - как высчитываются веса - не даете никакой инфографики ограничившись буквально парой фраз в стиле "что-то там как-то высчитывается". Надо бы наоборот. За минуту пробежать по входному слою, а остальное время и инфографику с анимацией посвятить подробнее работе с весами. Очень нелогичное решение. Конечно программисты будут меня хейтить. Но, добавлю в ответ: Видео называется "Самое простое объяснение нейросети". Вряд ли профессиональным программистам нужно такое видео, не так ли? Они и так в курсе всего. Это видео для тех кто не в теме же!
Тут всё очень просто, намного проще, чем у других. Если кто-то чего не понял, значит видимо ещё рано лезть в эту тему
Говорит что у каждого нейрона несколько входов и один выход, но на картинке 3:40 каждый нейрон скрытого слоя соединен с каждым нейроном выходного слоя... Так несколько выходов или один ?🤔
2:00 у нейронов несколько входов и один выход, 2:10 чзх
Прям очень круто.
Спасибо за ролик. Очень громкая фоновая музыка, делайте пожалуйста тише. Может вообще в образовательные ролики не добавлять фоновую музыку? Люди же не для развлечений такое смотрят, а для получения нужной информации.
Это развлекательное видео. А образование на лекциях, в статьях и учебниках, в видео на Ютубе с теоретическим походом, но не тут
И где "готовый алгоритм" ?
Конечно, нужно отдать автору должное - это самое полное руководство, из тех, что я видел по данной теме, и оставленные лакуны (как минимум - реализации функций, их производных и типичные значения констант) можно попробовать восстановить.
Но это точно не "готовый алгоритм", который обещало видео.
Кроме того. Общая иллюстрация категорически неполна - на ней обязаны присутствовать веса (отдельными узлами, показывающими их принадлежность) и смещения - атрибутами "нейронных" узлов.
Скажите, может ли нейросеть сама выбирать параметры из списка, находить оптимальные параметры сглаживания и оптимальные значения. А также добавлять изменения при условии сохранения макс эффективности результата?
Нет
Привет, классное видео, лучшее я бы сказал. А можно для тех кто в танке, у нас веса которые идут от входного слоя к скрытому слою тоже ведь обновляются?
Спасибо
спасибо за старания, но я не понял. наверное, это не моё. (комментарий для продвижения ролика: я посмотрел и автор старался)
3:15 а если на одной картинке размер 28 28, но на другой 32 32? Как делать? Искать фото с большим числом пикселей?
Надо всё преобразовать в один размер
Здравствуйте, подскажите, а есть ли нейросеть для экселя?! Если да, то могли бы вы сделать на неё обзор?
А чем, в таком случае, распознавание письменных букв отличается от того же phash (алгоритм поиска похожих картинок)? Ведь суть работы по факту cхожа. Тогда зачем заморачивается с этими всеми нейронами\перцептронами если есть алгоритм во много раз проще?
Одно дело сравнивать с существующими картинками, искать похожие картинки и совсем другое дело уметь распознавать цифры с разным написанием и быть способным на определение случаев, отсутствующих в обучающих данных. Этим и сильны нейросети. Они тупо мощнее распознают и могут действовать за пределами обучающей выборки, в то время, как phash только сравнивает с существующими картинками
@@CanisLupusCrossoutMobile ну есть же расстояние Хемминга, так что похожие он тоже найдет в принципе
@@Andrew-oh6kg нейросеть похожих не ищет. Она может познавать случаи, не похожие на имеющиеся. То есть она обобщает и находит зависимости. Не просто так сейчас нейросети популярны, это очень мощная технология
Что за музыка? Что за трек? Где скачать минус?
Пришел заниматься нейросетями, но в итоге попал на ферму и начал жеско кормить кур доить коров и пахать поля 🐽🐽
видос не плохой, но фоновая музыка очень громкая, а тема не то что бы сложная, но думать нужно. Музыку нужно тише сделать
А почему вы не нашли первую производную от ошибки? То есть почему не Eвых=(0,32-0)*f'(x)? Это же сложная производная.
Не думал, что тема нейронных сетей для меня окажется настолько сложной. Ещё забег не начался, а я уже обос..ся на старте и при этом смотрю, как многие убегают в даль со скоростью Усэйн Болта. В принципе, основы понятны и логичны, но удержать в голове полноту смысла сочетаний каждого нейрона входного слоя с каждым из последующего скрытого ... ой, чё-то мне плохеет. Не понимаю, как тот чувак, который это придумал в 60х ... нет, не так - не понимаю, как тот чувак, который придумал это был уверен, что вся эта мутная каша будет работать да ещё и при обучении, причём не имея компьютера (1960 всё таки). Но это всё полная чепуха по сравнению с тем, как так получается, что нейронные сети нашего мозга образуют виртуальные образы, которые нам чудятся, как реальные (я про квалиа). Иисус, какого чёрта?
В нейронной связи: просто перемножаются 2 значения, а за тем на выходе происходит сложение нейронных связей ВСЁ! да, их получается больше, но проще и быстрее
Привет. уменьши громкость фоновой музыку на 70%, и перезалей
умный дохуя чтоли?
Да. Это сложно - для обычного человека, не программиста. Жаль. Надо было в 90-е годы всё бросить и заняться программированием. Штука увлекательная - я пробовал на Бейсике - чисто для себя написал пару программ - с нуля.
Да не знают программисты детально алгоритмы машинного обучения и нейросети, может быть только перед собеседованием подучат теорию. А вы если писали программы, то легко сможете разрабатывать что нибудь и сейчас, главное начните с практических задач, не углубляясь особо в теорию
@@ИловМакс Поздно. Этому увлекательному делу надо было жизнь посвящать. В 58 лет с нуля начинать поздновато. Хотя и хочется. Быть рядовым не хочется. Если бы лет 20 программированием занимался, может что-то интересное и сделал бы. Я эти нейросети, точнее искусственный интеллект чисто гуманитарно ещё лет 20 назад разрабатывал. Чисто для себя - просто осмысливал - как они могут работать. Но вот - кто-то уже сделал программными методами - воплотил идею в жизнь. (Впрочем - такое поднять для одного человека слишком много - задача комплексная)
7.50, откуда взялись числа кроме тех что в кружках, а именно 0.86, 0, 0.78 - с ними понятно, а вот откуда 0.9, 0.5 и 0.7????
0:28 "можно даже написать в Qt". Это как? Гуглю: Qt - это библиотека классов C++, а С++ один из самых сложных языков
Этот канал в целом о Qt ))
Сложно это ассемблер
Си не так сложен как пугают, а ты ведёшься, он будет для тебя изи, если у тебя склонность к программ и или ты не гуманитарий
@@umdois6849 да у меня диссонанс просто возник от фразы "даже в qt") я привык, что нейросети на питоне делают. И ожидал, что в этом видео, которое порекомендовал мне ютуб, будет что-то ещё проще, чем питон)
А так, с++ немного знаю и умею. А qt, насколько мне известно, платная и к тому же (возможно) запрещают или ограничивают русских в его использовании. Полгода назад хотел попробовать его использовать.
Сам я за полностью бесплатные и опенсорсные решения.
@@dmitriynayanov6428есть бесплатная open source qt, которая работает прекрасно. Не знаю, почему Вы ее не заметили
про веса вообще плохо сказал
нет точного описания "как влияет на..." откуда и что?
пустота на исходнике мало влияет? или что на картинке влияет на вес?
Это для более менее сообразительных видео было
Спасибо за видео, но как же вы достали со своими телеграмм каналами, что полезные ссылки не судьба разместить в описании. А ведь почти подписался, удачи в телеграмме)
Отличное видео для людей с бессонницей - я два раза засыпал на фрагменте объяснения вычислений! 😆Шучу. Всё объяснил настолько доходчиво, что я заново понял то, что учил ещё в инстиуте. 👍 Одно непонятно: если у тебя большая выборка рукописных цифр и ты написал правильный алгоритм, почему он ошибается на рукописном вводе??
Похоже, недостаточно примеров для обучения было в подобных очертаниях, где происходили ошибки
Плохая сходимость сети. Грубо говоря, модель плохо аппроксимировала исходную функцию зависимости между выходными и выходными данными. Это может быть связано либо с недостаточным набором данных, нейронов, либо с недоучиванием или с переобучением
@programmcat, есть ли у меня смысл изучать нейросети и пытаться делать свои нейронные сети, если они очень развиты (например ChatGPT или Midjourney)? Или мне лучше не изобретать велосипеды и учить другую отрасль программирования, где мне тоже интересно?
-Посмотри всех- Попробуй всё и занимайся тем, что больше зайдет лично тебе.
Да, стоит. С таким же успехом можно перестать разрабатывать новые игры, потому что уже есть Скайрим))
Дык вить пугают, что нейросети все за нас напишут, стало быть, зачем изучать программирование?))
@@ВиталийЧемизов жаль только - жить в эту пору прекрасную уж не придется ни мне, ни тебе)
музыку на фоне потише бы, а голос повыше
А в других видео просто говорили нейронные связи и всё, просто что они вот так вот связаны и всё, ни как они вычисляют ничего об этом не говорили
Интересно, если MNIST обучает белым цифрам на чёрном фоне, что будет если нарисовать наоборот, чёрным по белому?
будет обратный результат
Респект!
Чувак читает Википедию.
Я так понимаю ты писал сетку с полного нуля, без какой либо библиотеки? Писал на C++?
"какой-либо" пиши через дефис)
Огонь, спасибо!
Ахренительно!
Но правильно - "Охренительно"
@main_zhenek Охренительно, это так себе, а это Ахренительно, что на порядок круче.
Можно ссылку на исходный код?
3.9.2023
Этой ночью, я успешно смоделировал, роботу своей первой в жизни нейросхемы.
Основана на нейронах с нечёткой логикой.
Вычисление одного ответа для сети из десяти тысячь нейронов занимает две секунды.
Входит в состояние соответствия любой функции f(от трёх логических переменных)
за минуту обучения сети из 14 нейронов.
Жаль, что я всю жизнь безработный.
А можно ли эту нейросеть обученную на 28-пиксельный квадрат, применить к любому размеру цифр?
Если цифры подогнать, а так нет
Музыка мешает, хотел образовательную информацию получить и в итоге какой то Ералаш.
😂
музыка мешает( а видео класс)
Надеюсь автор сам понял о чем говорит, пока всё это рисовал и монтировал.
Автор долбаёб, уже всем надоел со своими видосами
ссылку на группу добавишь куда-нибудь?
Она в описании, я про неё забыл 😐
Парень про🎉нигера не понял, но ось интересно😂
Поставил 2000й лайк
аоаоаоаоао я сделал нейросеть в скретч
и вот тут я понял что не надо было прогуливать математику