Самое простое объяснение нейросети

Поделиться
HTML-код
  • Опубликовано: 25 янв 2025

Комментарии • 334

  • @programmcat
    @programmcat  Год назад +30

    04:34 - я имел в виду входов ))

    • @VladimirNerby
      @VladimirNerby Год назад +3

      Видео класс. Думаю, что музыка в видео громковата

    • @programmcat
      @programmcat  Год назад +1

      @@VladimirNerby есть такой косяк

    • @88vok
      @88vok Год назад

      не называй
      те чипы
      приметивыне кста
      НЕРОНАМИ !
      даже ладноб ешслиб еше ТОГДА назвал Исксвеным нероном
      но
      эт тогда
      атерь
      какой нахрен нейрон ? !

    • @88vok
      @88vok Год назад

      довай про то что транзистор это
      КАКОЙ нейрон ?!
      не неразу ж не подмена понятий ? !
      дык какой ?

    • @88vok
      @88vok Год назад

      прекидовайш с каким фейспалмом да любые неробиологи на вот такое все неточто смотрят а СЛУШАЛИ
      с
      с60Х ?
      когда совковую кибернетику лженауко покрестили ...?
      и непсроста
      вашет еше боел неспроста
      ианч как
      ну
      свтасть 90х там ..
      и свта вера невьспена в 146% (ну 146млн рабсиянцев )
      или еше боле ...
      43млн морекопов
      дык каие данные то ?

  • @zivler
    @zivler Год назад +32

    Если это самое простое объяснение нейросети, то мне трудно представить, как будет выглядеть самое сложное.
    Как говорится, ниx*я не понятно, но очень интересно.

  • @Amatikay-t1i
    @Amatikay-t1i Год назад +43

    Поймал себя на мысли что, с 10:00 было оч трудно слушать речь. Музыка очень активная, и громче голоса. Видос топчик)

    • @agrippotadeush4414
      @agrippotadeush4414 Год назад +3

      У меня раньше началось, выбесила просто

    • @TheLogEdge
      @TheLogEdge Год назад +2

      Меня вот что удивляет - неужели настолько плевать на то, как будут воспринимать твое творение люди?

    • @Amatikay-t1i
      @Amatikay-t1i Год назад +1

      @@TheLogEdge Не думаю, что вопрос в плевать. Вполне могу допустить 2 варианта. 1 - у человека очень плохое аудио оборудование, или сводит звук в колонках, не тестируя в наушниках или что то вокруг этого. 2 - автор может в матчасть, но не чувствует \ не знает как в сведение. В целом то видос хороший. Тут не про плевать, как мне кажется.

  • @dropdungeon1647
    @dropdungeon1647 Год назад +25

    Программированием занимался, но в другой сфере, всегда было интересно как люди додумались до процесса обучения машин. Теперь многое прояснилось и эта тема уже не столь загадочна, спасибо за хороший и содержательный ролик!

  • @ВладЛавров-о2в
    @ВладЛавров-о2в 3 дня назад

    Не ну автор вообще красавчик, подача информации просто шик. Я уже посмотрел пару видосов на эту тему и у тебя самый подробный и исчерпывающий, по крайней мере для начинающего юзера, как я. Большой спасибо за труд!

  • @nakamasama
    @nakamasama Год назад +50

    Ура, тысячный ролик на тему создания нейронки для распознавания циферок просмотрен.

    • @sergrecon9293
      @sergrecon9293 Год назад +4

      лучшая антиреклама таким роликам

    • @programmcat
      @programmcat  Год назад +3

      Что просили, то и сделал

    • @daitedve1984
      @daitedve1984 Год назад

      Ты думаешь, знания "просмотрами" в голову влазят? :) Тут кумекать нужно!

    • @nakamasama
      @nakamasama Год назад

      @@daitedve1984 , а я не про знания. Я про их количество.

    • @TheMrMadD0g
      @TheMrMadD0g Год назад +2

      @@programmcatкак база для первого видео по тематике - вполне неплохо. 👍🏻 Хотелось бы видео по теме нейросетей и решения каких-нибудь интересных задач о которых еще не снято миллиона роликов. Например, как создать и обучить нейросеть-автоответчик на основе своих диалогов в вк (там можно выгрузить вся историю в текстовых файлах). Здесь и парсинг текстовых файлов, и подготовка обучающего датасета, и нейросетка. Интересно, применимо и прикольно

  • @Achmd
    @Achmd Год назад +38

    как же я ору, как все пытаются "просто" объяснить основы нейронок и на моменте с обратным распространением каждый раз начинается вообще не простой ад)) хотя там всё очень просто:
    и "квадратичная функция ошибки" - если её значение находится в пределах от -1 до 1 (т.е. функция активации последнего слоя либо сигмоида, либо softsign), то это простая подгонка под последующие вычисления производной. ведь производная квадрата Х равна 2Х. и чтобы избавиться от этой двойки сразу делят на 2. В итоге, при вычислении ошибки мы используем dЕ/dx = (x - y) если E = (x - y)^2/2 т.е. просто разницу между выходным значением и желаемым результатом. а если бы мы не возвели в квадрат, то ошибка попросту бы нивелировалась при вычислении производной.
    и становится понятно почему ReLU ( x0 ? x ) является распространённой функцией активации, когда видишь, что её производная равна 0 либо 1, что упрощает вычисление обратного распространения ошибки и в ней вообще не учитывается значение этого нейрона. т.е. если нейрон никак не влияет на конечный результат, то и ошибку для него мы не вычисляем, и веса не меняем. это самая удобная функция для промежуточных слоёв.
    зы. и в видео никак не разъяснено что такое вспомогательный нейрон (b) (смещение) у каждого слоя, что его значение всегда равно 1, т.к. важно не его значение, а веса, идущие от него.
    зыы. лучшее объяснение этой темы в серии видео DeepLearning от канала 3Blue1Brown. в переводе Sciberia можно глянуть. там не просто. зато обретаешь понимание)

    • @moshamiracle
      @moshamiracle Год назад +1

      да понятно, что бред и без нормальной математики там не разберутся, только самые верха понять

    • @serge2773
      @serge2773 9 месяцев назад

      но все равно автору спасибо! больше материалов, больше топлива для понимания.

    • @Achmd
      @Achmd 9 месяцев назад

      @@serge2773 это да. правда, они повторяют все одно и то же. за год ситуация практически не изменилась.

  • @replays4026
    @replays4026 Год назад +133

    Музыку можно погромче? Не слышу её

  • @tirtir1401
    @tirtir1401 Год назад +37

    В нынешнее время редко когда название ролика соответствует содержимому, отдельный лайк за это

    • @ooh18cm
      @ooh18cm 8 месяцев назад +1

      Ложь. Тут заумно рассказоно. Не ведитесь

  • @va4953
    @va4953 9 месяцев назад +26

    Вот это груз... спасибо за "простое" объяснение, проще наверное нейросеть попросить объяснить как она работает

    • @MathPTU
      @MathPTU 4 месяца назад

      чем тебе не нравится?

    • @chmax.
      @chmax. 4 месяца назад

      @@MathPTU туповат

    • @textreanimator
      @textreanimator 15 дней назад

      ​@@MathPTUон математику не учил

  • @chinaleds
    @chinaleds 3 месяца назад +4

    нормально объяснил, сначало говорит что у перцептрона много входов и один выход и тут же рисует нейронку где куча выходов, спасибо очень понятно, объяснения не ваш конек.

  • @Anshegar
    @Anshegar Год назад +1

    Очень полезное видео, спасибо, ты практически на пальцах понятно разложил не самую простую тему.

  • @user-Vaizard
    @user-Vaizard Год назад +2

    Посмотрел 4 : 45 видео, и чувствую закипел, теперь надо всё переварить продолжу смотреть позже, за взрыв мозга сразу лайк ставлю

  • @kopoba8830
    @kopoba8830 Год назад +8

    Ролик просто супер!

  • @WoWCoolBack
    @WoWCoolBack Год назад +1

    С ВОЗВРАЩЕНИЕМ, спасибо за качественный материал!

  • @your-honesty
    @your-honesty 5 месяцев назад

    Это первое внятное объяснеие! Спасибо большое за труд!!!)😊

  • @vladmob
    @vladmob Год назад +4

    Ролик - отличный! Спасибо вам!

  • @SergeySuper_Silver
    @SergeySuper_Silver Год назад +2

    Ух! Я досмотрел видео до конца)

  • @ПавелКонстантинов-в7я

    Короч на середине стало понятно что ничего не понятно. Нужен реальный проект и реальный пример, чтобы разобраться шаг за шагом. А этот дикий запад на фоне вообще отвлекает.

  • @michaelsidorov5508
    @michaelsidorov5508 Год назад +7

    Главное в том, что нейрон может иметь несколько входов и лишь один выход.

    • @main_zhenek
      @main_zhenek 2 месяца назад +1

      Нет. Главное в функции активации. Она выбирает, какие нейроны будут использоваться. Каждый нейрон превращается в кусочек распознанных данных, как флажок, означающий, что обнаружен некий кусочек

  • @oldgamer2397
    @oldgamer2397 10 месяцев назад +1

    1)Генерация случайных чисел.
    2)Сравнивание значений с логическими 1и 0.
    3)Задание результатов генерации ответов.
    4)Структуризация данных для генерации ответа.
    5)В итоге мы имее большое количество переменных, операторов, и конвертеров значений которые превращают переменную в команду для выполнения в программе абстрагирующую систему сложных данных в результат: Картинка, Видео, Аудио. Тупо Фотошоп с пером и ФЛСтудио с виртуальной миди клавиатурой, и виртуальный сканер экрана.

  • @dota6724
    @dota6724 Год назад +4

    Привет! Очень классный монтаж. Подскажи пожалуйста какую программу для монтажа используешь?

  • @main_zhenek
    @main_zhenek 2 месяца назад +1

    Если бы я снимал подобное видео, я бы объяснил все так:
    Каждый слой ищет чуть более сложные структуры в предыдущем выходе предыдущего слоя.
    Пример: сверточная нейросеть, распознающая объекты на картинках:
    Это значит, что сначала пиксели собираются в черточки, которые эффективно описывают картинку (другие черточки отбрасываются, если они неэффективны)
    Затем собираются уголки из черточек и лишние снова отбрасываются. Затем фигуры из уголоков, затем сложные фигуры, затем части предметов и затем сами предметы.
    Простыми словами, нейросеть комбинирует все и со всем, но отбрасывает неэффективные комбинации, которые плохо описывают изображение

  • @Дмитрий-й6г6э
    @Дмитрий-й6г6э 9 месяцев назад

    Спасибо. Всё более менее ясно и понятно.

  • @AiNNGpT
    @AiNNGpT Год назад +1

    спец алгоритм нифига себе. Спасибо! :) )))

  • @Unior-zt4ub
    @Unior-zt4ub Год назад +1

    Крутое видео, только вот музыка на фоне слишком громкая и отвлекает сильно. На мой взгляд, для таких роликов нужен более спокойный и тихий фон

  • @АндрейГордеев-ъ1т
    @АндрейГордеев-ъ1т Год назад +2

    Можно музыку еще громче?

  • @fhtagnfhtagn
    @fhtagnfhtagn Год назад +2

    Всю дорогу говорится, что у нейрона один выход. Но весь ролик на картинках у промежуточных нейронов нарисовоно много выходов.

    • @88vok
      @88vok Год назад

      нероны то гиде ?))
      искусвеные нероны НЕ НЕЙРОНЫ !

    • @alexmiska2115
      @alexmiska2115 Год назад

      @@88vok посмеялся от души. Жги еще

  • @ЕвгенийМ-у8б
    @ЕвгенийМ-у8б Год назад +2

    отлично, понятно, спасибо!)

  • @aitbayseiduldayev2363
    @aitbayseiduldayev2363 Год назад

    Супер. Так долго искал вводный материал который охватывает кей пойнты за 15 минут. А где можно скачать твою прогу, которую в конце показвал ?

  • @Linguaexpress
    @Linguaexpress 22 дня назад

    очень хорошо 👌

  • @chromehearts878
    @chromehearts878 3 месяца назад +2

    музыка как будто обзор на ферму

  • @Ewixx_
    @Ewixx_ Год назад +5

    Боже, как же Вы вовремя!! Буквально недели полторы назад начала изучать нейросети и мне жутко не хватало простого объяснения, спасибо!)

    • @umdois6849
      @umdois6849 Год назад

      Нейросети слишком сложно
      Как это можно понять

    • @Ewixx_
      @Ewixx_ Год назад +2

      @@umdois6849 во всём можно разобраться, если действовать последовательно и настойчиво)

    • @ВиталийЧемизов
      @ВиталийЧемизов Год назад

      А зачем вы это начали?

    • @Ewixx_
      @Ewixx_ Год назад +1

      @@ВиталийЧемизов во-первых - стало просто интересно, а во-вторых - хочу попробовать связать нейросети с химией

    • @oktopusskills
      @oktopusskills Год назад +2

      @@Ewixx_ тоже не понимаю это вечное "слишком сложно" у людей. По сути, познать можно многое, разве что разным людям требуется разное количество времени. И умение дробить сложные задачи на более мелкие. В том числе, на этапе обучения. Но всегда проще сказать "как это вообще, слишком сложно и вообще, автор виноват, что я всё равно ничего не понял") Приятно увидеть, что есть и вот такие люди в комментариях, как вы

  • @Grustinko
    @Grustinko Год назад

    Ничего не понял, но очень понравилось...)

  • @suits7873
    @suits7873 Год назад

    Здравствуйте, подскажите, а есть ли нейросеть для экселя?! Если да, то могли бы вы сделать на неё обзор?

  • @tsvigo11_70
    @tsvigo11_70 9 месяцев назад +1

    Никаких весов в сети быть не должно, могут быть только электрические сопротивления синапсов. И да если эти сопротивления только положительные то сеть не сможет полностью обучиться, только наполовину. Как объяснить знак электрического сопротивления непонятно. Не умножать надо а делить: заряд нейрона делим на сопротивление синапса, получаем заряд следующего нейрона.
    -------------
    Если человек понимает нейронную сеть он должен объяснить зачем нужны её элементы. Например: 1) зачем нужна функция активации, 2) зачем нужно смещение (?) Потому что без них не работает не принимается.
    Сеть которая тут показана излишне сложна для начинающих. Она должна выдавать всего два ответа: это единица и это не единица.
    Дробные числа не надо использовать - это усложняет программу и может вести к непредсказуемым, случайным ошибкам.

  • @makievitch
    @makievitch 8 месяцев назад +1

    Ни хрена себе! И это самое простое объяснение нейросети?

  • @АнонАнонов-ы6о
    @АнонАнонов-ы6о Год назад

    Что за музыка? Что за трек? Где скачать минус?

  • @ddffd-gx8lt
    @ddffd-gx8lt Год назад

    3:15 а если на одной картинке размер 28 28, но на другой 32 32? Как делать? Искать фото с большим числом пикселей?

    • @programmcat
      @programmcat  Год назад +1

      Надо всё преобразовать в один размер

  • @sergst8263
    @sergst8263 Год назад +1

    Отличный ролик! Сэкономил кучу времени))) Спасибо автору.

  • @petrodrobov
    @petrodrobov Год назад +6

    2:00 нейрон это несколько входов и один выход, и уже следующий слайд - нейрон имеет несколько выходов 🤔

    • @UTUBMIR
      @UTUBMIR Год назад +2

      нет ето следуйщие нейрони кодключение к 1!! виходу предидущогго🤗

    • @ICeMAn70833
      @ICeMAn70833 Год назад +2

      Это один и тот же выход из нейрона, подключенный ко входам во все нейроны последующего слоя

    • @СергейСимаков-п5б
      @СергейСимаков-п5б Год назад

      Там оговорка была, тоже услышал

  • @ГостомислКнязь
    @ГостомислКнязь Год назад +4

    Автор, логика повествования хромает. Самые простые темы Вы подаете ещё проще. А на более сложных - не производите упрощение и сливаетесь. Огромный промежуток времени видео посвятили буквальному разжевыванию и визуализации того, что входной нейрон умножает показатель на вес, суммирует и тд. Очень много графики такого простого процесса. А на самой сложной и важной теме - как высчитываются веса - не даете никакой инфографики ограничившись буквально парой фраз в стиле "что-то там как-то высчитывается". Надо бы наоборот. За минуту пробежать по входному слою, а остальное время и инфографику с анимацией посвятить подробнее работе с весами. Очень нелогичное решение. Конечно программисты будут меня хейтить. Но, добавлю в ответ: Видео называется "Самое простое объяснение нейросети". Вряд ли профессиональным программистам нужно такое видео, не так ли? Они и так в курсе всего. Это видео для тех кто не в теме же!

    • @programmcat
      @programmcat  Год назад

      Тут всё очень просто, намного проще, чем у других. Если кто-то чего не понял, значит видимо ещё рано лезть в эту тему

  • @TegaaTM
    @TegaaTM Месяц назад

    видео лучший но можешь сделать звук музыки тише

  • @misterio5756
    @misterio5756 Год назад

    Это база, так называемая основа)

  • @АнатолийМиронов-з8ж

    Объяснение надо дорабатывать. Чтобы оно действительно было легко понятным. Кроме того, в ролике речь о решении лишь одной частной задачи - распознавание изображений (да и то не любых, а лишь цифр). А реальных задач в жизни гораздо больше и в них востребовано бОльшее разнообразие методов.

  • @Kolemag
    @Kolemag Год назад +1

    Единственное видео в котором я все понял )

  • @rudikshul25
    @rudikshul25 Год назад

    Можно ссылку на исходный код?

  • @sonick_black6397
    @sonick_black6397 11 месяцев назад

    А почему вы не нашли первую производную от ошибки? То есть почему не Eвых=(0,32-0)*f'(x)? Это же сложная производная.

  • @oldgamer2397
    @oldgamer2397 10 месяцев назад

    Абстракция на регистры и алгоритмы преобразования. Генерация рандомных значений из суммы входных данных. И абстрагирование их в выходной результат.

  • @marinagoncharova5331
    @marinagoncharova5331 Год назад +4

    Ничего не понятно но ОЧЕНЬ интересно!

  • @ОлегВоропаев-к6ъ

    Скажите, может ли нейросеть сама выбирать параметры из списка, находить оптимальные параметры сглаживания и оптимальные значения. А также добавлять изменения при условии сохранения макс эффективности результата?

  • @ЛеонидМальцев-с3п

    Привет, Кот! Как можно вставить в мягкую игрушку нейронную сеть и начать её обучать человеку, который не умеет пользоваться компьютером? Предполагается что обучение будет проходить только через диалог, и если нужно подтвердить правильность выбора, то тоже через диалог или на крайний вариант две кнопки на мягкой игрушке "Да" или "Нет". Может такая игрушка уже создана и недорого состоит? Сколько будут стоить недорогие компоненты что бы мягкую игрушку снабдить всем необходимым?

    • @AcrAcro
      @AcrAcro Год назад

      Нейросети требуют затратных вычислений и недорогой такая игрушка точно не будет. А учитывая голосовое обучение - так вовсе с заоблачной суммой, так как распознавание речи - сам по себе процесс сложный и задействующий другие предобученные нейросети.

  • @roaldakberov4857
    @roaldakberov4857 7 месяцев назад

    Для рапознования рукописных цифр используются нейронные сети типа свёртки, а не перцептроны, как я слышал. Перцептрон - это простейший вид нейронной сети, который также еще называют полносвязной нейронной сетью.

  • @VengMike
    @VengMike Год назад

    Спасибо. Очень занимательно. А можно в том же стиле не только про перцептрон? Он же вроде как считается изрядно устаревшим...

  • @brlmbrlm7778
    @brlmbrlm7778 Год назад

    Мало понятно, но очень интересно )))

  • @ВладимирВоробьев-е6о

    А можно ли эту нейросеть обученную на 28-пиксельный квадрат, применить к любому размеру цифр?

    • @ИловМакс
      @ИловМакс Год назад

      Если цифры подогнать, а так нет

  • @morispioneer632
    @morispioneer632 Год назад

    Говорит что у каждого нейрона несколько входов и один выход, но на картинке 3:40 каждый нейрон скрытого слоя соединен с каждым нейроном выходного слоя... Так несколько выходов или один ?🤔

  • @MrMher93
    @MrMher93 Год назад

    ссылку на группу добавишь куда-нибудь?

    • @programmcat
      @programmcat  Год назад

      Она в описании, я про неё забыл 😐

  • @cita_website
    @cita_website Год назад

    Черная магия! Эта музыка делает, непонятное - понятным!

    • @main_zhenek
      @main_zhenek 2 месяца назад +1

      Зачем здесь запятая, мой безграмотный дружище?)

  • @Andrew-oh6kg
    @Andrew-oh6kg 11 месяцев назад

    А чем, в таком случае, распознавание письменных букв отличается от того же phash (алгоритм поиска похожих картинок)? Ведь суть работы по факту cхожа. Тогда зачем заморачивается с этими всеми нейронами\перцептронами если есть алгоритм во много раз проще?

    • @CanisLupusCrossoutMobile
      @CanisLupusCrossoutMobile 10 месяцев назад

      Одно дело сравнивать с существующими картинками, искать похожие картинки и совсем другое дело уметь распознавать цифры с разным написанием и быть способным на определение случаев, отсутствующих в обучающих данных. Этим и сильны нейросети. Они тупо мощнее распознают и могут действовать за пределами обучающей выборки, в то время, как phash только сравнивает с существующими картинками

    • @Andrew-oh6kg
      @Andrew-oh6kg 10 месяцев назад

      @@CanisLupusCrossoutMobile ну есть же расстояние Хемминга, так что похожие он тоже найдет в принципе

    • @CanisLupusCrossoutMobile
      @CanisLupusCrossoutMobile 10 месяцев назад

      @@Andrew-oh6kg нейросеть похожих не ищет. Она может познавать случаи, не похожие на имеющиеся. То есть она обобщает и находит зависимости. Не просто так сейчас нейросети популярны, это очень мощная технология

  • @sanyaharos1727
    @sanyaharos1727 Год назад +3

    Очень круто, но музыка на фоне слишком уж громкая

    • @a1515mail
      @a1515mail Год назад +2

      Еёлучше сосем убрать.

  • @TrueErr
    @TrueErr Год назад

    @programmcat, есть ли у меня смысл изучать нейросети и пытаться делать свои нейронные сети, если они очень развиты (например ChatGPT или Midjourney)? Или мне лучше не изобретать велосипеды и учить другую отрасль программирования, где мне тоже интересно?

    • @Jetscrolls
      @Jetscrolls Год назад

      -Посмотри всех- Попробуй всё и занимайся тем, что больше зайдет лично тебе.

    • @programmcat
      @programmcat  Год назад +6

      Да, стоит. С таким же успехом можно перестать разрабатывать новые игры, потому что уже есть Скайрим))

    • @ВиталийЧемизов
      @ВиталийЧемизов Год назад +1

      Дык вить пугают, что нейросети все за нас напишут, стало быть, зачем изучать программирование?))

    • @Jetscrolls
      @Jetscrolls Год назад +1

      @@ВиталийЧемизов жаль только - жить в эту пору прекрасную уж не придется ни мне, ни тебе)

  • @ИванКомаревич-е1т
    @ИванКомаревич-е1т 2 месяца назад

    7.50, откуда взялись числа кроме тех что в кружках, а именно 0.86, 0, 0.78 - с ними понятно, а вот откуда 0.9, 0.5 и 0.7????

  • @aleksy920
    @aleksy920 Год назад +10

    мелодия на фоне бесит

  • @unlimited-007
    @unlimited-007 10 месяцев назад

    Привет, классное видео, лучшее я бы сказал. А можно для тех кто в танке, у нас веса которые идут от входного слоя к скрытому слою тоже ведь обновляются?

  • @АндрейЕжгуров-ч2г
    @АндрейЕжгуров-ч2г 3 дня назад

    Простое объяснение нейросети состоит из 2 предложений:
    1. Нейросеть - метод аппроксимации набора эталонных точек (обучающей выборки) в многомерном пространстве входных/выходных данных (каждый вход/выход - отдельная координатная ось этого пространства) очень сложной нелинейной функцией (сама нейросеть), собранной из множества примитивных нелинейных функций ("нейронов").
    2. "Обучение" нейросети - минимизация ошибки этой функции в этих точках: метод наименьших квадратов на максималках.
    P.S. Нейросеть - эвристика, вынужденно используемая для задач, решать которые нужно, но алгоритма решения которых не существует или не найдено. И как любая эвристика, нейросеть не может не ошибаться. Если нейросеть никогда не ошибается, значит она бессмысленно расходует электроэнергию: для этой задачи существует алгоритм решения, требующий несравнимо меньше вычислений, чем нейросеть.

  • @sergst8263
    @sergst8263 Год назад

    Интересно, если MNIST обучает белым цифрам на чёрном фоне, что будет если нарисовать наоборот, чёрным по белому?

    • @main_zhenek
      @main_zhenek 2 месяца назад +1

      будет обратный результат

  • @Constantine..
    @Constantine.. Год назад +2

    Спасибо за видео, но как же вы достали со своими телеграмм каналами, что полезные ссылки не судьба разместить в описании. А ведь почти подписался, удачи в телеграмме)

  • @админскийБубен
    @админскийБубен 6 месяцев назад

    Я успел поставить лайк, спасибо моей нейросети

  • @evgenysenkin2859
    @evgenysenkin2859 Год назад

    Насколько знаю лицензия на использования QT далеко не дешевая. Да и есть готовые свободные зрелые фреймворки на Python для скриптинга, а написаны на С++ - так намного удобнее. Если углубляться в машинное обучение вам понадобится линейная алгебра для расчета тензоров, дифференциальное, интегральное исчесление, статитстика и т.д. Состав нейросетей очень усложнился, что-бы стать спецом по нейросетям нужно только этим направлением и заниматься.

    • @programmcat
      @programmcat  Год назад +1

      Извините, вы из какой страны смотрите? Я не понимаю что такое по русски "лицензия"

    • @evgenysenkin2859
      @evgenysenkin2859 Год назад

      @@programmcat a commercial license for the QT framework, I mean.

    • @programmcat
      @programmcat  Год назад +1

      @@evgenysenkin2859 первый раз слышу

    • @arithene
      @arithene Год назад

      ​@@evgenysenkin2859видео относится к комерческому использованию?

  • @rustam_kzn
    @rustam_kzn 9 месяцев назад +1

    музыку на фоне потише бы, а голос повыше

  • @Дмитрий-э7ъ9ч
    @Дмитрий-э7ъ9ч Год назад +2

    Спасибо за ролик. Очень громкая фоновая музыка, делайте пожалуйста тише. Может вообще в образовательные ролики не добавлять фоновую музыку? Люди же не для развлечений такое смотрят, а для получения нужной информации.

    • @nerlihmax4555
      @nerlihmax4555 Год назад

      Это развлекательное видео. А образование на лекциях, в статьях и учебниках, в видео на Ютубе с теоретическим походом, но не тут

  • @user-mememario
    @user-mememario Год назад

    А в других видео просто говорили нейронные связи и всё, просто что они вот так вот связаны и всё, ни как они вычисляют ничего об этом не говорили

  • @alexfaktor6167
    @alexfaktor6167 Год назад +1

    видос не плохой, но фоновая музыка очень громкая, а тема не то что бы сложная, но думать нужно. Музыку нужно тише сделать

  • @semibiotic
    @semibiotic Год назад +1

    И где "готовый алгоритм" ?
    Конечно, нужно отдать автору должное - это самое полное руководство, из тех, что я видел по данной теме, и оставленные лакуны (как минимум - реализации функций, их производных и типичные значения констант) можно попробовать восстановить.
    Но это точно не "готовый алгоритм", который обещало видео.
    Кроме того. Общая иллюстрация категорически неполна - на ней обязаны присутствовать веса (отдельными узлами, показывающими их принадлежность) и смещения - атрибутами "нейронных" узлов.

  • @vladislav_kuznetsov_
    @vladislav_kuznetsov_ Год назад

    Прям очень круто.

  • @РоманДеВильнев
    @РоманДеВильнев Год назад

    Спасибо!

  • @RevitAid
    @RevitAid Год назад +2

    Огонь, спасибо!

  • @alexeyivantsov1302
    @alexeyivantsov1302 Год назад

    про веса вообще плохо сказал
    нет точного описания "как влияет на..." откуда и что?
    пустота на исходнике мало влияет? или что на картинке влияет на вес?

    • @programmcat
      @programmcat  Год назад

      Это для более менее сообразительных видео было

  • @Иван-о9ш5с
    @Иван-о9ш5с Год назад +1

    спасибо за старания, но я не понял. наверное, это не моё. (комментарий для продвижения ролика: я посмотрел и автор старался)

  • @dmitriynayanov6428
    @dmitriynayanov6428 Год назад +1

    0:28 "можно даже написать в Qt". Это как? Гуглю: Qt - это библиотека классов C++, а С++ один из самых сложных языков

    • @programmcat
      @programmcat  Год назад +1

      Этот канал в целом о Qt ))

    • @umdois6849
      @umdois6849 Год назад +1

      Сложно это ассемблер
      Си не так сложен как пугают, а ты ведёшься, он будет для тебя изи, если у тебя склонность к программ и или ты не гуманитарий

    • @dmitriynayanov6428
      @dmitriynayanov6428 Год назад +1

      @@umdois6849 да у меня диссонанс просто возник от фразы "даже в qt") я привык, что нейросети на питоне делают. И ожидал, что в этом видео, которое порекомендовал мне ютуб, будет что-то ещё проще, чем питон)
      А так, с++ немного знаю и умею. А qt, насколько мне известно, платная и к тому же (возможно) запрещают или ограничивают русских в его использовании. Полгода назад хотел попробовать его использовать.
      Сам я за полностью бесплатные и опенсорсные решения.

    • @ИгорьБердин-в1ф
      @ИгорьБердин-в1ф Год назад +1

      ​@@dmitriynayanov6428есть бесплатная open source qt, которая работает прекрасно. Не знаю, почему Вы ее не заметили

  • @mason228x
    @mason228x 6 месяцев назад +1

    Пришел заниматься нейросетями, но в итоге попал на ферму и начал жеско кормить кур доить коров и пахать поля 🐽🐽

  • @andreisokolenko7719
    @andreisokolenko7719 Год назад +1

    Фоновая музыка слишком громкая.

  • @Nisitka
    @Nisitka Год назад

    Я так понимаю ты писал сетку с полного нуля, без какой либо библиотеки? Писал на C++?

    • @main_zhenek
      @main_zhenek 2 месяца назад +1

      "какой-либо" пиши через дефис)

  • @ИванСим-й1ы
    @ИванСим-й1ы 12 дней назад

    Спасибо

  • @borisblade1403
    @borisblade1403 Год назад +2

    Надеюсь автор сам понял о чем говорит, пока всё это рисовал и монтировал.

    • @programmcat
      @programmcat  Год назад

      Автор долбаёб, уже всем надоел со своими видосами

  • @АлександрИванов-е2з3ъ

    Чувак читает Википедию.

  • @СергейАнонимов-е5х

    Во первых: Какой дистрибутив?
    Во вторых: какая среда разработки?

    • @programmcat
      @programmcat  Год назад

      Это канал о Qt))

    • @main_zhenek
      @main_zhenek 2 месяца назад

      "во-первых" и "во-вторых" пиши через дефис бл

  • @AlexeyGR1047
    @AlexeyGR1047 Год назад

    Ахренительно!

    • @main_zhenek
      @main_zhenek 2 месяца назад +1

      Но правильно - "Охренительно"

    • @AlexeyGR1047
      @AlexeyGR1047 2 месяца назад

      @main_zhenek Охренительно, это так себе, а это Ахренительно, что на порядок круче.

  • @АнтонМирный-с5х
    @АнтонМирный-с5х Год назад +2

    Привет. уменьши громкость фоновой музыку на 70%, и перезалей

    • @programmcat
      @programmcat  Год назад

      умный дохуя чтоли?

  • @Shorts_Lazy
    @Shorts_Lazy Год назад +1

    Музыка мешает, хотел образовательную информацию получить и в итоге какой то Ералаш.
    😂

  • @Duderezm
    @Duderezm 2 месяца назад

    и вот тут я понял что не надо было прогуливать математику

  • @Alash8080
    @Alash8080 9 месяцев назад

    Респект!

  • @DemetriusG.-sh9ov
    @DemetriusG.-sh9ov Год назад

    15:45 интересно, что нейросеть уже заранее предугадывает, какую цифру напишет человек

  • @daitedve1984
    @daitedve1984 Год назад +2

    Отличное видео для людей с бессонницей - я два раза засыпал на фрагменте объяснения вычислений! 😆Шучу. Всё объяснил настолько доходчиво, что я заново понял то, что учил ещё в инстиуте. 👍 Одно непонятно: если у тебя большая выборка рукописных цифр и ты написал правильный алгоритм, почему он ошибается на рукописном вводе??

    • @vllitsav
      @vllitsav Год назад

      Похоже, недостаточно примеров для обучения было в подобных очертаниях, где происходили ошибки

    • @CanisLupusCrossoutMobile
      @CanisLupusCrossoutMobile 10 месяцев назад +1

      Плохая сходимость сети. Грубо говоря, модель плохо аппроксимировала исходную функцию зависимости между выходными и выходными данными. Это может быть связано либо с недостаточным набором данных, нейронов, либо с недоучиванием или с переобучением

  • @ЛеляКосыгина
    @ЛеляКосыгина 2 месяца назад

    Музыка громче слов ведущего, зачем так громко?

  • @АлександрСмыслов-э1х

    2:00 у нейронов несколько входов и один выход, 2:10 чзх

  • @Neex23
    @Neex23 Год назад

    В нейронной связи: просто перемножаются 2 значения, а за тем на выходе происходит сложение нейронных связей ВСЁ! да, их получается больше, но проще и быстрее

  • @Саша-х4ф6в
    @Саша-х4ф6в 10 месяцев назад

    В одной папке картинки, в другой музыка, тоже разбитая по папкам и тд. Более простое объснение. Все это соединяется в общую картину по заданому алгоритму.Вообщем Как то так.

  • @Зеленский95
    @Зеленский95 Год назад +1

    3.9.2023
    Этой ночью, я успешно смоделировал, роботу своей первой в жизни нейросхемы.
    Основана на нейронах с нечёткой логикой.
    Вычисление одного ответа для сети из десяти тысячь нейронов занимает две секунды.
    Входит в состояние соответствия любой функции f(от трёх логических переменных)
    за минуту обучения сети из 14 нейронов.
    Жаль, что я всю жизнь безработный.