Нейронная сеть. Пытаюсь познакомиться. Часть 1.

Поделиться
HTML-код
  • Опубликовано: 29 янв 2025

Комментарии • 580

  • @sonicvv
    @sonicvv 6 лет назад +627

    Показал это видео своей нейронной сети, говорит надо лайк поставить...

    • @thzeroucken
      @thzeroucken 5 лет назад +27

      Нажми класс если тебя держит умный дом

    • @FUNKAFANTAS1
      @FUNKAFANTAS1 5 лет назад +5

      @@thzeroucken "Нажми класс" как это убого звучит

    • @mf.8985
      @mf.8985 5 лет назад +1

      @@FUNKAFANTAS1 Нищебродский

    • @imch-familiya
      @imch-familiya 4 года назад

      @@thzeroucken а ты точно сможешь помочь, черт он идет

    • @mem3525
      @mem3525 4 года назад

      гыгыгыгыгыгыгыгы

  • @ДжигурдаДжигуртаниан

    Как говорится "Ничего не понял, но очень интересно"

    • @user-xtkjdtr16
      @user-xtkjdtr16 6 лет назад +13

      Ну там ни "нечего", там другое слово)))

    • @JosephStalin6730
      @JosephStalin6730 5 лет назад +14

      @@user-xtkjdtr16 Ну да, там написано "ничего".)

    • @ATtiny13a-PU
      @ATtiny13a-PU 5 лет назад +3

      @@JosephStalin6730 , цензура

    • @ancubic1549
      @ancubic1549 5 лет назад

      Так уходи отсюда

    • @himsmit2901
      @himsmit2901 5 лет назад +2

      НИЧЕГО ИНТЕРЕСНОГО В НЕПОНЯТНОМ... ЧАСТОТНОМ ХАРАКТЕРЕ УСИЛЕННОГО СИГНАЛА НЕЙРОАКСОНОДЕНДРИТНОГО ХАРАКТЕРА,С ХАРАКТЕРИСТИКОЙ ОТКРЫТОГО КЛЮЧА...ТАК И ТЯНЕТСЯ НЕРВНЫЙ ИМПУЛЬС К МЫШЦЕ РУКЕ ЛАЙК ПОСТАВИТЬ...НО НЕНАШЛОСЬ АРГУМЕНТОВ.

  • @506
    @506 6 лет назад +300

    Афигенный у тебя контент. Желаю дальше развиваться и выкладывать свои успехи на ютуб. У тебя стабильно раз в месяц видео выходит. Круто, что упор на качество, а не на количество. Я уже привык - сначала ставлю лайк, потом смотрю видео.

    • @ATtiny13a-PU
      @ATtiny13a-PU 6 лет назад +6

      тоже лайк сразу поставил, мне очень зашло

  • @Tr00pikan00
    @Tr00pikan00 6 лет назад +82

    То что система проявила хитрожопость- убила XD Класс мне понравилось!!!

    • @zerg100500
      @zerg100500 6 лет назад +4

      Услышал и заплакал. Ааааа!!! Сеть проявила хитрожопость:))) ааааа

  • @СергейЛиньков-э2с
    @СергейЛиньков-э2с 6 лет назад +61

    Автор, где ты был когда я учился. Плакать хочется. Впервые я хоть что-то понял про нейросети. С благодарностью и уважением отношусь к тебе. Искренне желаю творческих успехов и всех благ. Чести и удачи! ;)

  • @SergejKolmogorov
    @SergejKolmogorov 6 лет назад +38

    Когда-то в универе поверхностно начинал разбираться с искуственным интелектом но прекратил. Случайно открыл твой ролик и как-то чувствую, что ты меня смотивировал снова попробовать в это погрузиться. Спасибо!

  • @DmitriyMX
    @DmitriyMX 6 лет назад +23

    тем не менее, по вашему ролику мне стало намного понятнее строение и реализация нейронных сетей. Благодарю за помощь в "первой ступеньке" к пониманию темы.

  • @MihailOnuchin
    @MihailOnuchin 6 лет назад +171

    Как тречок Кровостока слушать...)))))

    • @andy0x58
      @andy0x58 6 лет назад +30

      После твоего коммента я не смог дальше слушать автора)))

    • @lit1041
      @lit1041 5 лет назад +5

      Эта музыка у меня в голове заела, на столько всё плохо))

    • @artyzn
      @artyzn 5 лет назад +2

      Коллаб НТР и Кровостока

    • @ИванСелянкин-д3т
      @ИванСелянкин-д3т 5 лет назад +4

      смотрю на скорости 1.25

    • @fredfredburger2454
      @fredfredburger2454 5 лет назад +10

      Хочешь станцуй грязные танцы.
      Хочешь считай редкие шансы.
      Умножай всё в уме. Дели на бумажке -
      А я тут затру, про смерть Чебурашки...)

  • @retret4538
    @retret4538 6 лет назад +130

    (Сейчас я уже знаю про нейросети) Вот честно, ты этот материал намного лучше рассказал. У тебя нет сплошного текста с непонятными формулами через переменные в три и более индексов, ты всё рассказал пошагово без стояния на одном моменте по несколько минут + сразу показал применение и очень простую реализацию, не используя сторонних библиотек, на простом коде pixilang'а. Делай дальше!

  • @taxiart8363
    @taxiart8363 6 лет назад +15

    Идея для экспериментов:
    1 сделать песочницу типа змейки только с более сложным миром и стравить разных змеек между собой, чтобы посмотреть какая конфигурация нейронной сети жизнеспособнее.
    2 в той же песочнице сделать так чтобы конфигурация нейронной сети генерировалась случайно, а в процессе появлялись новые случайные блоки и дообучались. А победители могли перемешивать конфигурации своих сетей с разной степенью. Цель посмотреть сможет ли комп сгенерировать лучший вариант сети под задачу.
    3 ко 2 варианту прирастание новых сенсоров.
    4 змейки с разными маленькими сетями соединить в коллективный разум, мегасеть одного вида будет сражаться с мегасетью другого вида.

    • @taxiart8363
      @taxiart8363 6 лет назад +5

      ruclips.net/video/KCB_eYkxk98/видео.html
      тут нейронная сеть на биологических параметрах

    • @nikpolyware7251
      @nikpolyware7251 5 лет назад +1

      Хорошая задумка, но уже становится ясно что обученная нейросеть (сети) будут применимы только э к этой песочнице, к этому типу задач.
      Вот состряпать нейросеть которая обучена побирать необходимые параметры для предоставленной модели с дальнейшей целью контроля обучения нейросети более низкого уровня для работы с предоставленной моделью. (модель обучения с учителем, где учителем будет нейросеть :) ). Если очень закручено написал, могу переписать по проще.
      Сам использую brainJS, постепенно подбираюсь к convnetjs и tensorflow

  • @overcreated
    @overcreated 6 лет назад +3

    Это самое лучшее объяснение работы НС, что я видел!

  • @nilsharafutdinov3679
    @nilsharafutdinov3679 2 года назад +2

    "сеть проявила хитрожопость..." Поржал, стоит посмотреть хотя бы ради того чтобы понять эту фразу. Лайк.

  • @Darthkodius
    @Darthkodius 6 лет назад +93

    Годно. В което веке доходчиво про нейросети.

    • @dmitryzhuk220
      @dmitryzhuk220 6 лет назад +4

      Вот +++++++++++, а то напишут где в иной раз: "Вам наверняка не понятно как происходит A+B (я утрирую), ну а из этого нейронку построить - очевидный шаг. Всем спасибо до свидания" и ничего не понятно - а тут классно, всё понятно)

    • @denispashnev912
      @denispashnev912 6 лет назад +2

      Разве сложно перемножать матрицы и оптимизировать веса градиентным спуском?? Это всего лишь аппроксимация функции

    • @dmitryzhuk220
      @dmitryzhuk220 6 лет назад +10

      @@denispashnev912 вот-вот, а у него всё понятно)

  • @rgbbarhat7988
    @rgbbarhat7988 6 лет назад +3

    ооочень кайфанул! Спасибо огромное. Подписка! Давно не хватало такого канала мне. Сочетание твоего голоса и интонаций с темой и музыкой неожиданно хорошо заходит.

  • @prepodsinmysharagawerystup7357
    @prepodsinmysharagawerystup7357 6 лет назад +146

    Слава математике!

    • @LiquidPotroh
      @LiquidPotroh 6 лет назад +22

      Математикам слава!

    • @funtorm
      @funtorm 6 лет назад +3

      @@ВикторБухаров-ф3ь алгебра изи предмет

    • @alotino
      @alotino 6 лет назад

      Слава богу

    • @diam0nd211
      @diam0nd211 6 лет назад +1

      Мотемотечке*

    • @DanielLenskiy
      @DanielLenskiy 6 лет назад +5

      Матану слава!

  • @noitaukkokronk
    @noitaukkokronk 2 года назад +1

    Михаил, как ни странно, после просмотра множества роликов про нейросети, этот оказался наиболее простым и понятным для понимания.

  • @КириллСоколов-ш7к
    @КириллСоколов-ш7к 6 лет назад +48

    Жду вторую часть.

  • @evgenn787
    @evgenn787 6 лет назад +5

    Чувак, я нифига не понял что ты сказал, но ты заговорил ...... и достучался до сердца !!! =)))

  • @meanderIse
    @meanderIse 5 лет назад +2

    Просто, доступно, и по сути. Это видео меня реально заразило! Теперь думаю где можно применить нейронные сети в своих (в т.ч. будущих) проектах : )

  • @Василий-с5е6ж
    @Василий-с5е6ж 5 лет назад +1

    Я месяц искал и тестил формулы для нейронных сетей чтоб правильно обучать и всегда напарывался на сети с ошибочными формулами. Нарвался на это видео и решил глянуть. Автор без воды и по существу рассказал как и что работает. Лучше инструкции и представить не могу.
    ПС: У меня сеть сошлась по этим формулам, спасибо)

  • @aladinmovies
    @aladinmovies 6 лет назад +1

    Классное понятное видео по контенту! В коем то веке что то практично встретил! Жду продолжения по этой теме.

  • @Andrewkrivoshein
    @Andrewkrivoshein 5 лет назад

    Огромное спасибо Вам за видеоуроки, у Вас замечательное чувство юмора при этом. Здорово!

  • @AlexLink-rb5by
    @AlexLink-rb5by 6 лет назад +1

    Спасибо за подробное разжовывание, похожих роликов не встречал...

  • @staf5496
    @staf5496 6 лет назад +3

    Почему дневник автора гораздо полезнее и понятнее руководств, инструкций и книг? 😆 Автора прошу больше рассказывать про нейросети. 👍

    • @250-p6i
      @250-p6i 6 лет назад +3

      Потому, что Ваш уровень знаний ближе к автору видео, а не автору книг.

  • @РоманДьяков-х8е
    @РоманДьяков-х8е 5 лет назад

    спасибо, ты очень мне помог, долго не мог понять как оно работает, а в интернете подробной информации так и не нашёл, но после просмотра твоего ролика получилось написать многослойный персептрон

  • @legostroitel9429
    @legostroitel9429 4 года назад

    Большое спасибо! Видео и правда полезное! Главное (что другие не снимают) что код понятен для чтения его не много и зависит от темы, т.е. разказ код расказ код расказ код! Этото очень удобно и ориентироваться не сложно! Я переписал всё на другой язык и на удивление всё заработало!!!

  • @Trogls
    @Trogls 6 лет назад +3

    Спасибо Вам за такие хорошие видео. Ждём продолжения.

  • @FoxSlyme
    @FoxSlyme 5 лет назад

    Спасибо огромное! До этого видел много материала про нейросети из других источников, но здесь для меня наиболее понятно и доходчиво! Теперь я понимаю их не только снаружи, но и внутри ;)

  • @maksimka8993
    @maksimka8993 5 лет назад

    Самое лучшее видео по нейронным сетям что я видел!

  • @81n90
    @81n90 6 лет назад

    Подписка, однозначно! Очень нравится изложение, спокойный конкретный голос, кто-то скажет - монотонный - но это не так. Очень доходчиво для тех кто только знакомится с нейронками - мне бы этот видос лет пять назад посмотреть )
    По теме - хотел бы увидеть вашу работу с рекуррентными и сверточными сетями, в таком же понятнтом виде с примерами и деталями.

  • @Butcer
    @Butcer 6 лет назад

    Чувак, мне нравится твоё занятие нейросетями! Пожалуйста не бросай это дело, осень жду продолжения

  • @meanderIse
    @meanderIse 6 лет назад +2

    По поводу Вашей ошибки - не ошибается только тот кто ничего не делает. Отличный ролик! Подписался )

  • @ВасилийС-м1ю
    @ВасилийС-м1ю 6 лет назад +1

    Спасибо за канал.
    я как раз ночью думал для себя что то подобное организовать.

  • @dev_via_fun
    @dev_via_fun 4 года назад +1

    Автор!
    Никто так хорошо не обучает этому как ты...
    Ты просто топ!!!

  • @xControl277
    @xControl277 Год назад

    Спасибо за ролик. Уже 4 года пытаюсь подобраться к нейронкам. Книги с питоном не сильно помогают, только отупляют, слишком много скрытой математики. На последнем подходе сконцентрировался на задаче написания простейшего персептрона. Понимая, что понадобятся очень эффективные вычисления постепенно подбираюсь к вычислительной математике, x86 ассемблеру, языку Си и операционной системе UNIX. Вы мне открыли глаза, я почему-то был уверен, что функция активации стоит на последнем выходном слое нейросети, а сейчас осознал насколько ошибался. И кстати в Вашем примере функция активации называется сигмоида, а не логистическая. Для большего изучения терминологии советую: Саймон Хайкин. "Нейронные сети. Полный курс."

  • @cantwaitforit
    @cantwaitforit 4 года назад

    Если быть серьезным, то видео - действительно классное. Видно, что старался. Очень понятно и доходчиво обьясняешь. А если не быть : АААААААААААА СПАСИБО, НАКОНЕЦ Я ЧТО-ТО ПОНЯЛ В ИИ!!!

  • @romanmanechkin9735
    @romanmanechkin9735 6 лет назад +2

    Отличное видео ! Очень буду ждать следующее видео !

  • @igorekv
    @igorekv 6 лет назад +1

    Ютубчик подкинул твой видосик про змейки, заинтересовался этой темой, твои видео лучшие =) Спасибо.

  • @nikitapetrenko6757
    @nikitapetrenko6757 6 лет назад +1

    ТОП контент на канале! Побольше бы такого, тем более в русскоязычном сегменте! Залпом посмотрел почти все. Надеюсь увидеть что-нибудь об обучении с подкреплением. Благо тема хорошо подходит для игр типа змейки, но к сожалению достаточно мало годной информации по ней. Да и сама тема гораздо более сложна для понимания. Но с таким серьёзным подходом я думаю можно разобраться.

  • @Информатика-м6х
    @Информатика-м6х 4 года назад

    Спасибо, очень простое и доступное объяснение без спама!

  • @PrOxDES
    @PrOxDES 6 лет назад

    В предвкушении второй части подписался. С Новым Годом!

  • @vladislavunderoak4323
    @vladislavunderoak4323 6 лет назад +79

    Слава Науке! Математикам Слава! Кто не дифференцирует, тот Паскаль!

    • @gigigaga5469
      @gigigaga5469 6 лет назад +11

      Слава Україні

    • @Orakcool
      @Orakcool 6 лет назад +8

      +Vitalii Savchuk, зачем?

    • @АлексМ-м7ф
      @АлексМ-м7ф 5 лет назад +7

      @@gigigaga5469 хероям в срало

    • @fredfredburger2454
      @fredfredburger2454 5 лет назад +4

      @@gigigaga5469 тупа рашня ніколи не скаже "Слава " своєму смітнику,зате буде обсиратися коли хтось скаже "Слава Україні". хворі люди...

    • @ex-format
      @ex-format 4 года назад +4

      Ребята, давайте жить дружно

  • @tistaliv1491
    @tistaliv1491 6 лет назад +16

    Спасибо, я смог сделать нейронную сеть на c++, которая различает цифры с точностью 98%. Жду продолжения))

    • @YaShoom
      @YaShoom 6 лет назад +1

      +TiStaliv а сама цифры писать умеет? Автор вон не обучал рисовать, а она рисует.

    • @ВладиславЧе7
      @ВладиславЧе7 3 года назад

      интересно, занимаюсь такой же задачей в рамках курсовой. Не очень получается, если честно

  • @ЯрославФедотов-ь7я
    @ЯрославФедотов-ь7я 6 лет назад +1

    Спасибо за видосы. Очень годно. С нетерпением жду следующего.

  • @gfm9973
    @gfm9973 6 лет назад

    Просмотрел видео и нашел ошибку в своей нейронке, спасибо! Жду продолжения, может в очередной раз найду ошибки и пробелы знаний у себя.

  • @alexey_pryadko
    @alexey_pryadko 5 лет назад

    Бро, большое тебе спасибо! Лазил по другим сайтам.... Лазил, и ничего так и не понял... Уже решил забросить... Но! Тут натыкаюсь на твой ролик, смотрю и думаю, как этот человек всё понятно объясняет! И подумал я, за хорошее объяснение ставлю лайк! Спасибо за понятно изложенную информацию!

  • @n1cerecordstv46
    @n1cerecordstv46 6 лет назад +2

    Интересная работа! Респект автору!

  • @andreysilver5496
    @andreysilver5496 6 лет назад

    Как же хорошо вы все разложили. Спасибо.

  • @stepansidorov8734
    @stepansidorov8734 5 лет назад

    Класс, хоть это и твой дневник мне стало очень многое понятно. Спасибо!

  • @ПРИКОЛЫ-т6б
    @ПРИКОЛЫ-т6б 6 лет назад +1

    Спасибо. Интересно. Подписался буду следить за вашим экспериментом.

  • @krenciak
    @krenciak 3 года назад

    Спасибо, классное объяснение! Смотрел это видео ещё в конце 2019, но комментарий написал только сейчас.

  • @darkfateinc7333
    @darkfateinc7333 5 лет назад

    Очень крутой и полезный контент. Спасибо за труды!

  • @survivorspace896
    @survivorspace896 4 года назад +1

    Круто! В остальных ролика тонны воды, зубодробительных формул, и крайне много ущербной терминологии, причем ролики обучающие, у тебя же, все доступно и детально описано, спасибо!

  • @White_Drake
    @White_Drake 6 лет назад +35

    Жду змейку на основе нейросети)

  • @zajalojalo
    @zajalojalo 6 лет назад +3

    Появляйся в моих рекомендациях как можно чаще!

  • @ВладиславА-н7й
    @ВладиславА-н7й 5 лет назад +1

    Автор, огромный "респект и уважуха"!
    Сам пытаюсь разобраться с темой нейронных сетей, сижу с карандашом и бумагой, пытаюсь повторить путь Автора.
    Есть вопрос, на 6:39 идет корректировка весов связи и вычисляется производная df(e)/de.
    Я считаю, что запись df(e)/de не корректна. По правилам математики df(e)/de - это будет какая-то функция от переменной e: f'(e), именно функция, не число! Но здесь же вы оперируете абсолютными величинами ( числами).
    Я считаю более корректная запись должна выглядеть следующим образом:
    вычисляем производную функции активации в точке x=e: df(x)/dx | x=e. Вот теперь мы получаем число, которое участвует в вычислениях.
    В общем случае, для произвольной функции активации, при корректировке весов надо использовать наклон функции активации в точке e - в общем-то геометрический смысл первой производной)))
    А в целом все очень доступно и понятно! Спасибо за видео!

  • @gatos-su
    @gatos-su 6 лет назад +2

    Автор, ты капитальный молодец :)

  • @garrimorg3720
    @garrimorg3720 6 лет назад +1

    Интереснейший канал! Ждем мир ботов на основе конкурирующих нейронных сетей! Рекомендую: Ян Гудфеллоу - глубокое обучение

  • @Poker-s_S.V.
    @Poker-s_S.V. 5 лет назад

    По моему вы очень хорошо разбираетесь в нейронных сетях, могли бы вы создать полноценный урок по нейронным сетям с ЗАОСТРЕНИЕМ НА ВАЖНЫХ ДЛЯ ПОНИМАНИЯ МОМЕНТАХ, ну тоесть по пунктам какую роль играют слои, ДЛЯ ЧЕГО НУЖНЫ ВЕСЫ, как распознается звук, видео и тд...ну тоесть весь потенциал ваших знаний по нейронным сетям в одном или нескольких уроках. НА ЯЗЫКЕ ПРОГРАММИРОВАНИЯ к примирования на С++ (только не готовый питон, потому что важно понимание внутренностей.). Понимаю, что на ютубе этого добра навалом, но по моему у вас понимание без лишнего хлама, от чего уроки получатся компактними.

  • @ValerianAndStuff
    @ValerianAndStuff 6 лет назад +1

    Давольно интересно, продолжай
    лол
    до меня только что дошло, что глубокая нейро сеть это грубо говоря огромное уравнение

    • @foo52ru
      @foo52ru  6 лет назад +2

      Собственно примерно так и есть. Скопирую из комментариев выше:
      "Классические искусственные нейронные сети , всё то огромное многообразие современных крутых нейросетей, от тех, что распознают котиков и самолетов, до тех, что играют в игры Атари и доту - всё это, по сути, к сводится к задаче апроксимации функций. Есть некий вход, есть некий выход, сеть должна обучиться функции, которая примерно отображает вход на выход. Ни более, и не менее. А реализуются сети через много-много операций матричного умножения."

  • @FyrenSelvin
    @FyrenSelvin 6 лет назад +2

    Это просто офигенно!

  • @UCanDo
    @UCanDo 5 лет назад +1

    Спасибо за очень интересное видео!!!
    Подскажите, а что за музыка у вас используется?

    • @foo52ru
      @foo52ru  5 лет назад +2

      я сам пишу музыку для роликов

    • @UCanDo
      @UCanDo 5 лет назад

      @@foo52ru КРУТО!!!
      Я подписан на ваш канал и с удовольствием просматриваю ваши видео. Я радиолюбитель, "ардуинщик" :)) именно любитель, по образованию не имею ничего общего с техникой или программированием. Но ваши видео очень интересны и полезны, так как помогают в понимании определенных алгоритмов. Возможно, когда-то и я дойду до создания своей нейронной сети на микроконтроллерах :))
      Желаю успехов вам!

    • @catzz2790
      @catzz2790 5 лет назад

      @@foo52ru 💪💪

    • @les12001
      @les12001 5 лет назад

      @@UCanDo я тоже смотрю ваш канал! Очень круто что есть такие люди которые всем этим занимаются и помогают в понимании просессов)

  • @alexeyzhurin1044
    @alexeyzhurin1044 6 лет назад +1

    СПС, Ждёёём второй части. =)

  • @cultofsogga5863
    @cultofsogga5863 6 лет назад +1

    Респект за эти видео. Python всё таки облегчил бы жизнь)

  • @viktorcooper5675
    @viktorcooper5675 6 лет назад +1

    вы меня заразили и вдохновили ) на праздниках решил взяться за шашки. лет 10 в руки не брал и вот. написал все это на с++. ни как обучацо не хотело. пока образы с одной палкой (горизонтальной или вертикальной) не стал скармливать сетке в три раза чаще чем с двумя в одной эпохе. плюс добавил немного шума на вход. за пицот-шессот эпох учится. но я сделал с одним скрытым слоем 9-6-2 получилось. щя попробую вашу конфигурацию. интересно слушай )

    • @viktorcooper5675
      @viktorcooper5675 6 лет назад

      вашу конфигурацию тоже удалось обучить. только больше итераций требуется. таргеты для обоих сетей 0.9 и 0.1. на входы подаю 0.99 и 0.01 с некоторым случайным шумом на каждом входе. обе без нейронов смещения. нужна теперь возможность сохранять и загружать параметры. и научиться скармливать реальные картинки. я уже позабыл все эти GDI, смотрю на свой древний код и ничего не понимаю )

    • @foo52ru
      @foo52ru  6 лет назад

      Там и нужен один скрытый слой, я использовал два, что бы посмотреть корректность работы функций. Сейчас доделываю видео по работе с реальными картинками.

    • @viktorcooper5675
      @viktorcooper5675 6 лет назад

      тоже решил растить "свовего тамогочи" чисто ради удовольствия. могу поделицо исходниками. тем более что сегодня в них нет ничего секретного )

  • @СергейБелоногов-ж8ж

    Давно ждал подобные ролики

  • @denisdd5885
    @denisdd5885 4 года назад

    Спасибо тебе добрый человек.Только просмотрев твое видео,понял свою ошибку.

  • @СергейБелинский-ж5в

    Мне нравятся ваши преобразования * материи и времени 🌊🙊

  • @SergeyMazurkin
    @SergeyMazurkin 6 лет назад +1

    спасибо за труд. и спасибо за Pixilang.

  • @DG_nomad
    @DG_nomad 2 месяца назад

    Спасибо большое за интересный ролик

  • @myrichstory
    @myrichstory 6 лет назад +7

    музыка супер!

  • @mrch333
    @mrch333 5 лет назад

    Чувак, ты только не обижайся)
    У тебя не самый приятный голос для диктора, НО я смотрю твои видео и не могу оторваться. И от начала до самого конца ролика не замечаю этого.
    Классный контент и подача материала!
    P.S. не вздумай что-либо менять в формате вещания (ни в лучшую , ни в худшую сторону) - это твоя фишка.

  • @ИгорьЧернышев-и4ч
    @ИгорьЧернышев-и4ч 5 лет назад

    Я себя таким идиотом чувствую, жалко не занимался программированием, автор, большое тебе уважение за твою крапотливость и упорство, так держать!!!!!!

  • @VictorGubin
    @VictorGubin 6 лет назад +3

    Пробовали распаралеливать/передавать вычисление на GPU через через OpenCL ?

  • @darkseptember7136
    @darkseptember7136 6 лет назад +1

    ты крутеший чел , с суперским контентом, продолжай том же духе

  • @soltaurus
    @soltaurus 6 лет назад +2

    Очень круто, молодец!

  • @atlasua2021
    @atlasua2021 6 лет назад +1

    Ура, долго ждали)

  • @ВалентинаСахарова-ь3б

    агонь!
    а по какому принципу было выбрано количество нейронов в двух скрытых слоях в задаче про вертикальные и горизонтальные линии?

  • @Serpolio
    @Serpolio 5 лет назад

    Благодарю за познавательное видео.

  • @gigavit
    @gigavit 6 месяцев назад

    Начало великолепное

  • @СергейПартизанов-н1х

    Класс! Это очень приемлемо для восстановления и оценки растровой графики, но не для векторной. Два года читаю в новостях- нейросеть, нейросеть... Одним Вашим видео понял ( в общих чертах), что и как она считывает. Сразу призадумался, как это можно использовать. Понимать, не ломая глаз ( на 85-90% ), капчу на сайтах? - Не нужно. Обработка ( восстановление) повреждённых фото (старинные, чёрно-белые )? Как вариант - интересно, зависит от степени повреждения снимка.
    Не об этом хочу сказать. Спасибо за пояснения алгоритма работы! Очень интересное видео!
    P.S. Продолжения ждём. Особенно- применение (интересное ( ознакомительное ), использование) на наших, не супер компьютерах.

    • @CapitanSuk
      @CapitanSuk 6 лет назад

      Чтобы увидеть на то, как нейросети можно использовать, достаточно посмотреть на DeepHD, на автомобили с автопилотом, например, Tesla, у Яндекса и Гугла тоже есть какие-то наработки, вот уже в России вводят наклейку "А" для техники с автопилотом. А боты уже давно научились расшифровывать капчу, так что здесь им остаётся лишь держать планку.

    • @СергейПартизанов-н1х
      @СергейПартизанов-н1х 6 лет назад

      @@CapitanSuk Я всё сказал выше. Мне Tesla- не интересна, и еже с ними... Ещё вопросы, по существу, будут?

    • @Καιρός-ζ6σ
      @Καιρός-ζ6σ 6 лет назад

      @@CapitanSuk Боты еще не научились расшифровывать капчу. Есть соответствующие сервисы, в которых капчу расшифровывают индусы в ручном режиме, сидя у себя в Индии и выдавая ответ по линиям связи. Стоимость обработки одной капчи - около 10 центов.

    • @Καιρός-ζ6σ
      @Καιρός-ζ6σ 6 лет назад +2

      @@СергейПартизанов-н1х В этом твоя проблема: ты говоришь "я все сказал выше" и не слушаешь чужих мнений, хотя до этого ты самостоятельно признал, что нихера в предмете не понимаешь. А ведь человек тебе дело может говорить.

    • @SIM31r
      @SIM31r 6 лет назад

      Вот нейросеть прекрасно восстанавливает цвет на старинный ч/б фотках, особенно хорошо когда узнает объекты
      demos.algorithmia.com/colorize-photos/

  • @DannyPhantom288
    @DannyPhantom288 3 года назад

    Отличное качество видео,спасибо очень полезно

  • @emilio88regis
    @emilio88regis 6 лет назад +1

    Плюсую за математику! Если заниматься хай-теком, без нее как без рук. Сам страдаю.

  • @DannyPhantom288
    @DannyPhantom288 3 года назад

    Качественно и интересно супер спасибо

  • @РоманЛева-й9з
    @РоманЛева-й9з 5 лет назад

    Блин, через два года я только теперь понял зачем квадраты ошибок. Да, математике во веки слава!

  • @cekkush
    @cekkush 3 года назад

    Огромное спасибо. Думаю автор объясняется то, что делает tenderflow, numpy, но не только.

  • @mels9485
    @mels9485 4 года назад

    Большое спасибо за труд !

  • @DannyPhantom288
    @DannyPhantom288 3 года назад

    Спасибо за видео очень интересно и полезно

  • @BlYur
    @BlYur 6 лет назад +8

    Вот ещё одна книга по нейросетям для чайников: «Тадеусевич Р., Боровик Б., Гончаж Т., Леппер Б. Элементарное введение в технологию нейронных сетей с примерами программ, 2011 г.»

    • @foo52ru
      @foo52ru  6 лет назад +1

      Спасибо.

  • @xakkep9000
    @xakkep9000 6 лет назад +3

    15:06 сеть проявила хитрожопость :D ёрт да это гениально!

  • @madeinussr1983
    @madeinussr1983 5 лет назад +5

    15:05 "Сеть проявила хитрожопость..." Люди у себя это называют "интуицией".

  • @ancubic1549
    @ancubic1549 6 лет назад +1

    Великолепно, наконец-то понял эти чертовы нейронные сети. И да, лучше пиши на C++, Pixilang это ужс....

    • @Orakcool
      @Orakcool 6 лет назад

      пусть пишет хоть на асме, у него достаточно интересная подача и подход даже к элементарным задачам. Кое что можно взять на вооружение при обучении детей программированию

    • @ancubic1549
      @ancubic1549 5 лет назад

      @@Orakcool Дети в программировании это плохо в 70% случаев.

    • @Orakcool
      @Orakcool 5 лет назад

      +Eugene Pavlov, откуда статистика? Какая была выборка? Что с остальными 30%?
      Привожу Ваши-же слова - "Великолепно, наконец-то понял эти чертовы нейронные сети." вот это вот наконец-то могло произойти намного раньше. Что-же в этом плохого?

  • @xvasilichx6775
    @xvasilichx6775 2 года назад

    Ни фига не понятно, но ОООЧЕНЬ интересно )))))

  • @ДимаШевцов-ф1ц
    @ДимаШевцов-ф1ц 6 лет назад +1

    очень интересно спасибо за годный контент

  • @theobserver9805
    @theobserver9805 5 лет назад

    Слава математике! Живите и процветайте! :)

  • @klaralogan7058
    @klaralogan7058 6 лет назад +1

    Круто! !! Молоток

  • @mikhailkuznetsov7813
    @mikhailkuznetsov7813 5 лет назад

    2:00 Подскажите, пожалуйста, где в функции f(e), приведённой в видео, можно взять значение переменной x, которая находится в показатели степени числа e, в знаменателе дроби?

    • @foo52ru
      @foo52ru  5 лет назад

      функция записывается f(x).
      x - это число, которое передаётся функции. В данном случае - то, что пришло на вход нейрона(сумма входных сигналов). Результат, полученный после применения функции - это выход нейрона.

  • @DragonsLord76
    @DragonsLord76 6 лет назад +2

    Результат похож на алгоритм SAO для обработки графики в видеоиграх. Просто блюр кинуть на конечную картинку и всё. Я про чёрно-белый оконтуренный видос.

  • @mikhaildidur9567
    @mikhaildidur9567 5 лет назад +1

    4:13 если слоёв больше двух то функцию активации использовать для нейронов каждого слоя?

  • @yaroslavtkl5513
    @yaroslavtkl5513 5 лет назад

    Всю жизнь думал, зачем нужна математика для программирования, ведь там нужно хорошо мыслить, уметь писать код что бы был читабельным и работающим а математика по сути то и не нужна, но с этого видео увидел какие вещи можно творить с помощью математики! Спасибо автору за расширения сознания в области программирования!