Лекция 1. Нейронные сети. Теоретические результаты

Поделиться
HTML-код
  • Опубликовано: 28 дек 2024

Комментарии • 178

  • @ВикторияДемидова-ы8ж

    Первое видео из многих мною просмотренных в котором числа подставили в формулы, за одно это вам поклон до земли ).

  • @МаксимБ-з3ю
    @МаксимБ-з3ю 6 лет назад +11

    Лучший лектор из всех, которых я встречал!

  • @11Karpovich11
    @11Karpovich11 7 лет назад +53

    Отличная лекция! Большое спасибо автору и тому кто это снял и выложил!

    • @voronow3
      @voronow3 5 лет назад +1

      да, толковый экскурс в историю с сопоставлением современности.

  • @NarkotikAsd
    @NarkotikAsd 3 года назад +1

    Вот уж не думал что настолько интересно будет . Спасибо

  • @nicolasray6257
    @nicolasray6257 2 года назад +5

    Тема нейросетей для меня довольно сложная и именно этим она и привлекает. Поначалу непонятно совсем ничего, но изучая все больше материала все больше вникаешь в эту тему.

  • @kerselkerosin
    @kerselkerosin 6 лет назад +1

    Коллеги, наконец-то много полезных мелочей, а не просто стандартная медиа-модель НС!

    • @Mystery-x9m
      @Mystery-x9m 2 года назад

      Привет, ты хорошо разбираешься в нейросетях?

  • @anaaa4049
    @anaaa4049 7 лет назад +5

    Дождались часть два! Спасибо!

  • @Mystery-x9m
    @Mystery-x9m 2 года назад

    Нужен человек в команду, который хорошо разбирается в нейросетях, есть крупный проект, который имеет высокий потенциал коммерциализации

  • @asianasia19
    @asianasia19 6 лет назад +4

    Спасибо за материал, очень интересно. А что касается негативных комментов, то они лишний раз подтверждают, что сколько людей, столько и мнений) Видать лекции тоже на вкус и цвет)

  • @ЗомбоЯщик-ь6о
    @ЗомбоЯщик-ь6о 6 лет назад +2

    Очень хорошо для новичка. Многие моменты значительно прояснились.

    • @Mystery-x9m
      @Mystery-x9m 2 года назад

      Привет, ты хорошо разбираешься в нейросетях?

  • @MakarOff-Pro
    @MakarOff-Pro 2 года назад

    Молодчинка!!! Спасибо ВАм!!!!

  • @sanya8158
    @sanya8158 2 года назад +1

    Спасибо огромное за лекцию!!!

  • @СергейПоловинкин-ф1е

    Отличная лекция. Спасибо!!!

  • @ilyastepanenko5290
    @ilyastepanenko5290 5 лет назад

    Просто о сложном. очень понятно и наглядно объясняет

  • @xarbi.
    @xarbi. Год назад

    Вау, удивительно, что я увидел это видел после 6 лет после публикации. Да, графическая карта... Сейчас по-моему она у каждого есть дома)

  • @sashabudjer5760
    @sashabudjer5760 9 месяцев назад

    Интересная лекция, спасибо!

  • @ВолодимирФедюн
    @ВолодимирФедюн 4 года назад +1

    Очень ясное изложение! Классно.

  • @OlegKorsak
    @OlegKorsak 3 года назад +1

    что значит "нет графической карты "?? 👀

  • @igorg4129
    @igorg4129 4 года назад +4

    Все очень достойно, доступно и понятно. Но есть одна огромная оговорка которая применима не только этому лекатору а помоему ко всем кого я слушал по теме о нейронных сетях. (кроме одного кто сообразил что с этого и надо начинать... ссылка на праведника в конце поста).
    Они все грешат тем что начинают лекцию не с того. А начинать лекцию надо со следующего вступления:
    Коллеги, когда заходит речь о решении задач регрессионного типа, есть много способов подогнать под существующие данные(точки) некую кривую- полином, с тем чтобы потом с ее помощью прогнозировать.
    Вот на вскидку пара таких широкоизвестных способов:
    Kriging
    Lowess
    Spline
    Fourier series...
    Так вот, коллеги.
    Пресловутые нейронные сети, это всего то еще один способ подогнать кривую под существующие точки. У этого метода псть много плюсов, как и недостатков. И об этом мы поговорим сегодня.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 4 года назад +1

      Когда нейронная сеть долго играет с другой нейронной сетью в шахматы, обучается между делом, какие точки она подгоняет? В современных задачах идея аппроксимации начинает мешать. И регрессионные модели стали другими, например когда мы оцениваем вероятность того, что на фотографии нет кролика.

    • @igorg4129
      @igorg4129 4 года назад +2

      @@Vadim_Abbakumov
      Точки это обзервации- т.н наблюдения. Какой бы не была заумной нейронная сеть, играла бы она в шахматы или отличала кошечек от зайчиков, все построенно именно на идее апроксимации как вы верно отметили. Если вы зададитесь вопросом а что значит слово апроксимация, и вообще что к чему апроксимируется, вы поймете о каких точках -обзервациях-наблюдениях идет речь.
      Рекомендую ознакомиться
      towardsdatascience.com/why-a-neural-network-without-non-linearity-is-just-a-glorified-line-3d-visualization-aff85da10b6a
      www.quora.com/Is-Machine-Learning-just-glorified-curve-fitting
      news.ycombinator.com/item?id=11704789

    • @mejilot
      @mejilot 3 года назад

      Может стоит начать с того что такое задачи регрессионного типа..? Хотя может это на другом предмете проходят. Я просто совсем не шарю, а лекцию просто слушать приятно

    • @alexanderdimov7329
      @alexanderdimov7329 2 года назад

      @@Vadim_Abbakumov она аппроксимирует функцию беллмана фактически, например, (если политика жадная)..или функцию распределения оптимальной политики в данном состоянии, правда тут уже есть стохастический выбор состояния для обучения ..а вероятностные и стохастические модели это уже к машинам больцмана и прочее, хотя они тоже аппроксимируют ..просто функцию распределения..ну или те же gan..фактически стохастические генераторы..функцию распределения аппроксимируют "фактически"

    • @Mystery-x9m
      @Mystery-x9m 2 года назад

      Привет, ты хорошо разбираешься в нейросетях?

  • @MrRadiostep
    @MrRadiostep 3 года назад +1

    8:39 схема то как мастерски нарисована! Дизайнер от бога рисовал.

  • @zerotroll
    @zerotroll 7 лет назад +2

    Отлично! Спасибо большое!

  • @ЕвгенийВаршавский-ю4л

    Все предельно понятно. Спасибо!

  • @manechkaification
    @manechkaification 7 лет назад +11

    я правильно понимаю что часть 2 будет потихоньку выкладываться? Замечательный лектор, жаль не вживую слушаю!

    • @CompscicenterRu
      @CompscicenterRu  7 лет назад +7

      Да, всё верно. Курс как раз сейчас в процессе прочтения, поэтому выкладываем видео по мере проведения лекций.

    • @Mystery-x9m
      @Mystery-x9m 2 года назад

      Привет, ты хорошо разбираешься в нейросетях?

    • @Mystery-x9m
      @Mystery-x9m 2 года назад +1

      @@КонстантинИсаев-л6э ну может он за пять лет стал профи

  • @ancientmysteries3224
    @ancientmysteries3224 Год назад

    классные лекции, спасибо

  • @adeled8833
    @adeled8833 3 года назад

    А архивчик что не выложили?

  • @yii-art
    @yii-art 6 лет назад +1

    Ошибка на слайде 12:48 у пороговой функции. сравнивать надо с 0.5

  • @alexk6745
    @alexk6745 3 года назад

    41:50 А что сохраненые веса(константы) это не память?

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 года назад

      Так я именно об этом говорил

  • @Сергей-з2е4у
    @Сергей-з2е4у 4 года назад +5

    Я всего навсего слесарь КИП и А, и это мне что-то сильно напоминает. На старых крупных котельных и на ТЭЦ регулировку техпроцесса обеспечивают аналоговые регуляторы на операционных усилителях, обычно с тремя входными импульсами от датчиков и выходом на исполнительное устройство. Это что-же, мы слесаря кип ремонтировали микро нейросети, и обучали их, настраивая коэффициенты каждого импульса (у вас - задавая веса), чтобы регулятор правильно поддерживал необходимый технологический режим.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 4 года назад +1

      Во первых да, во вторых современные нейросети сами подстраиваются, а это свойство самообучения - шаг вперед

  • @romanstirskyi
    @romanstirskyi 3 года назад

    Подскажите пожалуйста где можно почитать про свободные члены? Зачем они нужны? Спасибо!

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 года назад

      Без них f(0,0,0,...0) =0. Но это бессмысленное ограничение.

    • @romanstirskyi
      @romanstirskyi 3 года назад

      @@Vadim_Abbakumov спасибо за ответ

  • @Achmd
    @Achmd 2 года назад

    1:23:00
    Ошибка в пороговой функции. График не соответствует условиям

  • @Syllogist
    @Syllogist 3 года назад

    А как насчёт того, чтобы снабдить ИИ способностью мыслить? (06-04. ОСНОВЫ ПРАВИЛЬНОЙ СИЛЛОГИСТИКИ (ГЛАВНАЯ ТАЙНА И СЕМЬ СЕКРЕТОВ РАСЧЁТА AEIO-СИЛЛОГИЗМОВ): ruclips.net/video/UL64zmluKJ8/видео.html) СлабО?

  • @victoriasemenenkoseo8143
    @victoriasemenenkoseo8143 3 года назад

    Уже знают. И все действительно только ввиде связей. Нужны связи они существуют, не практикует особь определенный навык или информацию, связи ослабляются или разрушаются, т.е. уходят в пассив. Но при этом часто связи не исчезают вообще даже если разрушены

  • @paveldz6921
    @paveldz6921 3 года назад +1

    Мне кажется можно придти к тому, что вообще от понятия нейронная сеть можно будет отказаться. Почему-то мне кажется, что нейтронная сеть просто реализует какой-то механизм (систему), с которым, на самом деле, можно работать иначе. Возможно у нашего мозга просто выбор был не очень большой, и он реализовал это так, но можно было и по-другому.

    • @alexanderdimov7329
      @alexanderdimov7329 2 года назад

      это просто параметрически заданный алгоритм...

  • @rawen389
    @rawen389 Год назад

    Потоки данных сформируют в нейросетевой модели ИИ понятия и индуктивные умозаключения, которые не будут иметь аналогов у человека. Затем последуют непредсказуемо необъяснимые действия. Но для этого нужно самообучение сети, пока же человек оценивает результаты и обучает сеть дальше продвижения не будет. Теорема Геделя в действии.

  • @mutniytip2000
    @mutniytip2000 6 лет назад

    отличная лекция

  • @mcdosnightmare5248
    @mcdosnightmare5248 3 года назад

    Буду писать вопросы по ходу лекции

  • @Steklopod
    @Steklopod 7 лет назад +1

    Лекция супер! Спасибо.

  • @AllSC2Replays
    @AllSC2Replays 7 лет назад

    25:02 . почему отсутствует связь у Х1 на схеме с одним слоем и больше?

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 7 лет назад +2

      У стандартной нейронной сети эта связь должна быть.
      У сети нестандартной архитектуры может и отсутствовать.
      На предыдущем слайде вопросительный знак в фразе
      "входы - от каждого (?) нейрона предыдущего слоя"
      указывает на такую возможность. Мне стоило обсудить
      это поподробнее...

  • @mrGrey2009
    @mrGrey2009 4 года назад

    Крутой препод!

  • @adeled8833
    @adeled8833 3 года назад

    14:38 пороговая : 1 if x>=0

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 года назад

      Действительно, ошибся. Спасибо за поправку.

  • @АлексейМеньшиков-э5ж

    как из 0,1 и -0,2 получилось 0,12?

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 года назад

      Это множители, а не слагаемые

  • @maxvolkov1984
    @maxvolkov1984 7 лет назад

    На "осень 2017" в описании немного подзавис... Всё-таки весна, наверное.

  • @user-virt
    @user-virt 7 лет назад +1

    Спасибо!

  • @micshu1
    @micshu1 3 года назад +1

    Нейросеть не что иное как модное название с красивыми картинками динамического программирования на суперпозициях функций. То есть получается это полиномиальная аппроксимация.

  • @МихаилКозлов-ц8я
    @МихаилКозлов-ц8я 3 года назад

    Здравствуйте. А постоянное ,,АЭ" это навсегда? Или алгоритмы не совместимы с материнкой?
    Если есть объяснение, укажите путь.
    Благодарю

  • @MrZlobec
    @MrZlobec 6 лет назад

    Keras для R есть.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 6 лет назад

      Совершенно верно, но интерфейс к Keras в R появился в сентябре 2017, а лекция читалась в феврале...

    • @jurbanhost
      @jurbanhost Год назад

      @@Vadim_Abbakumov а сейчас, ура, есть torch - и это не обертка над pyTorch

  • @ВасяСидоров-х5х
    @ВасяСидоров-х5х 5 лет назад +2

    зачем в русском переводе писать "биллионы", а не "миллиарды"?

  • @deniskoredisko371
    @deniskoredisko371 6 лет назад

    Что за хрень, как нет видяхи? Сейчас в браузере можно обучать, даже без CUDA, через WebGL (данные в текстуры, шейдер считает, результат пишется обратно в текстуру), такую оптимизацию поддерживает, например Керас.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 6 лет назад +2

      Интерфейс между R и Keras появился в сентябре 2017, лекция читалась в феврале...

  • @mishaalex1583
    @mishaalex1583 6 лет назад

    Отлично!

  • @viktorliutov7292
    @viktorliutov7292 2 года назад

    Спасибо большое автору, но манера подачи материала некудышная, такое впечатление, что это выступление на конференции перед специалистами в данной области, а не первая лекция. Например, формулировка задачи ни как не может звучать как: -"... классическая задача исключаещего или выглядит так...и картинка из которой ничего не понятно.. и много других подобных ситуаций которые превращают просмотр лекции просто во времяпрепровождение.

  • @Алг-ж3д
    @Алг-ж3д 3 года назад +1

    4:45 солаб привет
    п.с. я знаю, что его тогда не было

  • @АртемПодолько-ю2н
    @АртемПодолько-ю2н 2 года назад

    Досмотрел после 1.10 уже не понятно. А так все супер 😊

  • @АлександрПетровский-я7б

    Простейшая сеть для распознавания рукописных цифр в MATLAB учится на процессоре за несколько минут (максимум за несколько десятков минут).

  • @grigogiyreznichenko2033
    @grigogiyreznichenko2033 2 года назад

    59:54 2022 а мы до сих пор гадаем где у функции стоимости глобальный минимум))

  • @nefton001
    @nefton001 6 лет назад

    почему ошибка это квадрат разницы?

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 6 лет назад +1

      Небрежность речи. Ошибка это разность, сумма квадратов ошибок - критерий качества модели (Такой критерий качества - один из многих, и его популярность уменьшается )

  • @_Andrew_Parker_
    @_Andrew_Parker_ 4 года назад

    После этого видео окончательно понял, как реализовать нейросеть

    • @hostage2951
      @hostage2951 4 года назад +2

      Вся надежда только на тебя

  • @victoriasemenenkoseo8143
    @victoriasemenenkoseo8143 3 года назад +1

    В мозге чем глубже сеть, тем меньше ресурсов расходуется - классический природный рационализм. Во время лжи мозг расходует неимоверное количество ресурсов, что есть неадекватным с точки зрения природы

    • @lesgrossman834
      @lesgrossman834 3 года назад

      То есть мы не природного происхождения? Ты несёшь чушь. Ложь эволюционно оправдана со всех сторон. Ложь требует больше энергии не потому, что это плохо и противит природе, а потому, что это творческий процесс с моделированием ветвлений. Так же в процессе лжи усиливается контроль над физиологией ради убедительности. И ресурсы достижимые благодаря лжи в случае успеха с лихвой окупают все затраты.

  • @serg8483
    @serg8483 7 лет назад

    Спасибо

  • @JohnLee-bo9ft
    @JohnLee-bo9ft 2 года назад

    Можно и без математики, конечно будем все на пальчиках и кружочках объяснять

    • @Vadim_Abbakumov
      @Vadim_Abbakumov Год назад

      Добро пожаловать в 21 век. Работаем с функциями, которые удобнее задавать графом вычислений.

  • @illarionfido8751
    @illarionfido8751 7 лет назад +2

    27:00 все три книжки АМЕРЕКАНЦЫ написали? видос очень интересный, жаль что универсальный язык плохо знаю

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 7 лет назад +1

      1. Christopher M. Bishop и Brian D. Ripley англичане.
      2. Книга американца Семена Хайкина переведена на русский:
      Саймон Хайкин
      Нейронные сети: полный курс, 2-е издание.
      3. Без английского разбираться в анализе данных совсем тяжело.

    • @illarionfido8751
      @illarionfido8751 7 лет назад +1

      Вадим Аббакумов​​ ВЕЛИКОГО и УНИВЕРСАЛЬНОГО АНГЛИЙСКОГО ЯЗЫКА ОБЩИХ ЗНАНИЙ!

    • @robosergTV
      @robosergTV 7 лет назад

      без знаний англ. языка с нейронками можешь даже не начинать.

    • @Uni-Coder
      @Uni-Coder 4 года назад

      Бишоп и Рипли? Это же из "Чужих" :)

  • @сергейЛавров-у9э
    @сергейЛавров-у9э 5 месяцев назад

    42:37 - может вы и не разобрались, но даже семь лет назад всё это было уже известно 😉
    Профессор Савельев вам в помощь 😂

  • @mcdosnightmare5248
    @mcdosnightmare5248 3 года назад

    Со всем уважением буду писать возникающие вопросы по ходу лекции.
    Утверждение:
    1.- "Информации как таковой внутри нейросети нет, если не считать веса."
    Разве? Динамическая информация не информация и в нейросети не содержится?
    2.- "Мозг" думает не ячейками, "мозг" думает связями.
    Но это же не значит, что мы не можем использовать ячейки, правильно?
    Динамическая информация требует намного больше ресурсов для своего функционирования, и вряд ли эволюционный организм этот факт не заметил. Мне кажется ячейки "мозг" все-таки использует, но не для высшей нервной деятельности, а для низшей - для дыхания, потоотделения, сужения зрачков, для того что дается врожденными инстинктами, нет?

    • @Алг-ж3д
      @Алг-ж3д 3 года назад

      а что имеется ввиду под динамической инфой?

    • @mcdosnightmare5248
      @mcdosnightmare5248 3 года назад

      @@Алг-ж3д . 1=1 - не динамическая инфа, 1=3-2 - динамическая инфа.

  • @Oleksandr_data_science
    @Oleksandr_data_science 5 лет назад

    Никак не могу привыкнуть к тому, что x1

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 5 лет назад

      Вы правы, меняю в y 0 и 1 местами

    • @Mystery-x9m
      @Mystery-x9m 2 года назад

      Привет, ты хорошо разбираешься в нейросетях?

  • @Leo_3_in_1
    @Leo_3_in_1 3 года назад

    57:37 10 млн наблюдений...так кофточек столько нет)))
    Это же сколько работы по наработке базы...

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 года назад

      Кофточек нет. А фотографий девушек в кофточках сколько захочешь.
      А база может быть из искусственных фотографий. Когда фото переделывают, и девушку "переодевают" в другой наряд.

  • @flocken70
    @flocken70 3 года назад

    Неплохо, но имхо, Дмитрий Романов несколько более цельно и точно объясняет.

  • @MrKim-pt2vm
    @MrKim-pt2vm 7 лет назад

    думаю провалов не будет. серьезных не будет. а сми разведут панику

  • @ПетяИванов-н2л
    @ПетяИванов-н2л 3 года назад +1

    Биллионы - это миллиарды по-русски

  • @natalialantukh3088
    @natalialantukh3088 5 лет назад

    хорошие лекции. нужная практическая инфа. а что слова паразиты, так тут не занятия словесности. коллега коллегу поймёт, понятненько?

  • @nodirbek3272
    @nodirbek3272 Год назад +1

    Почему у российских лекторов так много пустой болтовни. Ведь эту лекцию можно легко по смыслу втиснуть в виде 5-10 минут.

    • @ScorpionZema
      @ScorpionZema Год назад

      У вас их вообще нет в Узбекистане

  • @TV-bh1wo
    @TV-bh1wo 4 года назад

    Компьютер который выигрывал у человека это не нейро сеть это программы на шахматных движках а нейросеть которая выиграла у этих движков альфа зеро называлась

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 4 года назад

      Да я вроде про го говорил... А за уточнение, что компьютер и программное обеспечение не одно и то же - особое спасибо.

  • @olgapolka168
    @olgapolka168 Год назад

    19:39 то есть

  • @VORONOKVA
    @VORONOKVA 2 года назад

    Что-то жутко подозрительное на 1 ч 7 мин. Хорошая нейронная сеть у человека не меняет активационную функцию так внезапно как нам тут велят.

  • @Математиканапять
    @Математиканапять 6 лет назад

    Игра в шахматы давно решена?? надеюсь, ему кто-нибудь расскажет о разнице шашек и шахмат..видимо, ему она неизвестна

    • @ZugDuk
      @ZugDuk 5 лет назад +1

      Что значит решить игру в шахматы? В шахматы играют, а не решают их.

  • @fredhandler9489
    @fredhandler9489 4 года назад +2

    Ничего непонятно, но очень интересно!
    "Приходилось ли вам читать научно-популярную или учебную книгу с чувством, что вы не совсем понимаете, что в ней написано? Если да, то, скорее всего, исходя из «презумпции невиновности автора», вы вините в этом себя: за свой недостаточно высокий уровень образования, узость кругозора, отсутствие необходимых способностей. Однако правильнее было бы исходить из «презумпции собственной невиновности», так как если вы внимательно вчитываетесь, но не понимаете адресованный вам (согласно книжной аннотации) текст, то виноваты в этом не вы, а автор. Ведь он взялся написать книгу для вас, а не для самого себя или узкого круга своих коллег. Однако для доходчивого и внятного изложения материала ему не хватило логической культуры .
    Что такое логическая культура? Это знание и соблюдение основных принципов и требований правильного построения и выражения мыслей как в устной, так и в письменной речи. Отсутствие такой культуры приводит к разнообразным логическим ошибкам, которые засоряют не только научное, но и повседневное мышление, мешают нам думать, общаться, понимать друг друга и самих себя. Неясность и неопределенность мышления, его непоследовательность и сумбурность, противоречивость и необоснованность является прямым результатом отсутствия должного уровня логической культуры.
    Мышление, соответствующее требованиям логики, подобно прозрачному ручью: сквозь воды которого виден каждый камушек и песчинка на дне. Мышление, построенное на нарушениях логических законов, подобно мутному потоку: в нем ничего не видно. Правда, некоторые говорят, что в мутной воде удобнее «ловить рыбу», то есть строить такие высказывания и создавать такие тексты - сложные и малопонятные для адресата, - в которых внешняя глубокомысленность и наукообразность маскируют внутреннюю непоследовательность и порой - бессодержательность. Вряд ли добросовестный человек может быть сторонником такой «рыбалки»".
    (Д.А.Гусев "Удивительная логика". М.:2010.,Стр.2)

    • @IvanIsVladimira
      @IvanIsVladimira 2 года назад

      Просто это для людей неплохо понимающих в математике. (я сам почти не понял ничего)

  • @slavas9200
    @slavas9200 4 года назад +5

    Спасибо, за содержание, но слушать непрятно такую речь. Тезисно набросайте на бумажке, и будет легче в два раза говорить.

  • @ventilyator
    @ventilyator 7 лет назад +17

    не очень лекция. очень много оговорок и недоговорок. понял что пытается втюхать лектор только потому, что уже читал про это

    • @textreanimator
      @textreanimator 8 месяцев назад +1

      Судя по названию вашего аккаунта, вы читаете идеальные лекции по вентиляторам.

  • @strapon8465
    @strapon8465 3 года назад +1

    Поднебесный после дурки сильно изменился.

  • @cratasthymos
    @cratasthymos 4 года назад

    Рассказал про "ГО" и даже не рассказывал про то что ИИ открыл" все теоремы геометрии

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 4 года назад

      Теоремы геометрии были передоказаны ИИ до 1970 года. IMHO c го была решена более сложная задача... Если Вы здесь добавите про геометрию, буду благодарен. Может я что-то важное пропустил.

  • @eugenechernyshenko4933
    @eugenechernyshenko4933 4 года назад +1

    "Если бы у нас был доступ" - colab.research.google.com

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 года назад +2

      Google's Colab появился через год после лекции. Да, было время, когда его не было...

  • @АлексейВасин-м2п
    @АлексейВасин-м2п 5 лет назад +1

    Плохая лекция, вместо внятного пояснения общие фразы типа про "очевидные вещи", информация вырванная из контекста, без внятных пояснений, непоследовательно и скомкано. Зря потратил 1.5 часа.

  • @MelvinStudios
    @MelvinStudios 7 лет назад +6

    Хорошая лекция, плохая дикция. Постоянно у него всё "что-то там какое-то", формула "какая-то", реакция "какая-то", гостодьбох "как-то", высвобождаются "какие-то" элементы, долгий подбор слов. 2:47 - nocomment. Слушать, в общем, тяжело. Видимо, у остальных есть терпение)

    • @ZugDuk
      @ZugDuk 5 лет назад

      @@ЕвгенийВаршавский-ю4л не сотвори себе кумира)

  • @---id2el
    @---id2el 3 года назад

    !!!

  • @Mary-xp9pe
    @Mary-xp9pe 3 года назад

    1.10

  • @СергейКузнецов-г4ф
    @СергейКузнецов-г4ф 2 года назад

    Нейронные сети и ещё чего ,,дипленник,,
    Реши проблему инсульта, ЧМТ,выбитые функции...
    А болтать сегодня можно...и кто кого переговорит...
    А по инсульту ко мне...

  • @ВладимирАнтонов-ы6э

    Вместо нейронных сетей
    russkaja-fizika.ru/sites/default/files/book/mozg._russkaya_teoriya.pdf

    • @igorshelby5950
      @igorshelby5950 3 года назад

      Уж извините, но со строчки про Высший Разум тут же перехотелось читать

  • @ВладимирХаваев-й1к

    Описать одним уравнением, что воспринимает человек, как не очень понятно очередное возвращение.

  • @markusstainberg
    @markusstainberg 7 лет назад +1

    Да когда Савелье говорит что программисты нихера не знают как работает мозг, так оно и есть, Хотя бы книжки почитали бы.

    • @inbuckswetrust7357
      @inbuckswetrust7357 6 лет назад +1

      Если бы Савельев еще что-то знал о программировании цены бы ему не было, а то ему какой-то Мойша напел про тупых программистов как и вам :)

    • @markusstainberg
      @markusstainberg 6 лет назад

      Inbucks Wetrust программист обычная инженерная профессия и как и в любом деле глупых там больше чем умных. А нейроны в мозге вообще ни разу не нейроны в компьютере.

    • @inbuckswetrust7357
      @inbuckswetrust7357 6 лет назад +3

      А причем тут какие-то среднестатистические программисты ? :) Савельев болтал о принципиальной невозможности типа "подражать" мозгу, ибо компьютеры де не той архитектуры. Дядя Савельев не в курсе, что вне зависимости от архитектуры компьютеры являются универсальными инструментами в плане вычислений... Да они могут быть более примитивны, не так шустры, без такого количества нейронов как головной мозг, с этим никто пока и не спорил :) но то что это все бесполезно и туфта(а я помню с каким пренебрежением Савельев говорил о нейросетях) Савельев брешет не разбираясь.
      Я смотрю вы тоже пошли по пути Савельева, с умным видом говорить банальщину.
      Кто и где и когда утверждал что модель нейрона в компьютере равна нейрону головного мозга ? :))) Модель она всегда модель, любая эмуляция чего угодно не отображает реального процесса происходящего в природе. Ну невозможно искусственно создать чисто физически часть мира имеющую понятие обо всем многообразии этого мира, в силу понятных ограничений. Но пока такие балтуны как Савельев пытаются тугодумить и понять что и как работает изнутри, компьютеры таки будут стоять на краю открытий в мире исследования как мозга так и других интересных вещей.
      Конечно можно долго надувать щеки и извиняюсь хуесосить другие научные дисциплины но это не красит ученого никак :) Мне как айтишнику смешно слушать бредни Савельева про бесполезность и беспомощность компьютеров в этом вопросе.
      Странно но мне хватает ума не учить Савельева мозговедению :)))
      И так же любому мало мальски грамотному человеку сегодня очевидно, что компьютер это по сути микроскоп и телескоп 20 века.... это инструмент в руках многих ученых из разных сфер знаний.

    • @markusstainberg
      @markusstainberg 6 лет назад

      Inbucks Wetrust проблема в том как преподаватель объясняет как работает нейрон. А эту всю статистическую халабуду называют нейронной сетью, ты же знаешь что это к реальности имеет отдаленное отношение. Так ты можешь сказать возьми и запили нормальный нейрон, и назови его тру нейрон, так в том то и дело что я знаю только отдаленноо как он работает и я предполагаю из-за этой подмены понятий немногие и заморачиваются . То что Савельев говорит о том что нейронные сети это примитив по сути так оно и есть, это же статистика. Кто спорит что задачи статистики ими решаются или задачи перебора, а решить теорему какую нибудь как сетью?

    • @markusstainberg
      @markusstainberg 6 лет назад

      Знаешь я сколько не смотрел лекций и в сколково все лекторы вещают эту дичь вот так выглядит нейрон, а вот наш нейрон и типа да он почти такой же, да вот ни разу не такой, 2 признака, тело, связь и всё называем нейрон бред же.

  • @Achmd
    @Achmd 3 года назад

    что такое "пиксЕли"?)) это на каком языке?
    ужасная лекция, лектор будто впервые этим занимается.
    "вот икс, вот даблвэ, вот сумма, вот такие аппроксимирующие функции" - что? куда? явно где-то что-то упущено. А упущено само объяснение нейронов. С таким же успехом можно было начать с обратного распространения ошибки, если уж порядок неважен.
    "на эр нейронки не пишут, лучше пайтон или си" .. в конце лекции: "давайте откроем эрстудио"
    предлагает литературу 15-летней давности..
    это я ещё молчу про косноязычие и "вот, вот, вот, вот, вот".
    Лучше уж посмотреть "3Blue1Brown" по сетям. Даже в английском варианте больше информативности. Ещё и с графикой. Или в переводе от Sciberia

  • @paulvlasov7087
    @paulvlasov7087 5 лет назад +1

    Что за ахинея ? В коре около 11 млрд нейронов, в целом, до 150 млрд. Каждый нейрон от 10 тыс до миллиона синапсов. Какие биллионый нейронов?

    • @vladimir_zenin
      @vladimir_zenin 4 года назад

      Калька с английского. Это значит миллиард. dictionary.cambridge.org/ru/словарь/английский/billion

    • @paulvlasov7087
      @paulvlasov7087 4 года назад

      Это ты доктору наук советуешь?:)

  • @RomeoEdik
    @RomeoEdik 5 лет назад

    разные модели нейронных сетей / переобученность сети / -- do you realy think, it is working the same like a human brein???
    то что вы демонстрируете, это аналог нервной системы обычных рефлексов, и вы эти рефлексы обучаете как ребенок учится ходить, в данной функции никогда не родится сознание. я нашел альтернативу, на много проще чем у вас, думает, видит сны, рассуждает, и на моём домашнем ПК, ненужен супер квантовый компьютер. если интересно пишите мне я расскажу в деталях

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 5 лет назад

      Я отчетливо говорю: искусственные нейронные сети работают иначе, чем человеческий мозг.

    • @ZugDuk
      @ZugDuk 5 лет назад +1

      очередной непризнанный гений))

    • @kolomasov
      @kolomasov 4 года назад

      Эдуард - молодец. Теперь дело за малым - возьми хотя бы MNIST - и распознай своими алгоритмами, какова будет точность на отложенной выборке? А потом попробуй ImageNet, какова будет точность на отложенной выборке там? Потом приходи сюда или на хабр, и пиши что получилось. Твои сны, мысли и рассуждения на ПК - оставь себе, пока ты не предоставил измеримые понятные результаты - они нафиг никому кроме тебя не нужны.

  • @BrainOfBoltzmann
    @BrainOfBoltzmann 7 лет назад

    ПАСЕБА

  • @ladysoverschenstvo7875
    @ladysoverschenstvo7875 3 года назад

    Ээ,ээ,ээ,ээ,ээ так режит слух.

  • @rustam.u.valiev
    @rustam.u.valiev 7 лет назад +17

    Лекция ужасная. Ритмика речи лектора отвратительная. С точки зрения подачи материала -100% (минус сто). Лектор "запарывает" материал. Скачет с 5го на 10е. Никакой системы. Важные моменты проскакивает никак не акцентируя и не разъясняя. У новичка от такой "лекции" будет только сумбур и каша в голове.

    • @АлексейК-х9з
      @АлексейК-х9з 7 лет назад +4

      Если вы не понимаете, не значит, что лектор виноват. Если новичок - учи базу, почитай что-нибудь.

    • @markusstainberg
      @markusstainberg 7 лет назад

      Что более толковое на твой взгляд есть посмотреть?

    • @NatalyaMakarova.sociologist
      @NatalyaMakarova.sociologist 6 лет назад

      Учебник по информатике для 9-го класса.

    • @Япохожнакота
      @Япохожнакота 6 лет назад

      Систематизировать информаци и подавать материал сжато и лаконично очень не просто.

    • @mutniytip2000
      @mutniytip2000 6 лет назад

      ну такое, я вот новичок и всем доволен

  • @a.o.yaroslavov
    @a.o.yaroslavov 7 лет назад +6

    По количеству паразитных слов делаю вывод что лектор не в теме и ближе к шаману, а не к ученому.

    • @kerselkerosin
      @kerselkerosin 6 лет назад

      В этом есть правда, ибо прозвучало что нет теоремы решающей вопрос об оптимальной структуре скрытого слоя. Теоремы-то может и нет, но задача вполне решаема и без бубна методами комбинаторики и т.п. Лектор просто не заморочился задуматься, заморочившись лишь гуглением.

    • @OPKECTPAHT
      @OPKECTPAHT 6 лет назад +2

      Это не учёный, это учитель. Не путайте. Одному дано преподавать, другому двигать науку. И не надо ставить знак равенства между вузами и НИИ. Они смежники, но заняты разными делами. Дело преподавателя (учителя) готовить кадры. Наука для вузов вторична. Для научных и научно-исследовательских заведений наоборот, учёба вторична (не везде сейчас аспирантуры есть), а наука первична. Что характерно для большинства наука прикладная, а то и вовсе задачей ставится её внедрение, а не фундаментальные исследования. И это правильно. Каждый должен заниматься своим делом. Автор явный преподаватель, это хорошо, но он не обязан быть крутым учёным.

    • @ZugDuk
      @ZugDuk 5 лет назад

      @@OPKECTPAHT совмещать надо исследования, коммерческие заказы и преподавание. Иначе будет отрыв от реальности (вот как в этой лекции например учит тому, что давно не применяется).

  • @АртурСафиулин-т5в
    @АртурСафиулин-т5в 5 лет назад

    Не надо цыкать, это противно. Извените

  • @uporka6924
    @uporka6924 Год назад

    Нервные сети

  • @Dolphinqwe
    @Dolphinqwe 5 лет назад

    Спасибо

  • @anjukdakar989
    @anjukdakar989 3 года назад

    Спасибо