Вычислительные методы в разработке искусственного интеллекта - Иван Оселедец

Поделиться
HTML-код
  • Опубликовано: 16 ноя 2024

Комментарии • 48

  • @vdmstylewp
    @vdmstylewp 6 лет назад +13

    потрясающая скорость (плотность) подачи информации. побольше бы таких видео с такими умными людьми, время то как ни крути - самый ценный ресурс

  • @anatoliiv9098
    @anatoliiv9098 6 лет назад +36

    Спасибо за видео! Делайте, пожалуйста, больше темных фонов для спикеров. Для глаз приятнее смотреть на более темные цвета

  • @Qwaster0
    @Qwaster0 6 лет назад +7

    одно из лучших видео, в нём ставятся задачи!

  • @НаільЖелюков
    @НаільЖелюков 6 лет назад +5

    Красиво и доступно. Спасибо.

  • @keks1521
    @keks1521 6 лет назад +12

    Оставляйте темный фон. Он шикарный

    • @ivanivanich3848
      @ivanivanich3848 6 лет назад

      Life12 да, действительно, даже как-то успокаивает

  • @nRADRUS
    @nRADRUS 6 лет назад +14

    лектор всё так чётко рассказал, что я сомневаюсь что он человек. наверняка он ИИ !

    • @nRADRUS
      @nRADRUS 6 лет назад

      и "книгу перемен" я не догнал

    • @ivannechvoloda3961
      @ivannechvoloda3961 6 лет назад

      Бла бла... Поговорить негде??? Тест тьюринга автору на видео никогда не дано понять!

  • @MrSevenZZZ
    @MrSevenZZZ 6 лет назад +10

    "Доверить нельзя, потому что непонятно как нейронные сети принимают решения" - вот вся суть ролика)

    • @nRADRUS
      @nRADRUS 6 лет назад +1

      доверять никому нельзя. ... "мне -- можно" (с) Мюллер, 9 серия

    • @ivannechvoloda3961
      @ivannechvoloda3961 6 лет назад

      Конкретики мало. Сплошное блабла...

  • @svLimones
    @svLimones 6 лет назад +6

    Есть еще кибернетическое определение ИИ и синергетическое.
    Нейронные сети и обучение - это просто апроксимирующий алгоритм нелинейных уравнений. Он неэффективный, так как математики пока очень плохо их решают. ИИ - это модель поведения живых организмов, а не модель самих организмов.
    А в синергетики ИИ - это искусственный организм который эволюционировал до самосознания(хотя бы до нейросети дождевого червя). Управлять им нельзя, но такие модели дадут базовые законы нашего мира и эффектной быстрой эволюции систем.
    Тест Тьюринга уже неактуален

    • @artemzaytsev1106
      @artemzaytsev1106 6 лет назад +3

      Неактуален для чего/кого? И был ли он когда-либо актуален? Мне всегда казалось (с моей дилетантской точки зрения), что тест Тьюринга - это что-то на уровне философской софистики. Собственно его идея была опубликована в философском (на секундочку) журнале. Ключевой подвох этого теста в термине «разум», который не имеет чёткого определения (ибо вроде как досконально не изучен) и так же, между прочим, является философской категорией. PS: Я с вами не спорю, а именно спрашиваю, интересно, что вы имели в виду своей последней фразой.

    • @svLimones
      @svLimones 6 лет назад +1

      Я как раз об этом и говорю, что возникла уже путаница, и нужно искать формальное определение. А Тьюринг не был философом. Собственно это он и основоположник теории искусственно интеллекта и информатики. Часто пишут, что когда обучили нейросеть для разговора, и она прошла тест Тьюринга, то это и есть "настоящий" ИИ. А у кибернетики даже не стоит такой цели - в создании ИИ.
      Тут по идеи философы и должны искать определение ИИ, если у меня верные представления об работе философов).

    • @LukeVilent
      @LukeVilent 6 лет назад +1

      У вас неправильное представление о работе философов. Работа философов заключается в том, чтобы бегать вокруг, махать руками, бросаться терминами и мешать работать.

    • @AzazeoAinamart
      @AzazeoAinamart 6 лет назад

      Самосознание? Что такое сознание?

    • @DrawingTimeLapse
      @DrawingTimeLapse 6 лет назад

      а что если сознание не рождается в результате работы мозга, а является отдельной сущностью?

  • @azazelloazazello1379
    @azazelloazazello1379 5 лет назад

    Вот, этот прекрасный человек пришел и разрушил светлый образ будущего для наших сограждан-гуманитариев. Прав Греф! Долой математику!!!!! Истинно говорю: сие лженаука)))))))

  • @hackzem
    @hackzem 6 лет назад

    Отличный фон! Возможно ли, что ученые больше концентрируются в темноте, не отвлекаясь на окружающие предметы ?

  • @МихаилНекрасов-ю5ы
    @МихаилНекрасов-ю5ы 6 лет назад +1

    "Дай бог"

  • @grokhi_
    @grokhi_ 6 лет назад +2

    Не понял смысл последнего пассажа про теорию Вапника - Червоненкиса. Перечитал несколько и раз этот абзац в текстовой версии, смутила фраза: "Есть классическая теория Она должна очень хорошо работать на обучающей выборке и очень плохо на тестовой. Но этого не происходит, и никакой адекватной теории до сих пор нет."
    Может кто-нибудь пояснить смысл этого абзаца?

    • @kirillkuchma6735
      @kirillkuchma6735 6 лет назад +2

      Основной проблемой статистической теории является завышенность оценок. Непосредственный расчёт показывает, что для надёжного обучения необходимо иметь порядка 10^6-10^8 объектов. Это существенно превышает объёмы выборок, с которыми обычно приходится сталкиваться на практике. Тем не менее, прикладные задачи решаются, и вполне успешно. Наиболее интересные случаи - малых выборок и сложных семейств алгоритмов - находятся за границами применимости теории. По сути дела, теория дает лишь качественное обоснование некоторых принципов построения обучаемых алгоритмов, которые фактически так и остаются эвристическими принципами.

  • @q346587
    @q346587 6 лет назад +1

    Подозреваю что в отношении естественных нейросетей сказанное тоже верно. Сколько ошибок люди совершают действуя по интуиции? И тоже проблем мыс недостаточная выборка обучения(опыт), не та выборка(опыт старый не полностью применима условиях например другой страны). И цена ошибок- от смерти на дороге до объявления войны(в которую не стоило бы ввязываться)

  • @atravin-x2r
    @atravin-x2r 6 лет назад

    Насколько я понимаю, из выводов докладчика, имеет смысл также разрабатывать алгоритмы того, КАК нейросети и ИИ должны учиться. Пока что все данные для обучения надо загружать вручную, значит, ИИ в песпективе должен овладеть алгоритмом самостоятельного обучения. Иначе, при всем своем потенциале, ИИ так и останется на порядок ниже в плане саморазвития в сравнении не только с человеком, но с любым живым существом с относительно развитой нервной системой.

    • @svLimones
      @svLimones 6 лет назад +1

      На данный момент, эти алгоритмы выбираются методом научного тыка. Алгоритмы самообучения есть, но это не имеет отношение к самоорганизации, просто алгоритм классификации. Иногда берут очень упрощенные модели нейросетей мозга, например зрительную кору. Есть еще эволюционные алгоритмы, которые в упрощено форме эмитируют селекцию. Они работают частично, но это не эволюционные системы.
      Нейросети крайне далеки от моделей реального мозга. И даже если построить точную модель мозга, она мало что даст.
      Одна из Истин - это эмерджентное свойство. Она есть суть АИ, эволюции, да и вселенной. Этакое божественное свойство, суть творчества. Без этого свойства невозможно придумать что-то совершенное новое. Когда в "сложной системе" появляется уникальное новое свойство, которого нет в ее частях и добавляя новую размерность. Его и нужно изучать. Уже известны минимальные критерии эволюции, умеем рассчитывать устойчивость и неустойчивость систем, рассчитывать энтропию. Осталось найти оптимальный критерий эволюции, самоорганизации и найти базовые законы(доказано что они должны быть очень простыми).

  • @garikspiridonov3869
    @garikspiridonov3869 6 лет назад +1

    "Если ИИ будет ставить диагноз и будет ошибаться", странно а что случаев когда врач ставит диагноз и ошибается не существует? Да сколько угодно. Тысячи, десятки тысяч. Врач, на какой нибудь анализ забудет глянуть, а диагноз с будуна поставит и результат будет совсем противоположный. А если у ИИ не будет одного анализа, он ставить диагноз не будет, он просто напишет ЧТО НЕ ХВАТАЕТ ОДНОГО АНАЛИЗА. Как раз ИИ, я бы доверял больше, чем врачу в пятницу или в понедельник.

  • @Stret173
    @Stret173 6 лет назад +1

    брутально

  • @goosko
    @goosko 6 лет назад

    Сразу вспомнилось
    Прикол в том, что черт его знает, что там у этой нейронки в голове (с)кто-то

  • @nyt543
    @nyt543 6 лет назад

    круто ваще!!!!!

  • @hd-studio
    @hd-studio 6 лет назад +3

    Как то все прослушал и ничего не вынес из ролика.

    • @nikolas516
      @nikolas516 6 лет назад +4

      Значит, ты либо ничего не понял, либо всё это уже знаешь.

  • @RoKoFoRu
    @RoKoFoRu 6 лет назад +1

    Наконец-то некоторые наигрались, но пока не все. Хорошо что, хотя бы, доктора наук не водят языческие хороводы с криками "ИИ", как все кому ни лень. Крутой, новый, классный, но все-лишь инструмент, алгоритм. Форма должна быть адекватна содержанию, что не скажешь про "ИИ" - термин чисто маркетинговый. Ещё бы назвали "Источник истины"))) В кризисные времена культуры ведь так легко подменяются любые понятия.
    Синергетика - это замечательно, давно пора. Но у любого решения есть его зона эффективного применения - это как три базовых элемента в параве.
    Это вы еще мягко говорите, что ЭТО "пробел", "проблема". Методологически неверно вообще предполагать "ехать вперед, смотря назад". Вся методология науки построена на получение истинного знания (насколько это возможно) - знания "впереди", предвосхищающее будущее - для использования как основу для принятия [управленческого] решения. А машинное машинное обучение - обычный статистический подход - либо для подготовки информации для дальнейшего исследования (т.н. "оптимизация"), либо для решения репродуктивных (стандартных) задач. Нейронные сети - чисто формальный подход. Нельзя формальными приемами решать проблемы содержания. Как вы и говорите - математика без физики, без реальной природы (материальной или духовной) - лишь марание бумаги. Ни о каком творчестве (научном или художественном) тут и речи идти не может.
    И хватит спикулирвоать на душах верующих терминами "узконапарвленный ИИ", еще какой-то ИИ. Тогда уж давайте любой объект материальной культуры ИИ называть.
    Последний момент, уже с профессиональной (кинооператосркой) точки зрения замечу. Увидел комментарии, что на при темном фоне "комфортнее глазу", что "успокаивает". Согласен. Но есть большое "НО" и очень важное! Это вопрос уже художественный. Так вот, чтобы эстетикой не выражать ложную этику, на мой скромный взгляд, НЕ стоит снимать на черном фоне. Тематика видео исключительно научная, а темный фон, рембрантовское освещение создает ощущение мистерии, эдакой мифологичности, таинственности, магичности происходящего - теряется главное - образ науки, объективности, истинности. Не считаю правильным делать из ученых гипертрофированый образ несущих свет среди мрака космоса - рацио это сфера ясности, прозрачности, объяснимости, ясного видения. Формально в идеале - невыраженное светло-серое сильно рассеянное освещение - "яркий пасмур". Это во-первых, не тьма, а во-вторых - не яркий лучистый напарвленный жесткий свет - это, если хотите, диалектическое единство этих двух противоречивых начал - хороший вриант выражения научности. Вторая причина: думать - это труд и не надо нарочно расслаблять тело, когда собираешься серьезно поразмышлять. Некоторый дискомфорт - это даже необходимый стимул для острого внимания и гибкого рассудка. Не даром, к слову, в христианских церквях не стоят скамейки для прихожан (только для особо нуждающихся по состоянию здоровья). Пусть даже немного раздражает))

  • @ИНФОРМАЦИЯДЛЯУСПЕШНЫХ

    Spsb za infy

  • @rinat_free
    @rinat_free 6 лет назад

    Прекращайте разработку, я не хочу терминатора в реальной жизни!

    • @LukeVilent
      @LukeVilent 6 лет назад

      Хотите добывать огонь трением? Хотя нет! Огонь - это тоже опасно!

    • @rinat_free
      @rinat_free 6 лет назад

      вы знакомы с понятием техническая сингулярность? Вы понимаете, что человечество может само себя уничтожить? Я не против развития технологий, но изобретение искусственного интеллекта может стать последним изобретением человечества. Именно поэтому многие выдающиеся ученые были категорически против разработок в это сфере. Прежде чем разбрасываться необоснованными претензиями вникните в суть проблемы.

    • @LukeVilent
      @LukeVilent 6 лет назад

      Друг мой, я-то как раз в суть проблемы посвящён. Не техническая сингулярность, а технологическая. Мы можем уничтожить друг друга и без искусственного интеллекта. Когда вы говорите "многие выдающиеся учёные" - это демагогический приём, воззвание к неназванному авторитету. Я - разработчик алгоритмов искусственного интеллекта и вынужден со всей ответственностью заявить, что терминаторов мы ещё долго не увидим. А жаль.

    • @rinat_free
      @rinat_free 6 лет назад

      Я могу назвать конкретных людей, но что это изменит, если вы уже имеете свою жесткую позицию? Я лишь высказал свое мнение и я имею на это полное право.

    • @LukeVilent
      @LukeVilent 6 лет назад +2

      Может изменить - ведь дискуссию читают и другие, не определившиеся. Слово за слово, глядишь, вы покажете свои реальные знания проблемы, весомые аргументы. Вы можете переубедить если не меня, то тех, кто будет читать комментарии. Ведь смогли же противники генной инженерии вселить ужас в сотни миллионов хомячков - и у вас может получиться.

  • @zubrilka9726
    @zubrilka9726 6 лет назад

    Вообще не информативное видео. Не ответил ни на один актуальный вопрос. Диз выступающему

  • @YaShoom
    @YaShoom 6 лет назад

    То что является искусственым интеллектом в русском языке определили русские люди, а то что определили на западе на западе и остаётся.

    • @LukeVilent
      @LukeVilent 6 лет назад

      Вы, наверное, и статьи на западных языках не читаете?

    • @YaShoom
      @YaShoom 6 лет назад

      А какое это имеет отношение к определениям принятым в разных языках?

    • @LukeVilent
      @LukeVilent 6 лет назад

      А какое отношение определения в разных языках имеют к математическим алгоритмам?