Есть еще кибернетическое определение ИИ и синергетическое. Нейронные сети и обучение - это просто апроксимирующий алгоритм нелинейных уравнений. Он неэффективный, так как математики пока очень плохо их решают. ИИ - это модель поведения живых организмов, а не модель самих организмов. А в синергетики ИИ - это искусственный организм который эволюционировал до самосознания(хотя бы до нейросети дождевого червя). Управлять им нельзя, но такие модели дадут базовые законы нашего мира и эффектной быстрой эволюции систем. Тест Тьюринга уже неактуален
Неактуален для чего/кого? И был ли он когда-либо актуален? Мне всегда казалось (с моей дилетантской точки зрения), что тест Тьюринга - это что-то на уровне философской софистики. Собственно его идея была опубликована в философском (на секундочку) журнале. Ключевой подвох этого теста в термине «разум», который не имеет чёткого определения (ибо вроде как досконально не изучен) и так же, между прочим, является философской категорией. PS: Я с вами не спорю, а именно спрашиваю, интересно, что вы имели в виду своей последней фразой.
Я как раз об этом и говорю, что возникла уже путаница, и нужно искать формальное определение. А Тьюринг не был философом. Собственно это он и основоположник теории искусственно интеллекта и информатики. Часто пишут, что когда обучили нейросеть для разговора, и она прошла тест Тьюринга, то это и есть "настоящий" ИИ. А у кибернетики даже не стоит такой цели - в создании ИИ. Тут по идеи философы и должны искать определение ИИ, если у меня верные представления об работе философов).
У вас неправильное представление о работе философов. Работа философов заключается в том, чтобы бегать вокруг, махать руками, бросаться терминами и мешать работать.
Вот, этот прекрасный человек пришел и разрушил светлый образ будущего для наших сограждан-гуманитариев. Прав Греф! Долой математику!!!!! Истинно говорю: сие лженаука)))))))
Не понял смысл последнего пассажа про теорию Вапника - Червоненкиса. Перечитал несколько и раз этот абзац в текстовой версии, смутила фраза: "Есть классическая теория Она должна очень хорошо работать на обучающей выборке и очень плохо на тестовой. Но этого не происходит, и никакой адекватной теории до сих пор нет." Может кто-нибудь пояснить смысл этого абзаца?
Основной проблемой статистической теории является завышенность оценок. Непосредственный расчёт показывает, что для надёжного обучения необходимо иметь порядка 10^6-10^8 объектов. Это существенно превышает объёмы выборок, с которыми обычно приходится сталкиваться на практике. Тем не менее, прикладные задачи решаются, и вполне успешно. Наиболее интересные случаи - малых выборок и сложных семейств алгоритмов - находятся за границами применимости теории. По сути дела, теория дает лишь качественное обоснование некоторых принципов построения обучаемых алгоритмов, которые фактически так и остаются эвристическими принципами.
Подозреваю что в отношении естественных нейросетей сказанное тоже верно. Сколько ошибок люди совершают действуя по интуиции? И тоже проблем мыс недостаточная выборка обучения(опыт), не та выборка(опыт старый не полностью применима условиях например другой страны). И цена ошибок- от смерти на дороге до объявления войны(в которую не стоило бы ввязываться)
Насколько я понимаю, из выводов докладчика, имеет смысл также разрабатывать алгоритмы того, КАК нейросети и ИИ должны учиться. Пока что все данные для обучения надо загружать вручную, значит, ИИ в песпективе должен овладеть алгоритмом самостоятельного обучения. Иначе, при всем своем потенциале, ИИ так и останется на порядок ниже в плане саморазвития в сравнении не только с человеком, но с любым живым существом с относительно развитой нервной системой.
На данный момент, эти алгоритмы выбираются методом научного тыка. Алгоритмы самообучения есть, но это не имеет отношение к самоорганизации, просто алгоритм классификации. Иногда берут очень упрощенные модели нейросетей мозга, например зрительную кору. Есть еще эволюционные алгоритмы, которые в упрощено форме эмитируют селекцию. Они работают частично, но это не эволюционные системы. Нейросети крайне далеки от моделей реального мозга. И даже если построить точную модель мозга, она мало что даст. Одна из Истин - это эмерджентное свойство. Она есть суть АИ, эволюции, да и вселенной. Этакое божественное свойство, суть творчества. Без этого свойства невозможно придумать что-то совершенное новое. Когда в "сложной системе" появляется уникальное новое свойство, которого нет в ее частях и добавляя новую размерность. Его и нужно изучать. Уже известны минимальные критерии эволюции, умеем рассчитывать устойчивость и неустойчивость систем, рассчитывать энтропию. Осталось найти оптимальный критерий эволюции, самоорганизации и найти базовые законы(доказано что они должны быть очень простыми).
"Если ИИ будет ставить диагноз и будет ошибаться", странно а что случаев когда врач ставит диагноз и ошибается не существует? Да сколько угодно. Тысячи, десятки тысяч. Врач, на какой нибудь анализ забудет глянуть, а диагноз с будуна поставит и результат будет совсем противоположный. А если у ИИ не будет одного анализа, он ставить диагноз не будет, он просто напишет ЧТО НЕ ХВАТАЕТ ОДНОГО АНАЛИЗА. Как раз ИИ, я бы доверял больше, чем врачу в пятницу или в понедельник.
Наконец-то некоторые наигрались, но пока не все. Хорошо что, хотя бы, доктора наук не водят языческие хороводы с криками "ИИ", как все кому ни лень. Крутой, новый, классный, но все-лишь инструмент, алгоритм. Форма должна быть адекватна содержанию, что не скажешь про "ИИ" - термин чисто маркетинговый. Ещё бы назвали "Источник истины"))) В кризисные времена культуры ведь так легко подменяются любые понятия. Синергетика - это замечательно, давно пора. Но у любого решения есть его зона эффективного применения - это как три базовых элемента в параве. Это вы еще мягко говорите, что ЭТО "пробел", "проблема". Методологически неверно вообще предполагать "ехать вперед, смотря назад". Вся методология науки построена на получение истинного знания (насколько это возможно) - знания "впереди", предвосхищающее будущее - для использования как основу для принятия [управленческого] решения. А машинное машинное обучение - обычный статистический подход - либо для подготовки информации для дальнейшего исследования (т.н. "оптимизация"), либо для решения репродуктивных (стандартных) задач. Нейронные сети - чисто формальный подход. Нельзя формальными приемами решать проблемы содержания. Как вы и говорите - математика без физики, без реальной природы (материальной или духовной) - лишь марание бумаги. Ни о каком творчестве (научном или художественном) тут и речи идти не может. И хватит спикулирвоать на душах верующих терминами "узконапарвленный ИИ", еще какой-то ИИ. Тогда уж давайте любой объект материальной культуры ИИ называть. Последний момент, уже с профессиональной (кинооператосркой) точки зрения замечу. Увидел комментарии, что на при темном фоне "комфортнее глазу", что "успокаивает". Согласен. Но есть большое "НО" и очень важное! Это вопрос уже художественный. Так вот, чтобы эстетикой не выражать ложную этику, на мой скромный взгляд, НЕ стоит снимать на черном фоне. Тематика видео исключительно научная, а темный фон, рембрантовское освещение создает ощущение мистерии, эдакой мифологичности, таинственности, магичности происходящего - теряется главное - образ науки, объективности, истинности. Не считаю правильным делать из ученых гипертрофированый образ несущих свет среди мрака космоса - рацио это сфера ясности, прозрачности, объяснимости, ясного видения. Формально в идеале - невыраженное светло-серое сильно рассеянное освещение - "яркий пасмур". Это во-первых, не тьма, а во-вторых - не яркий лучистый напарвленный жесткий свет - это, если хотите, диалектическое единство этих двух противоречивых начал - хороший вриант выражения научности. Вторая причина: думать - это труд и не надо нарочно расслаблять тело, когда собираешься серьезно поразмышлять. Некоторый дискомфорт - это даже необходимый стимул для острого внимания и гибкого рассудка. Не даром, к слову, в христианских церквях не стоят скамейки для прихожан (только для особо нуждающихся по состоянию здоровья). Пусть даже немного раздражает))
вы знакомы с понятием техническая сингулярность? Вы понимаете, что человечество может само себя уничтожить? Я не против развития технологий, но изобретение искусственного интеллекта может стать последним изобретением человечества. Именно поэтому многие выдающиеся ученые были категорически против разработок в это сфере. Прежде чем разбрасываться необоснованными претензиями вникните в суть проблемы.
Друг мой, я-то как раз в суть проблемы посвящён. Не техническая сингулярность, а технологическая. Мы можем уничтожить друг друга и без искусственного интеллекта. Когда вы говорите "многие выдающиеся учёные" - это демагогический приём, воззвание к неназванному авторитету. Я - разработчик алгоритмов искусственного интеллекта и вынужден со всей ответственностью заявить, что терминаторов мы ещё долго не увидим. А жаль.
Я могу назвать конкретных людей, но что это изменит, если вы уже имеете свою жесткую позицию? Я лишь высказал свое мнение и я имею на это полное право.
Может изменить - ведь дискуссию читают и другие, не определившиеся. Слово за слово, глядишь, вы покажете свои реальные знания проблемы, весомые аргументы. Вы можете переубедить если не меня, то тех, кто будет читать комментарии. Ведь смогли же противники генной инженерии вселить ужас в сотни миллионов хомячков - и у вас может получиться.
потрясающая скорость (плотность) подачи информации. побольше бы таких видео с такими умными людьми, время то как ни крути - самый ценный ресурс
Спасибо за видео! Делайте, пожалуйста, больше темных фонов для спикеров. Для глаз приятнее смотреть на более темные цвета
+
Было бы на что смотреть
одно из лучших видео, в нём ставятся задачи!
Красиво и доступно. Спасибо.
Оставляйте темный фон. Он шикарный
Life12 да, действительно, даже как-то успокаивает
лектор всё так чётко рассказал, что я сомневаюсь что он человек. наверняка он ИИ !
и "книгу перемен" я не догнал
Бла бла... Поговорить негде??? Тест тьюринга автору на видео никогда не дано понять!
"Доверить нельзя, потому что непонятно как нейронные сети принимают решения" - вот вся суть ролика)
доверять никому нельзя. ... "мне -- можно" (с) Мюллер, 9 серия
Конкретики мало. Сплошное блабла...
Есть еще кибернетическое определение ИИ и синергетическое.
Нейронные сети и обучение - это просто апроксимирующий алгоритм нелинейных уравнений. Он неэффективный, так как математики пока очень плохо их решают. ИИ - это модель поведения живых организмов, а не модель самих организмов.
А в синергетики ИИ - это искусственный организм который эволюционировал до самосознания(хотя бы до нейросети дождевого червя). Управлять им нельзя, но такие модели дадут базовые законы нашего мира и эффектной быстрой эволюции систем.
Тест Тьюринга уже неактуален
Неактуален для чего/кого? И был ли он когда-либо актуален? Мне всегда казалось (с моей дилетантской точки зрения), что тест Тьюринга - это что-то на уровне философской софистики. Собственно его идея была опубликована в философском (на секундочку) журнале. Ключевой подвох этого теста в термине «разум», который не имеет чёткого определения (ибо вроде как досконально не изучен) и так же, между прочим, является философской категорией. PS: Я с вами не спорю, а именно спрашиваю, интересно, что вы имели в виду своей последней фразой.
Я как раз об этом и говорю, что возникла уже путаница, и нужно искать формальное определение. А Тьюринг не был философом. Собственно это он и основоположник теории искусственно интеллекта и информатики. Часто пишут, что когда обучили нейросеть для разговора, и она прошла тест Тьюринга, то это и есть "настоящий" ИИ. А у кибернетики даже не стоит такой цели - в создании ИИ.
Тут по идеи философы и должны искать определение ИИ, если у меня верные представления об работе философов).
У вас неправильное представление о работе философов. Работа философов заключается в том, чтобы бегать вокруг, махать руками, бросаться терминами и мешать работать.
Самосознание? Что такое сознание?
а что если сознание не рождается в результате работы мозга, а является отдельной сущностью?
Вот, этот прекрасный человек пришел и разрушил светлый образ будущего для наших сограждан-гуманитариев. Прав Греф! Долой математику!!!!! Истинно говорю: сие лженаука)))))))
Отличный фон! Возможно ли, что ученые больше концентрируются в темноте, не отвлекаясь на окружающие предметы ?
"Дай бог"
Не понял смысл последнего пассажа про теорию Вапника - Червоненкиса. Перечитал несколько и раз этот абзац в текстовой версии, смутила фраза: "Есть классическая теория Она должна очень хорошо работать на обучающей выборке и очень плохо на тестовой. Но этого не происходит, и никакой адекватной теории до сих пор нет."
Может кто-нибудь пояснить смысл этого абзаца?
Основной проблемой статистической теории является завышенность оценок. Непосредственный расчёт показывает, что для надёжного обучения необходимо иметь порядка 10^6-10^8 объектов. Это существенно превышает объёмы выборок, с которыми обычно приходится сталкиваться на практике. Тем не менее, прикладные задачи решаются, и вполне успешно. Наиболее интересные случаи - малых выборок и сложных семейств алгоритмов - находятся за границами применимости теории. По сути дела, теория дает лишь качественное обоснование некоторых принципов построения обучаемых алгоритмов, которые фактически так и остаются эвристическими принципами.
Подозреваю что в отношении естественных нейросетей сказанное тоже верно. Сколько ошибок люди совершают действуя по интуиции? И тоже проблем мыс недостаточная выборка обучения(опыт), не та выборка(опыт старый не полностью применима условиях например другой страны). И цена ошибок- от смерти на дороге до объявления войны(в которую не стоило бы ввязываться)
Насколько я понимаю, из выводов докладчика, имеет смысл также разрабатывать алгоритмы того, КАК нейросети и ИИ должны учиться. Пока что все данные для обучения надо загружать вручную, значит, ИИ в песпективе должен овладеть алгоритмом самостоятельного обучения. Иначе, при всем своем потенциале, ИИ так и останется на порядок ниже в плане саморазвития в сравнении не только с человеком, но с любым живым существом с относительно развитой нервной системой.
На данный момент, эти алгоритмы выбираются методом научного тыка. Алгоритмы самообучения есть, но это не имеет отношение к самоорганизации, просто алгоритм классификации. Иногда берут очень упрощенные модели нейросетей мозга, например зрительную кору. Есть еще эволюционные алгоритмы, которые в упрощено форме эмитируют селекцию. Они работают частично, но это не эволюционные системы.
Нейросети крайне далеки от моделей реального мозга. И даже если построить точную модель мозга, она мало что даст.
Одна из Истин - это эмерджентное свойство. Она есть суть АИ, эволюции, да и вселенной. Этакое божественное свойство, суть творчества. Без этого свойства невозможно придумать что-то совершенное новое. Когда в "сложной системе" появляется уникальное новое свойство, которого нет в ее частях и добавляя новую размерность. Его и нужно изучать. Уже известны минимальные критерии эволюции, умеем рассчитывать устойчивость и неустойчивость систем, рассчитывать энтропию. Осталось найти оптимальный критерий эволюции, самоорганизации и найти базовые законы(доказано что они должны быть очень простыми).
"Если ИИ будет ставить диагноз и будет ошибаться", странно а что случаев когда врач ставит диагноз и ошибается не существует? Да сколько угодно. Тысячи, десятки тысяч. Врач, на какой нибудь анализ забудет глянуть, а диагноз с будуна поставит и результат будет совсем противоположный. А если у ИИ не будет одного анализа, он ставить диагноз не будет, он просто напишет ЧТО НЕ ХВАТАЕТ ОДНОГО АНАЛИЗА. Как раз ИИ, я бы доверял больше, чем врачу в пятницу или в понедельник.
брутально
Сразу вспомнилось
Прикол в том, что черт его знает, что там у этой нейронки в голове (с)кто-то
круто ваще!!!!!
Как то все прослушал и ничего не вынес из ролика.
Значит, ты либо ничего не понял, либо всё это уже знаешь.
Наконец-то некоторые наигрались, но пока не все. Хорошо что, хотя бы, доктора наук не водят языческие хороводы с криками "ИИ", как все кому ни лень. Крутой, новый, классный, но все-лишь инструмент, алгоритм. Форма должна быть адекватна содержанию, что не скажешь про "ИИ" - термин чисто маркетинговый. Ещё бы назвали "Источник истины"))) В кризисные времена культуры ведь так легко подменяются любые понятия.
Синергетика - это замечательно, давно пора. Но у любого решения есть его зона эффективного применения - это как три базовых элемента в параве.
Это вы еще мягко говорите, что ЭТО "пробел", "проблема". Методологически неверно вообще предполагать "ехать вперед, смотря назад". Вся методология науки построена на получение истинного знания (насколько это возможно) - знания "впереди", предвосхищающее будущее - для использования как основу для принятия [управленческого] решения. А машинное машинное обучение - обычный статистический подход - либо для подготовки информации для дальнейшего исследования (т.н. "оптимизация"), либо для решения репродуктивных (стандартных) задач. Нейронные сети - чисто формальный подход. Нельзя формальными приемами решать проблемы содержания. Как вы и говорите - математика без физики, без реальной природы (материальной или духовной) - лишь марание бумаги. Ни о каком творчестве (научном или художественном) тут и речи идти не может.
И хватит спикулирвоать на душах верующих терминами "узконапарвленный ИИ", еще какой-то ИИ. Тогда уж давайте любой объект материальной культуры ИИ называть.
Последний момент, уже с профессиональной (кинооператосркой) точки зрения замечу. Увидел комментарии, что на при темном фоне "комфортнее глазу", что "успокаивает". Согласен. Но есть большое "НО" и очень важное! Это вопрос уже художественный. Так вот, чтобы эстетикой не выражать ложную этику, на мой скромный взгляд, НЕ стоит снимать на черном фоне. Тематика видео исключительно научная, а темный фон, рембрантовское освещение создает ощущение мистерии, эдакой мифологичности, таинственности, магичности происходящего - теряется главное - образ науки, объективности, истинности. Не считаю правильным делать из ученых гипертрофированый образ несущих свет среди мрака космоса - рацио это сфера ясности, прозрачности, объяснимости, ясного видения. Формально в идеале - невыраженное светло-серое сильно рассеянное освещение - "яркий пасмур". Это во-первых, не тьма, а во-вторых - не яркий лучистый напарвленный жесткий свет - это, если хотите, диалектическое единство этих двух противоречивых начал - хороший вриант выражения научности. Вторая причина: думать - это труд и не надо нарочно расслаблять тело, когда собираешься серьезно поразмышлять. Некоторый дискомфорт - это даже необходимый стимул для острого внимания и гибкого рассудка. Не даром, к слову, в христианских церквях не стоят скамейки для прихожан (только для особо нуждающихся по состоянию здоровья). Пусть даже немного раздражает))
Spsb za infy
Прекращайте разработку, я не хочу терминатора в реальной жизни!
Хотите добывать огонь трением? Хотя нет! Огонь - это тоже опасно!
вы знакомы с понятием техническая сингулярность? Вы понимаете, что человечество может само себя уничтожить? Я не против развития технологий, но изобретение искусственного интеллекта может стать последним изобретением человечества. Именно поэтому многие выдающиеся ученые были категорически против разработок в это сфере. Прежде чем разбрасываться необоснованными претензиями вникните в суть проблемы.
Друг мой, я-то как раз в суть проблемы посвящён. Не техническая сингулярность, а технологическая. Мы можем уничтожить друг друга и без искусственного интеллекта. Когда вы говорите "многие выдающиеся учёные" - это демагогический приём, воззвание к неназванному авторитету. Я - разработчик алгоритмов искусственного интеллекта и вынужден со всей ответственностью заявить, что терминаторов мы ещё долго не увидим. А жаль.
Я могу назвать конкретных людей, но что это изменит, если вы уже имеете свою жесткую позицию? Я лишь высказал свое мнение и я имею на это полное право.
Может изменить - ведь дискуссию читают и другие, не определившиеся. Слово за слово, глядишь, вы покажете свои реальные знания проблемы, весомые аргументы. Вы можете переубедить если не меня, то тех, кто будет читать комментарии. Ведь смогли же противники генной инженерии вселить ужас в сотни миллионов хомячков - и у вас может получиться.
Вообще не информативное видео. Не ответил ни на один актуальный вопрос. Диз выступающему
То что является искусственым интеллектом в русском языке определили русские люди, а то что определили на западе на западе и остаётся.
Вы, наверное, и статьи на западных языках не читаете?
А какое это имеет отношение к определениям принятым в разных языках?
А какое отношение определения в разных языках имеют к математическим алгоритмам?