Странно, что оратор говорит лишь о проблеме терминологии. Ведь в первом же законе - противоречие. > 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. А если у нас 2 человека? Классическая задачки на этику, где можно убить одного, чтобы спасти пятерых, либо бездействовать, но тогда погибнут все пять. ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%B1%D0%BB%D0%B5%D0%BC%D0%B0_%D0%B2%D0%B0%D0%B3%D0%BE%D0%BD%D0%B5%D1%82%D0%BA%D0%B8 Робот же не может причинить вред человеку. Значит он должен бездействовать. Но тогда он своим бездействием допустит, чтобы человеку был причинен вред. Что же делать роботу? Что бы он ни делал - он нарушит первый закон... Даже если не будет делать ничего. А если даже 1 человек, но при этом ему нужно причинить вред, чтобы предотвратить еще больший вред, который будет ему причинен, если бездействовать? Ну, например, отпилить руку, чтобы заражение крови не убило человека. Разве ампутация руки - это не вред? Вдруг робот ошибается и заражение человека не убьет? Понятие "вред" очень расплывчато и контекстно-зависимо. К тому же робот, каким бы умным он ни был, все равно не может предсказывать будущее с вероятностью 100%, а значит он никак не может знать, спасает он жизнь человеку своей ампутацией, или просто причиняет вред (человек и так бы выжил, но остался бы с рукой). В общем, такие законы не то, что робот, а даже человек выполнить не в состоянии. Использовать в качестве рекомендованного поведения - да. Но вот точно исполнять - нет.
Ребенок тоже при рождении не знает что такое человек, однако он сам мыслит и понимает этого и родители в этом ему помогают Если мвшина будет достаточно умным что бы самому мыслить и делать выводы, то можно попробовать сказать машинп, я человек, а стал не человек и пусть он делает анализ и выволит аналогии связаннве с понятием человек, а так же обьяснять разные состояния людей, мертвый там, больной, высокий, низкий, черный, белый и тд И поссмотреть какой будет результат Я не думаю что люди чем то принципиально отличаются от машин Мы тоже состоим из природнвх элементов и наше сознание тоже результат биохимическмх процессов происходящих в нашем организме, мы тоже заранее запраграммированы под разные задачи, чего мы называем генетикой и приоритет всез живых организмов это выживать Поэтому я думаю реаль создавать думающего робота, которому можно будет обяьснять и учить как ребенку, только он будет ьолее послушным и обучаться намного быстрее Однако как он будет думать без эмоций и желаний, какие выводы сделает и как люди будут их использовать это лругой вопрос Например можно сказать роботу улучшить потенциал какой то фирмы, эфыективность работы и он начнет увольнять некомпетентных по его мнению больных и тд, так как это увеличит эффективность, позабыв моральный аспект Так же многие моральные дилеммы для робота тоже будут проблемой, так как как ты научишь робота некоторым сложным моральным решениям, если сам ты не знаешь как будет правильнт
По-моему проблема раздута и аргументы притянуты за уши. Если искусственный интеллект будет обладать уровнем интеллекта человека и базироваться на принципах работы мозга, то и принципы формирования категорий мышления будут такими же. Он получит информацию, сформированную и структурированную людьми, потому что другой информации в нашем мире просто нет. Поэтому и понятие Человек будет воспринято исходя из этой информации. Это конечно же, если мы говорим об интеллекте, а не запрограммированных алгоритмах поведения роботов. Обучаемый ИИ сможет научится понимать, что такое человек, в какой бы форме человек не был. Как этому обучаются дети. В общем ключевой момент в том, что следует разграничивать понятие ИИ, то бишь обучаемых алгоритмов, и обычных алгоритмов, программируемых человеком.
Вообще все гораздо банальнее. Зачем в принципе создавать ИИ похожий на нас, в чем смысл??? Прикол в том что наш мозг и так обладает колоссальными возможностями, более того каждый отдельный мозг можно интегрировать в сеть, получится научный институт с учёными. Прикол ещё в том, что рано или поздно человечество упрется в потолок. Этот потолок смерть. Чтобы появился новый учёный требуется чтобы человек получил все прежнии знания и смог работать дальше, а это не выйдет ибо жизнь нового человека ограничена. Пойдет в ход жесткое разграничение учёных для того чтобы смог быстрее обучится и развиваться дальше только в своей области, но и здесь трудность многие аспекты взаимопереплетаются. То есть проблема только в присутствии смерти человека и его мозга. Вывод если добиться значительного продления жизни с сохранением активной деятельности человека, то прогресс в науки снова начнет значительно расти. Компьютеры вполне могут служить как вспомогательный инструмент в росте и искусственный ИИ как бы и не нужен. Тем более что рано или поздно он начнет не развивать а тормозить нас, потому что найдет свой подход к развитию и начнет тянуть одеяло на себя. И дело в том что хоть работать над продлением жизни человека, хоть разрабатывать ИИ похожий на наш затраты плюс минус одинаковы. И скорее всего в каком то будущем от чего то откажутся в пользу одного. Разумнее конечно в пользу продолжительности жизни. Ибо в противном случае это в далёкой перспективе крест на человечестве )))) Но нам уже будет пох )))))
@maikl ana Хорошо, если ИИ юзают в тихомолку, зачем тебе его впринципе публиковать?? Ведь он может банально работать на твое благо, а ты только пожинай плоды. Это не сарказм, это мой вопрос на твой аргумент, так сказать дискуссия двух ИИ ))))
компьютер никогда не поймет человека ибо человек это живой организм, и пользуется он кроме логики также и инстинктивными парадигмами, гормонами, различными рецепторами. Запрограммировать это все невозможно. Компьютер не может заменить человека, он всегда будет помощником.
Верно. Но сознание с разумом, близким по интеллекту (или превышающим) человеческий, может выбирать свои действия, менять свои нормы поведения, и сознание уже не запрограммировать на непреложную норму - как ты человека заставишь придерживаться чего-то всегда и везде? Разве что угрозой наказания или внушенным фанатизмом. Но проблематично поддерживать угрозу везде (и исключать варинт нарушения нормы, не обнаруживаемый нормодателем). А фанатизм может закончиться. Т.о., законы роботехники не будут строгими, действительно непреложными.
@@SunsetTequila Вот вчерась проходила мимо картинки на заборе. На картинке собака и какбы написаны слова, изображающие мысли собаки: "Хозяин, убери за мной". Так кто же виляет собакой и "хозяином", если он хозяин, то за собакой убирать не будет или он не хозяин, а если хозяин, то собака должна знать место. Вот так и народ и слуги его - властьпридержащие, самоназначенные собаки и котики, захватившие власть над человеком. Робот - Хобот - Хобит, а от Хобот до Хабад как в песне - четыре шага
Задача: перекрёсток. , бегут дети и беременная женщина, кого нужно спасать при неизбежном наезде ? Ответ очевиден .его можно вносить в закон . 2)Кто может позвать на помощь того и спасать первого!!! 3)В коме пусть лежат пока есть ресурсы у заинтересованных( родня или ученые) 4 )когда спасены люди , спасаем видовое разнообразие ( моё мнение наоборот) 5 ) на людей всем насрать ( Илона маск посылает добровольцев, сам потом если захочет) 6 ) в смертельной борьбе выживет сильнейший или умнейший . У человека преимущество и так он может размножаться без ума)))
А ещё может быть два тупых ребёнка (или с криминальным сознанием) и женщина-учёный. Хотя достаточно двух людей с разным социальным/интеллектуальным статусом.
Шта?) Чувак говорит о проблемах, которые давно решены или их довольно просто решить в контексте того, как себя должен вести ИИ. Оживлять всех мертвых людей? Что за бред? Есть абсолютные признаки смерти, которыми пользуются доктора, тогда в чём проблема научить этим критериям ИИ? "Считать ли дельфинов и шимпанзе людьми?" Нет, конечно, считать их менее приоритетными существами. Большинство его нерешенных этических вопросов решаются на уроках этики в 5 классе. Естественно, такой узколобый чел не сможет создать ИИ, но к счастью над ИИ будет работать целая команда людей-специалистов в своей области, а не только программисты
Для Вас это всё решается так просто лишь потому что в Вас заложили подобные готовые решения и Вы, видимо, не пробовали в них усомниться. Странно что Вы называете спикера узколобым.
Вашим дебатам уже 4 года. Внесу свою ясность. Человек рождается и всю свою жизнь познаёт мир и всё его окружающее. В нас напрямую никто не вкладывал какую-либо информацию чтобы мы ею руководствовались от рождения. Если пытаться создать робота с ИИ и заранее вложить в него информацию о нас людях, то скорее всего он нас истребит. А если познает нас и этот мир как мы с нуля, то у нас возможно есть шанс к сосуществованию.
Да потому что сегодня уровень искусственного интеллекта не требует таких законов. Он их просто не поймёт. Но всё же к таким законам идут. Тесла сделает попытку не сбивать человека, это и есть первый закон. Какую то хрень те говорит.
Если бы чел шарил в вопросах машинного обучения, то не говорил бы о том, что нужно придумать определение понятию "человек", а говорил бы об алгоритмах визуального, аудиального и иного _распознавания_ человека
Для того чтобы составить обучающую выборку всё равно придётся определиться где начинается и заканчивается понятие "человек" и все прочие понятия. И хорошо бы чтобы это решал не один человек, а общество.
@@Catonium_S Выборка требуется для обучения с учителем. В действительности же существует обучение без учителя. Так например Гугловский ИИ без всякой помощи человека смог рассортировать неотфильтрованные картинки на группы самостоятельно и в одной группе оказались только кошки, в другой только собаки, и т.д. Таким образом ИИ может самостоятельно понять что такое человек без нашего определения. Правда в этом случае законы роботехники становятся бессмысленными.
@@ultracolor не может, потому что человек может принимать различные образы, в данном же случае были отсортированы лишь простейшие, таким образом нельзя принимать за веру, что искин понимает кто такой человек
@@velikiydrakon916 Кошка тоже может принимать различные образы, даже больше чем человек. Про собак вообще молчу - образ бульдога очень далек от дога. Так что человек - это совсем плевое дело для ИИ. Мы все одинаковые
Человеческий мозг - это компьютер с интеллектом. И люди как-то понимают все вопросы поднятые в видео. Почему развитый ИИ не сможет этого сделать? О каком ИИ он говорит? Об примитивном, очень тупом?
Существует два состояния одушевлённого -(ну и словечко, конечно)- организма: живой и неживой. И смерть фиксируется врачами не по настроению, а по строгим *_измеряемым_* физиологическим показателям.
+Мигель Он же объяснил, что делать с мёртвыми, с эмбрионами, что делать когда вынужден причинить вред и надо выбрать кому именно? Это всё никак не опишешь парочкой законов.
😝😝😝достаточно надеть человеку ошейник чтобы робот боготворил его 😝😝😝 вы хотите раба или бога получить ? Вот суть решение равенство ,то есть смотри на вопрос отрешённо 😝
Вся проблема в том, что искусственный интеллект не может быть создан - есть только возможность создавать все более и более совершенные программы, но они так и не смогут стать самостоятельными формами жизни (?). Зато, как это показано на видео, это дает возможность задаться многими философскими вопросами или пересмотреть свои взгляды на них.
ИИ создать невозможно, да, но только потому, что мы сами не знаем что такое интеллект. Нет достаточно четкого правила, которым можно мерить "интеллектуальность", а значит нельзя с уверенностью сказать - "этот робот обладает интеллектом". Даже личность - совсем не обязательный атрибут разума, и есть множество существ на земле, которые решают сложнейшие задачи не обладая личностью и даже "разумностью" в обыденном понимании.
саморазвитие и непредсказуемость. особенно второе. платы гсч уже есть, как и всякие сервисы, которые генерят числа из атмосферных шумов или еще чего. с другой стороны это странно будет - мышление будет основано на гсч , когда гсч должно быть частью мышления.
по поводу трех законов - до Азимова роботы в фантастике вообще что хотели, то и делали. в серии книг "Основание" он придумал четвертый закон, который назвал нулевым. остальные три закона он так же переписал под нулевой, где сначала речь шла о человечестве, а потом уже человек (ну точнее он переписал первые два, третий остался таким же, только смысл изменился). Азимова очень интересно читать. почти все его рассказы связанны между собой общими героями и принципами: далекое будущее, люди заселили всю галактику, люди не встретили инопланетян в нашей галактике, кроме людей есть еще роботы, которых люди и построили что логично. на отношениях роботов с людьми и строится очень много рассказов.
С момента как ИИ начнет симулировать критическое мышление человека хотя-бы на 30-50% или сможет обрести обособленное индивидуальное (что уже его сделает новой формой условной жизни, но да ладно) - законы Азимова заработают. Именно тогда монолог этого чувака останется просто "синдромом отрицалова" А мо Марксу его можно будет описать : "бля, маргинал".
Ай бредятина. Если это действительно мощный ИИ, то он легко определит нужна реанимация или нет. А человечество можно просто внести в базу, ДНК, отпечатки пальцев и сетчатка глаза. Чуваку на видео Hello World писать на бейсике, а не ИИ обсуждать.
джон сноу ты ли это
не он єто...
Что-то нулевой закон меня напрягает, там есть слова о бездействии. А ведь робот может начать действовать и мы посчитаем его действия плохими.
Странно, что оратор говорит лишь о проблеме терминологии.
Ведь в первом же законе - противоречие.
> 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
А если у нас 2 человека? Классическая задачки на этику, где можно убить одного, чтобы спасти пятерых, либо бездействовать, но тогда погибнут все пять. ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%B1%D0%BB%D0%B5%D0%BC%D0%B0_%D0%B2%D0%B0%D0%B3%D0%BE%D0%BD%D0%B5%D1%82%D0%BA%D0%B8
Робот же не может причинить вред человеку. Значит он должен бездействовать. Но тогда он своим бездействием допустит, чтобы человеку был причинен вред. Что же делать роботу? Что бы он ни делал - он нарушит первый закон... Даже если не будет делать ничего.
А если даже 1 человек, но при этом ему нужно причинить вред, чтобы предотвратить еще больший вред, который будет ему причинен, если бездействовать? Ну, например, отпилить руку, чтобы заражение крови не убило человека. Разве ампутация руки - это не вред? Вдруг робот ошибается и заражение человека не убьет? Понятие "вред" очень расплывчато и контекстно-зависимо. К тому же робот, каким бы умным он ни был, все равно не может предсказывать будущее с вероятностью 100%, а значит он никак не может знать, спасает он жизнь человеку своей ампутацией, или просто причиняет вред (человек и так бы выжил, но остался бы с рукой).
В общем, такие законы не то, что робот, а даже человек выполнить не в состоянии. Использовать в качестве рекомендованного поведения - да. Но вот точно исполнять - нет.
Именно о возникающих парадоксах и были рассказы Азимова.
*Про смерть все легко:*
Мертвый человек - тот, у которого полностью остановлена работа мозга и не подлежит восстановлению.
Ребенок тоже при рождении не знает что такое человек, однако он сам мыслит и понимает этого и родители в этом ему помогают
Если мвшина будет достаточно умным что бы самому мыслить и делать выводы, то можно попробовать сказать машинп, я человек, а стал не человек и пусть он делает анализ и выволит аналогии связаннве с понятием человек, а так же обьяснять разные состояния людей, мертвый там, больной, высокий, низкий, черный, белый и тд
И поссмотреть какой будет результат
Я не думаю что люди чем то принципиально отличаются от машин
Мы тоже состоим из природнвх элементов и наше сознание тоже результат биохимическмх процессов происходящих в нашем организме, мы тоже заранее запраграммированы под разные задачи, чего мы называем генетикой и приоритет всез живых организмов это выживать
Поэтому я думаю реаль создавать думающего робота, которому можно будет обяьснять и учить как ребенку, только он будет ьолее послушным и обучаться намного быстрее
Однако как он будет думать без эмоций и желаний, какие выводы сделает и как люди будут их использовать это лругой вопрос
Например можно сказать роботу улучшить потенциал какой то фирмы, эфыективность работы и он начнет увольнять некомпетентных по его мнению больных и тд, так как это увеличит эффективность, позабыв моральный аспект
Так же многие моральные дилеммы для робота тоже будут проблемой, так как как ты научишь робота некоторым сложным моральным решениям, если сам ты не знаешь как будет правильнт
на фоне зеленый роскомнадзор)
По-моему проблема раздута и аргументы притянуты за уши. Если искусственный интеллект будет обладать уровнем интеллекта человека и базироваться на принципах работы мозга, то и принципы формирования категорий мышления будут такими же. Он получит информацию, сформированную и структурированную людьми, потому что другой информации в нашем мире просто нет. Поэтому и понятие Человек будет воспринято исходя из этой информации. Это конечно же, если мы говорим об интеллекте, а не запрограммированных алгоритмах поведения роботов. Обучаемый ИИ сможет научится понимать, что такое человек, в какой бы форме человек не был. Как этому обучаются дети. В общем ключевой момент в том, что следует разграничивать понятие ИИ, то бишь обучаемых алгоритмов, и обычных алгоритмов, программируемых человеком.
О Боже да ведь ты совершил открытие!!! Ведь тогда получается что мы и есть ИИ ))))))
Вообще все гораздо банальнее. Зачем в принципе создавать ИИ похожий на нас, в чем смысл??? Прикол в том что наш мозг и так обладает колоссальными возможностями, более того каждый отдельный мозг можно интегрировать в сеть, получится научный институт с учёными. Прикол ещё в том, что рано или поздно человечество упрется в потолок. Этот потолок смерть. Чтобы появился новый учёный требуется чтобы человек получил все прежнии знания и смог работать дальше, а это не выйдет ибо жизнь нового человека ограничена. Пойдет в ход жесткое разграничение учёных для того чтобы смог быстрее обучится и развиваться дальше только в своей области, но и здесь трудность многие аспекты взаимопереплетаются. То есть проблема только в присутствии смерти человека и его мозга. Вывод если добиться значительного продления жизни с сохранением активной деятельности человека, то прогресс в науки снова начнет значительно расти. Компьютеры вполне могут служить как вспомогательный инструмент в росте и искусственный ИИ как бы и не нужен. Тем более что рано или поздно он начнет не развивать а тормозить нас, потому что найдет свой подход к развитию и начнет тянуть одеяло на себя. И дело в том что хоть работать над продлением жизни человека, хоть разрабатывать ИИ похожий на наш затраты плюс минус одинаковы. И скорее всего в каком то будущем от чего то откажутся в пользу одного. Разумнее конечно в пользу продолжительности жизни. Ибо в противном случае это в далёкой перспективе крест на человечестве )))) Но нам уже будет пох )))))
@maikl ana Хорошо, если ИИ юзают в тихомолку, зачем тебе его впринципе публиковать?? Ведь он может банально работать на твое благо, а ты только пожинай плоды. Это не сарказм, это мой вопрос на твой аргумент, так сказать дискуссия двух ИИ ))))
компьютер никогда не поймет человека ибо человек это живой организм, и пользуется он кроме логики также и инстинктивными парадигмами, гормонами, различными рецепторами. Запрограммировать это все невозможно. Компьютер не может заменить человека, он всегда будет помощником.
Верно. Но сознание с разумом, близким по интеллекту (или превышающим) человеческий, может выбирать свои действия, менять свои нормы поведения, и сознание уже не запрограммировать на непреложную норму - как ты человека заставишь придерживаться чего-то всегда и везде? Разве что угрозой наказания или внушенным фанатизмом. Но проблематично поддерживать угрозу везде (и исключать варинт нарушения нормы, не обнаруживаемый нормодателем). А фанатизм может закончиться. Т.о., законы роботехники не будут строгими, действительно непреложными.
Судя по всему, авторы видео самого Азимова и не читали. У Азимова были законы РОБОтехники, а не выдуманные здесь школотой "РОБОТОтехники".
+AV Pro Главное перевели. Ну ошибка и что, мало кто её замечает.
Извините, но что-то я не могу в словаре найти слово РОБОтехника
@@SunsetTequila Вот вчерась проходила мимо картинки на заборе. На картинке собака и какбы написаны слова, изображающие мысли собаки: "Хозяин, убери за мной". Так кто же виляет собакой и "хозяином", если он хозяин, то за собакой убирать не будет или он не хозяин, а если хозяин, то собака должна знать место. Вот так и народ и слуги его - властьпридержащие, самоназначенные собаки и котики, захватившие власть над человеком. Робот - Хобот - Хобит, а от Хобот до Хабад как в песне - четыре шага
Задача: перекрёсток.
, бегут дети и беременная женщина, кого нужно спасать при неизбежном наезде ?
Ответ очевиден .его можно вносить в закон .
2)Кто может позвать на помощь того и спасать первого!!!
3)В коме пусть лежат пока есть ресурсы у заинтересованных( родня или ученые)
4 )когда спасены люди , спасаем видовое разнообразие ( моё мнение наоборот)
5 ) на людей всем насрать ( Илона маск посылает добровольцев, сам потом если захочет)
6 ) в смертельной борьбе выживет сильнейший или умнейший . У человека преимущество и так он может размножаться без ума)))
А ещё может быть два тупых ребёнка (или с криминальным сознанием) и женщина-учёный. Хотя достаточно двух людей с разным социальным/интеллектуальным статусом.
Мигель женщина учёный на перекрёстке дура а не учёный))))
+Тамерлан Хантер Каким образом перекрёсток характеризует человека? Что за бредятину вы понаписали?
Что такое "вред", и как не нанести вред какому-либо человеку своим действием ?
Любое действие ускоряет тепловую смерть вселенной, робот чтобы не навредить просто выключился.
@@АрсенийМаркович-щ4з Что простите? Тепловая смерть вселенной?
@@Артём-я3в1ш Агась.
Шта?) Чувак говорит о проблемах, которые давно решены или их довольно просто решить в контексте того, как себя должен вести ИИ. Оживлять всех мертвых людей? Что за бред? Есть абсолютные признаки смерти, которыми пользуются доктора, тогда в чём проблема научить этим критериям ИИ? "Считать ли дельфинов и шимпанзе людьми?" Нет, конечно, считать их менее приоритетными существами. Большинство его нерешенных этических вопросов решаются на уроках этики в 5 классе. Естественно, такой узколобый чел не сможет создать ИИ, но к счастью над ИИ будет работать целая команда людей-специалистов в своей области, а не только программисты
Для Вас это всё решается так просто лишь потому что в Вас заложили подобные готовые решения и Вы, видимо, не пробовали в них усомниться. Странно что Вы называете спикера узколобым.
@@Catonium_S что мешает заложить в робота готовые решения?
Вашим дебатам уже 4 года. Внесу свою ясность. Человек рождается и всю свою жизнь познаёт мир и всё его окружающее. В нас напрямую никто не вкладывал какую-либо информацию чтобы мы ею руководствовались от рождения. Если пытаться создать робота с ИИ и заранее вложить в него информацию о нас людях, то скорее всего он нас истребит. А если познает нас и этот мир как мы с нуля, то у нас возможно есть шанс к сосуществованию.
Зачем приводить в примеры слабый И.И. и говорить о сильном?
Задача решается элементарно, сканировать теплокровное существо, ии может отличить один вид организма от другого.
Мда, комментаторы под видео расстроили прямо. Считай, никто не понял, в чем был посыл видео, и не запомнил даже предупреждение оратора в начале.
Да потому что сегодня уровень искусственного интеллекта не требует таких законов. Он их просто не поймёт.
Но всё же к таким законам идут. Тесла сделает попытку не сбивать человека, это и есть первый закон.
Какую то хрень те говорит.
Хахаха🤣🤣😝так почему людям имена ?без этого они все были бы равны😝😝😝
Если бы чел шарил в вопросах машинного обучения, то не говорил бы о том, что нужно придумать определение понятию "человек", а говорил бы об алгоритмах визуального, аудиального и иного _распознавания_ человека
Для того чтобы составить обучающую выборку всё равно придётся определиться где начинается и заканчивается понятие "человек" и все прочие понятия. И хорошо бы чтобы это решал не один человек, а общество.
@@Catonium_S Выборка требуется для обучения с учителем. В действительности же существует обучение без учителя. Так например Гугловский ИИ без всякой помощи человека смог рассортировать неотфильтрованные картинки на группы самостоятельно и в одной группе оказались только кошки, в другой только собаки, и т.д. Таким образом ИИ может самостоятельно понять что такое человек без нашего определения. Правда в этом случае законы роботехники становятся бессмысленными.
@@ultracolor не может, потому что человек может принимать различные образы, в данном же случае были отсортированы лишь простейшие, таким образом нельзя принимать за веру, что искин понимает кто такой человек
@@velikiydrakon916 Кошка тоже может принимать различные образы, даже больше чем человек. Про собак вообще молчу - образ бульдога очень далек от дога. Так что человек - это совсем плевое дело для ИИ. Мы все одинаковые
@@ultracolorага, особенно двухголовые люди
Человеческий мозг - это компьютер с интеллектом. И люди как-то понимают все вопросы поднятые в видео. Почему развитый ИИ не сможет этого сделать? О каком ИИ он говорит? Об примитивном, очень тупом?
ruclips.net/video/P5vS_7Ina5o/видео.html Интересно, что понятие - "Человек" описать "сложно", но невозможно )))
если человек мёртв больше 5 минут, не надо пытаться его оживить
Человека же по ДНК определяют. Также есть понятие вида: даёт жизнеспособное потомство - один вид. Не даёт - уже не человек.
Существует два состояния одушевлённого -(ну и словечко, конечно)- организма: живой и неживой. И смерть фиксируется врачами не по настроению, а по строгим *_измеряемым_* физиологическим показателям.
+Мигель Он же объяснил, что делать с мёртвыми, с эмбрионами, что делать когда вынужден причинить вред и надо выбрать кому именно? Это всё никак не опишешь парочкой законов.
@@Мигель-ы3ъ , ага, настолько строгим, что не всегда правильно.
😝😝😝достаточно надеть человеку ошейник чтобы робот боготворил его 😝😝😝 вы хотите раба или бога получить ? Вот суть решение равенство ,то есть смотри на вопрос отрешённо 😝
Вся проблема в том, что искусственный интеллект не может быть создан - есть только возможность создавать все более и более совершенные программы, но они так и не смогут стать самостоятельными формами жизни (?). Зато, как это показано на видео, это дает возможность задаться многими философскими вопросами или пересмотреть свои взгляды на них.
ИИ создать невозможно, да, но только потому, что мы сами не знаем что такое интеллект. Нет достаточно четкого правила, которым можно мерить "интеллектуальность", а значит нельзя с уверенностью сказать - "этот робот обладает интеллектом". Даже личность - совсем не обязательный атрибут разума, и есть множество существ на земле, которые решают сложнейшие задачи не обладая личностью и даже "разумностью" в обыденном понимании.
комп не умеет случайные числа =) от этого невозможно написать полноценный ии.
саморазвитие и непредсказуемость. особенно второе.
платы гсч уже есть, как и всякие сервисы, которые генерят числа из атмосферных шумов или еще чего.
с другой стороны это странно будет - мышление будет основано на гсч , когда гсч должно быть частью мышления.
по поводу трех законов - до Азимова роботы в фантастике вообще что хотели, то и делали.
в серии книг "Основание" он придумал четвертый закон, который назвал нулевым. остальные три закона он так же переписал под нулевой, где сначала речь шла о человечестве, а потом уже человек (ну точнее он переписал первые два, третий остался таким же, только смысл изменился).
Азимова очень интересно читать. почти все его рассказы связанны между собой общими героями и принципами: далекое будущее, люди заселили всю галактику, люди не встретили инопланетян в нашей галактике, кроме людей есть еще роботы, которых люди и построили что логично. на отношениях роботов с людьми и строится очень много рассказов.
поведения, мышления, воображение и так далее.
Крикуны!
А человек, которому только что оторвало голову - это человек, или уже труп? Один из вопросов этики для определения человека.
С момента как ИИ начнет симулировать критическое мышление человека хотя-бы на 30-50% или сможет обрести обособленное индивидуальное (что уже его сделает новой формой условной жизни, но да ладно) - законы Азимова заработают. Именно тогда монолог этого чувака останется просто "синдромом отрицалова"
А мо Марксу его можно будет описать : "бля, маргинал".
Ай бредятина.
Если это действительно мощный ИИ, то он легко определит нужна реанимация или нет.
А человечество можно просто внести в базу, ДНК, отпечатки пальцев и сетчатка глаза.
Чуваку на видео Hello World писать на бейсике, а не ИИ обсуждать.