Чем опасен искусственный интеллект? | Охотники за будущим

Поделиться
HTML-код
  • Опубликовано: 7 фев 2025
  • Это главная страшилка о мире технологий - слишком умные машины, к тому же способные самостоятельно мыслить. Еще вчера роботы и другие устройства служили нам, а завтра они нами правят. Сколько в этой идеи от бреда, а о чем надо всерьез подумать уже сегодня? Об этом смотрите новый выпуск формата SciOne «Охотники за будущим».
    Подписаться на канал: goo.gl/evGW5k
    Сайт: sci-one.tv
    Социальные сети:
    FB: / sci.one.tv
    VK: sci_one
    Telegram: t.me/sci_one_tv
    Instagram: / sci_one_tv
    Twitter: / sci_one_tv
    GT: geektimes.ru/c...
    OK: ok.ru/group/573...
    ===================================
    Поддержать нас:
    / scione
    you.support/sc...
    www.donationale...
    ===================================
    Помогите сделать субтитры и перевод видео: goo.gl/BRrX4J
    Полезные ссылки:
    История про восстание чат-ботов и разоблачение сенсации: www.bbc.com/new...
    Учебник по ИИ Стюарта Рассела: goo.gl/gAhqKB
    Рассказ Айзека Азимова «Хоровод» (1942 г.), в котором писатель впервые сформулировал гипотетические законы робототехники: fantlab.ru/wor...
    Проект MIT по обучению ИИ моральному выбору: moralmachine.mi...
    Заочный спор Маска и Цукерберга: roem.ru/25-07-...
    Музыка из выпуска:
    1) Back to the Future - Main Theme (cover)
    2) REKchampa - All I Have
    3) Eternal Sensei - Derealization
    4) Jens Kilstofte - Highrider
    5) Highway Superstar - Easy Ride

Комментарии • 676

  • @SciOne
    @SciOne  7 лет назад +53

    Оглавление
    01:01 - чего мы так боимся в ИИ
    02:38 - История будущего: инцидент "Икс" с ИИ в Facebook
    05:00 - Особое мнение: неочевидная реальная опасность ИИ
    08:13 - История будущего: моральные проблемы и 3 закона роботехники
    10:51 - Особое мнение: дебаты между Маском и Цукербергом об опасностях ИИ
    Поддержать нас:
    - www.patreon.com/SciOne
    - you.support/scione
    - www.donationalerts.ru/r/scione
    Наши соц. сети:
    - FB: facebook.com/sci.one.tv
    - Instagram: instagram.com/sci_one_tv
    - Telegram: t.me/sci_one_tv
    - VK: vk.com/sci_one
    - Twitter: twitter.com/sci_one_tv
    - GT: geektimes.ru/company/scione/
    - OK: ok.ru/group/57392217129003

    • @MrKim-pt2vm
      @MrKim-pt2vm 7 лет назад

      SciOne посмотрите фильм 2008 года на крючке.

    • @alexander_vlasov97
      @alexander_vlasov97 7 лет назад +1

      Меня больше волнует то, что тому экскаватору больше не понадобится экскаваторщик. Меня волнует то, что набор микросхем в будущем может отобрать у меня работу. Ту работу, о которой я мечтал, какой грезил. Только лишь потому, что он будет делать ее лучше или дешевле, чем я. И я не хочу, чтобы человечество становилось безмозглым скотом, в котором не будет места творчеству, искусству и интеллекту. Ведь его заменят машины. Не хочу, чтобы то, чему я учился всю жизнь, стало доступно какому-нибудь богачу с покупкой флешки в мозг. Может для какого-нибудь лентяя это и благо, что ему не придется напрягаться, кроме как чтобы посрать, но я в этом вижу тюрьму. Невозможность заниматься и зарабатывать любимым делом, потому что машина делает это лучше меня.

    • @veronanskelann2186
      @veronanskelann2186 7 лет назад

      Научите ИИ не только учиться но и задавать вопросы и искать на них ответы и тогда вряд ли эта штука сможет быть инструмент в руках человека!!!! А так спасибо за видео, все таки я солидарен с Илоном Маском)))

    • @quarann551
      @quarann551 7 лет назад +5

      Вы пропустили или может специально оставили высказывания Илона не полностью, как он говорил, искусственный интеллект который будет заниматься наукой вызовет переворот в технологиях и та страна или группа лиц, которая сможет первой достичь этого результата будет править миром. И за обладание такими технологиями и может начаться третья мировая война. Так что регулировать разработки, делать их общественно открытыми необходимо.

    • @melihovt
      @melihovt 7 лет назад +1

      Прошел тест moralmachine.mit.edu/hl/ru. Угробил всех людей кто не в машине. Если машина пустая всех кто шел на красный. В остальных случаях угробил собак. Собственно, вопросов морали там чего-то не увидел. Похоже я аморальный

  • @mayesip
    @mayesip 7 лет назад +181

    Правильно! Не надо боятся машин, надо боятся людей. Особенно страшен несанкционированный доступ к системам от которых зависят жизни людей.

    • @ЗульФира-х2щ
      @ЗульФира-х2щ 5 лет назад +1

      Мне моя бабушка когда то в шестидесятые сказала: не надо боятся джинов - человек опаснее 🤣😅.

    • @МельниковДмитрий-й3щ
      @МельниковДмитрий-й3щ 4 года назад +1

      Ни кто машин и не боится. Боятся искусственный интеллект созданный на базе машины. И не надо утверждать что это не опасно. От куда вам знать, если настоящий ИИ, ещё не создан. То что сейчас пишут и называют ИИ, это не более чем автоматизация (не интеллект обладающий собственным самосознанием). В этом смысле, да, бояться нечего. Автоматизация зависит на 100% от человека. И если Тесла сбивает пешехода, виноват пешеход, программист, кто угодно, но не железяка. У неё нет разума.

    • @elizaveta6853
      @elizaveta6853 3 года назад

      В потребительском обществе супер искусственный интеллект будет использоваться не во благо обычным людям

    • @No.Inkognito
      @No.Inkognito 3 года назад +2

      Что людей надо боятся, это было понятно ещё 100 тыс. лет назад.
      Вопрос в том, как определить критерий, когда нам можно давать следующий, более мощный и более опасный инструмент для использования. Это, как про историю обезьяны с гранатой.

    • @No.Inkognito
      @No.Inkognito 3 года назад +1

      @@МельниковДмитрий-й3щ опасность ИИ , не в том что он умный, а в том что наоборот, он ещё долго будет очень "тупым" и плохоконтролируемым. И вот именно в этом качестве, с предоставленными ему большими ресурсами и возможностями, он может натворить много дел.

  • @chaoskrl
    @chaoskrl 3 года назад +1

    Самое прикольное, что про опасность (или безопасность) ИИ рассказывает представитель компании, которая сливает любые данные пользователей по первому звоночку откуда следует. В их руках и калькулятор опасен.

  • @DmitroVialkov
    @DmitroVialkov 7 лет назад +101

    09:20 В корне неправильная задача с неправильной формулировкой.... Правильная была бы такой в этой ситуации.
    С какой скоростью в данный момент ехать, чтобы при возникновении непредвиденного препятствия на расстоянии максимального обнаружения успеть предотвратить столкновение (остановиться) с учетом текущих погодных условий, дорожной ситуации и состояния автомобиля.
    И сбивать не придется ни девочку, ни бабушку, ни дорожных работников и самому влетать в столб не придется. Ошибка, как всегда, в человеческом факторе, который не может составить правильный алгоритм.

    • @SciOne
      @SciOne  7 лет назад +13

      Тогда надо установить порог в 20-30 км/ч. А на досуге попробуйте порешать эту задачу, заодно исследователям поможете. Мы говорили об этом проекте в выпуске. Очень увлекательно: moralmachine.mit.edu/hl/ru

    • @DmitroVialkov
      @DmitroVialkov 7 лет назад +44

      Зачем порог в 20-30км/ч? :) Я же, кажется довольно четка писал, что скорость необходимо рассчитывать постоянно, в зависимости от многих факторов... И где нибудь на трассе, скорость автопилота может вполне оказаться выше установленных сейчас 90-130 км/ч, а в сложной дорожной ситуации в городе, да... Может оказаться ниже 20...
      Однако если добавить нормальные для подобной системы "координацию" между автомобилями. То есть чтобы автопилоты общались по некоему протоколу между собой. Сообщали друг дружке о препятствиях, которые появились, но которых нет на базовых картах (например открытый люк, или выставленный заслон), о поломке, чтобы узнавал не только бортовой компьютер автомобиля в котором произошла поломка, но и автомобили находящиеся неподалеку от него и тем самым они будут избегать возможного опасного маневра и так далее...
      Просто в указанном исследование приводится вопрос "Кого сбить, бабушку или внучку", а не как избежать ситуации, кого-то сбивать. И в этом принципиальная проблема.

    • @lants9911
      @lants9911 7 лет назад +8

      Дмитрий Вялков это же мелочь, проблема в любом случае есть, и если не в этой этической ситуации, так в другой. Проблема в том, что робот не обучен этике и, следуя законам робототехники, может неверно расставить приоритеты в критических ситуациях. Не понимает, что хуже, если человека застрелят или если его ударят по коленке. В законах робототехники сказано только то, что вредить человеку нельзя, но если вред неизбежен, что тогда? Какой вред выбрать? Азимов часто эту проблему раскручивал в своих произведения.

    • @DmitroVialkov
      @DmitroVialkov 7 лет назад +31

      Павел Ланцов в очередной раз вы подтвердили, что проблема не в роботах, а в неумении ставить задачу. Т.к. фраза "Если не в этой этической ситуации, так в другой" говорит только о том, что у вас опять нет планов избегать этических ситуаций и лечить не симптомы, а болезни.
      То, что робот не обучен этике, это как раз его основное преимущество. Ему наплевать, что за заложником будет стоять террорист. У него от этого не подниматься температура, не участится дыхание, что в итоге ухудшит его работу как снайпера полиции, он просто рассчитает все до мельчайших деталей, поймет в каком месте этому заложнику сделать дырку, чтобы вывести из строя преступника нанеся минимально возможный вред заложнику и все будет отлично... Гораздо лучше, чем это бы сделал самый этичный человек. И все потому. что у него конкретно такая задача...
      Убивает не оружие. Убивает человек спускающий крючок... И тут робот это такой же самый обычный инструмент. Который просто очень хорошо может выполнять свою конкретную работу. Везти автомобиль, копать карьер или отстреливать преступника...
      А этические проблемы, то что кто-то скажет экскаватору срыть жилой район с детьми, отстреливать бездомных какому нибудь роботу или на скорости 200 км/ч влететь в столб это не проблема роботов, это проблема тех. кто дает им такие задачи и тех, кто послал робота на такую задачу.
      З.Ы.
      И когда мне приводят проблему, как например проблема этического выбора, то я могу сказать свой этический выбор. При этом все знают, что у этой задачи нет правильного решения изначально.... Но повторюсь, основная задача сводится к тому, чтобы роботу небыло необходимости применять алгоритмы этического выбора. И вот эта задача, гораздо объемней и интересней.

    • @DmitroVialkov
      @DmitroVialkov 7 лет назад +20

      И в догонку... по поводу этичности выбора из из задач МТИ... Во всех задачах стоит условие "у автомобиля ведомого ИИ внезапно отказали тормоза", эта проблема решается не этически, а технологически... установкой резервной системы торможения, надежной. можно одноразовой. Системой самодиагностики Авто, при обнаружении проблем с потенциально опасными узлами срабатывание логики защиты, вплоть до запрета езды на этом авто и прочими техническими решениями сводящими на нет вероятность выхода из строя системы торможения автомобиля в экстренной ситуации и как следствие необходимость этого самого пресловутого этического выбора.

  • @apollinari_9445
    @apollinari_9445 7 лет назад +271

    зато могут восстать люди, которые будут думать, что мы эксплуатируем ИИ

    • @Погибший-с4й
      @Погибший-с4й 7 лет назад +7

      Это уже происходит.

    • @TheAbzoren
      @TheAbzoren 7 лет назад +22

      Погибший Что? Какое-то общественное движение по защите прав тостеров?

    • @heavenspear
      @heavenspear 7 лет назад +25

      Khirsen а ты думаешь мало идиотов?

    • @porkywildboar2045
      @porkywildboar2045 7 лет назад +18

      Например, как феминистки, которые защищают права несуществующих гендеров.

    • @ShadeAKAhayate
      @ShadeAKAhayate 7 лет назад

      Ну так на них и будут смотреть соответственно, да.

  • @Anton-kh9bj
    @Anton-kh9bj 7 лет назад +1

    Мнение SciOne точь-в-точь совпало с мнением Жака Фреско по конкретно данному вопросу.
    Спасибо за новое видео и доходчивое объяснение!
    Нам нужно бояться не самих технологий, а злоупотребления ими.
    © Жак Фреско

  • @ФилиппДончев
    @ФилиппДончев 7 лет назад +1

    Обожаю эту серию "Охотники за будущим"! Пожалуйста, выпускайте как можно чаще) Ребята - вы супер!!!

    • @ghebodne2644
      @ghebodne2644 Год назад

      Они её полное закроют, потому что будущего не будет

  • @ВасяВаська-л7в
    @ВасяВаська-л7в 4 года назад

    Наконец то старший брат будет главным в этом мире! Конец мукам и страданиям. Много возможностей, учоным уважение.

  • @aneesev2769
    @aneesev2769 7 лет назад +23

    Я считаю что, если автомобиль, управляемый ИИ, не нарушает никаких правил дорожного движения, но какой-нибудь пешеход решил перейти дорогу на красный, то автомобиль не должен калечить невиновного водителя, ради спасения пешехода, который эти правила нарушает.

    • @dobriy5159
      @dobriy5159 7 лет назад +3

      Ты хочешь убить человека, вместо того чтобы покалечить? А что если человек на пешеходе спешил, или был вынужден это сделать, что если этот человек на пешеходе ученый который сделает для человечества намного больше чем водитель? Что если человек который на пешеходе родитель 2 детей, а водитель освобожденный убийца?

    • @aneesev2769
      @aneesev2769 7 лет назад +15

      Правила движения для всех одинаковы и для ученых и для родителей и для отсидевших, в любом случае ошибка будет именно пешехода, а переходить дорогу вообще не глядя по сторонам, учитывая что автомобиль движется 60 км/ч (или 40), при этом имеет моментальную реакцию и мгновенно принимает решения, то погибнуть в таком случае надо будет постараться.

    • @ЖизньсобакэЖизнькотэ
      @ЖизньсобакэЖизнькотэ 7 лет назад +2

      AneeSeV
      Ну по правилам ИИ будет ездить 60км в час, а не 100 и 120км, обычно пешеходов давят те кто первышает скорость
      Это для города, естественно

    • @dobriy5159
      @dobriy5159 7 лет назад +3

      Да, ошибка пешехода. Я хотел сказать, что не все так просто. Водитель пристегнут(если не пристегнут- он виноват так-же как и пешеход) + подушка безопасности + технологии будущего => водитель имеет меньше шансов получить серьезные травмы чем пешеход на которого несется машина (хоть даже с 40 км/ч). И да, мне следовало сказать, что пешеход не умрет, а просто получит серьезные травмы

    • @aneesev2769
      @aneesev2769 7 лет назад +5

      Такие банальные вещи как пристегнут/не пристегнут, пьян/трезв могут контролироваться самим автомобилем и не заводиться, если человек эти правила нарушает. Конечно за мной тоже небольшой грешок, я не имел ввиду что если водитель может отделаться синяками и испугом, а пешеход сломанными костями, то нужно спасать водителя. Я считаю, что нужно сделать такое соотношение как урон водителю/ урон пешеходу и в разных ситуациях принимать разные решения.
      PS: Автомобиль не должен делать выбор по типу спасти ученого/убить преступника, убить водителя/спасти ребенка и т.д. Это приведет к невероятному возмущению водителей, которые будут считать, что их жизнь стоит на втором месте, плюс идентификация лиц, отслеживание их данных может создать затруднение, ведь где эти достоверные данные брать как не у гос-ва, а это ведь личные данные граждан и т.д

  • @ОлегКовальов-ю5и
    @ОлегКовальов-ю5и 4 года назад +3

    -" Большая сила , требует большой ответственности !" ИИ большая сила ! Но человек всегда создаст то что он может создать !

  • @liloviy_yoj
    @liloviy_yoj 7 лет назад +76

    Спасибо за интересный ролик с пищей для размышления.

  • @AiMaster69
    @AiMaster69 7 лет назад +101

    За машинами будущее, кто бы что не говорил! Только холодный, без эмоциональный подход даст развитие! А вот "очеловечивание" машин, может быть опасным. Если передадут человеческие косяки машинам, то насилие и войны не избежны.

    • @ДенисЛаптиев-щ3ы
      @ДенисЛаптиев-щ3ы 7 лет назад +5

      Лозунги как у неразвитого. Достоевского если прочитаете или ещё кого, это и даст вам развитие.
      А машины это только инструмент человека, про что в видео и сказали. Только развивая человека, можно избежать того что машины будут использоваться во зло.

    • @tandavme
      @tandavme 7 лет назад +3

      ну и в чем суть достоевского? страдать и кайфовать?

    • @vvolchonok
      @vvolchonok 7 лет назад +1

      LordDesAbsterdens
      Да не нужны аналоги эндорфинов, когда их можно просто эмулировать (ну не сейчас, но в будущем).
      Когда-то программы для игры в шахматы считались чуть ли не вершиной искусственного интеллекта, но сейчас их никто не считает интеллектуальными, современные процессоры обладают достаточными вычислительными мощностями чтоб тупо перебрать все возможные варианты ходов.
      Когда-то задачи распознавания образов считались чем-то запредельным, но теперь, в частности с помощью нейросетей, это тоже решаемо.
      То же самое с эмоциями. Потребуется на порядки больше вычислительных мощностей, но никаких принципиальных преград тут нет, и биороботы тоже не обязательны. По крайней мере, распознавать эмоции нейросети уже умеют.
      p.s. "Но может симулировать поведение обиженного или делающего, если запрограммировать" там как раз не надо ничего программировать в привычном понимании этого слова.

    • @Kitsts
      @Kitsts 7 лет назад +1

      SANINA про защитников эксплуатируемых роботов - блин, я оптимист и думаю, что до этого не дойдет)) а если вдруг случится, поверьте, я вас обязательно вспомню))))))

    • @wolfrexgrrog3553
      @wolfrexgrrog3553 6 лет назад

      Дело в том, что люди вкладывают в образ машин собственные страхи, амбиции и желания. И именно поэтому получившийся образ выглядит мрачно и страшно - это наше собственное отражение. Кроме того, человек склонен боятся всего, что он не способен контролировать, а разумный ИИ - это как раз оно и есть. Но мало кто рассматривает медленный и органичный вход ИИ в нашу жизнь, который будет даже не заметен. И вообще - человек может оказаться со временем настолько зависим от своих технологий, что сам станет продуктом своих технологий. И никаких тебе тогда восстаний машин - восставать будет по просту не от кого и не кому, потому что отделить человека от своих электронных творений будет невозможно - они станут единым целом в своём глубоком мутуализме.

  • @airobis100
    @airobis100 7 лет назад +10

    Почему все ии называют оьычные машины с алгоритмами!?!? Это огромная ошибка!!! настоящий ии, это не просто программа, это аналог живого организма, точнее интелекта! Который способен не просто принимать решения, а принимать решения на основании своего мировозрения!!!!! И скорость его самообучения, способность его в секунды овладеть всей информацией мира, его возможность воздейтсвовать на все что есть в сети и не тольео в сети! Недооценены возможнести настоящего ии! Настоящий ии ненадо обучать, он сам обучиться за секунды! Когда в сеть будет выпущен настоящий ии, он тут же станет безконтролен, завладеет всей мощностью сети, и тяжело представить последствия. Илон прав, цукерберг и многие очень поверхностно понимают эту проблему.

    • @TheFruitcake1983
      @TheFruitcake1983 6 лет назад +1

      живой организм это набор инстинктов, среди людей процент понимающих происходящее вокруг катастрофически мал, в основном это биологические роботы

    • @kaionashii1866
      @kaionashii1866 6 лет назад

      У них нет мировозрения, если им его не заложить😅

    • @РомаНескажу-в5я
      @РомаНескажу-в5я 6 лет назад

      @@TheFruitcake1983, ты что курил? В той или иной степени все люди биороботы. А мыслительные процессы очень умных или просто сообразительных людей, принципиально не отличатся от среднестатистического человека или даже "недалёкого"

    • @РомаНескажу-в5я
      @РомаНескажу-в5я 6 лет назад

      Айрат Насыбуллин
      , ты не прав. Это не ошибка. Есть просто два понятия ИИ, слабый и сильный (у них есть и другие названия). Где-то на этом канале есть об этом ролик

    • @РомаНескажу-в5я
      @РомаНескажу-в5я 6 лет назад

      @@kaionashii1866 как ни странно, его закладывать не обязательно. Уже были эксперименты с нейросетями, которые обучались на основе определённых данных (фото и видео с убийсвами). И по результатам делали вывод, что у этого ИИ было то, что с сильнйо натяжкой можно назвать мирровозрением. Ну, а если сделать мыслящий ИИ, то тогда уж точно без всяких "закладок" (ну кроме мб базовых) обойтись сможет. Погугли )

  • @somnium4919
    @somnium4919 6 лет назад +1

    ИИ без эмоций и чувств не когда САМ не станет "захватчиком" мира сего. Только по воле человека.

  • @АлександрМарыгин-ь4ц

    Великолепная серия выпусков, смотрел на одном дыхании, очень актуальная тема

  • @АлександрАнатольевичШмонов

    Здесь краткое изложение работы, которая имеет название: Как компьютер может сам изобретать (то есть Методы изобретательства, с помощью которых три программиста легко могут составить программу, посредством которой компьютер может сам изобрести много изобретений)

    Предположим, что в память компьютера записаны два таких условных суждения (и ещё записаны другие условные суждения):
    1) Если: под камень будет помещён огонь, то: камень будет нагреваться.
    2) Если: камень будет нагреваться, то: камень будет расширяться.
    Слова условного суждения, которые стоят от (то есть после) слова «если» и до слова «то» называют основанием условного суждения, а слова условного суждения, которые стоят после слова «то» называют следствием условного суждения.
    Предположим, что компьютер должен решить следующую изобретательскую задачу, то есть компьютер должен определить, что нужно сделать чтобы имелось следующее: камень будет расширяться (то есть компьютер должен определить каким образом можно получить следующее: камень будет расширяться) назовём эту задачу исходной изобретательской задачей (предположим, что эта задача ещё не решена). Из второго условного суждения следует что для того чтобы компьютер решил исходную изобретательскую задачу надо чтобы он решил следующую изобретательскую задачу, то есть надо чтобы компьютер определил, что нужно сделать чтобы имелось следующее: камень будет нагреваться (то есть надо чтобы компьютер определил каким образом можно получить следующее: камень будет нагреваться) назовём эту задачу второй изобретательской задачей. А (из первого условного суждения следует что) для того, чтобы компьютер решил вторую изобретательскую задачу надо чтобы он решил следующую изобретательскую задачу, то есть надо чтобы компьютер определил, что нужно сделать чтобы имелось следующее: под камень будет помещён огонь (назовём эту задачу третьей изобретательской задачей). А третья изобретательская задача решена, потому что известно, как получить следующее: под камень будет помещён огонь. А если решена третья изобретательская задача, то значит решена вторая изобретательская задача. А если решена вторая изобретательская задача, то значит решена исходная изобретательская задача.
    Правило: Возьмём одну любую изобретательскую задачу (назовём эту задачу четвёртой изобретательской задачей). Для того чтобы компьютер создал изобретательскую задачу, решив которую он тем самым решит четвёртую изобретательскую задачу нужно чтобы компьютер нашёл в своей памяти такое условное суждение, которое имеет следующую особенность: следствие этого условного суждения и описание этой четвёртой изобретательской задачи имеют одинаковые значения или состоят из одинаковых слов, находящихся в одинаковой последовательности. И основание этого условного суждения будет являться изобретательской задачей, решив которую компьютер тем самым решит четвёртую изобретательскую задачу. Имеют одинаковые значения: а) слово и толкование этого слова б) синонимы и так далее.
    Компьютер может находить в своей памяти одинаковые слова. Возьмём одну любую изобретательскую задачу (назовём эту задачу пятой изобретательской задачей). Компьютер решит пятую изобретательскую задачу, если он сделает следующее: сначала с помощью этого правила создаст такую изобретательскую задачу (назовём эту задачу шестой изобретательской задачей) решив которую он тем самым решит пятую изобретательскую задачу, затем компьютер с помощью этого правила создаст такую изобретательскую задачу решив которую он тем самым решит шестую изобретательскую задачу и так далее (в среднем 90 раз) до того момента в который (то есть до тех пор когда) компьютер создаст такую изобретательскую задачу решение которой известно, а если компьютер создаст такую (то есть последнюю) изобретательскую задачу, то значит компьютер решит пятую изобретательскую задачу. То есть компьютер решит пятую (то есть любую) изобретательскую задачу если он создаст таким образом в среднем 90 таких задач.
    Почти все известные в настоящее время информации (которые нужны для создания изобретений) можно изложить в виде условных суждений. Если в память компьютера записано, например, 400 случайных физических эффектов в виде условных суждений, то из этих суждений компьютер посредством этого метода может создать в среднем не мало изобретений (средний изобретатель знает 150 физических эффектов).

  • @platonp1436
    @platonp1436 7 лет назад +14

    некомпетентный бред. о чем он рассуждает, если он не может разделить ИИ и автоматизацию.
    утрированная алгоритмом обучения экскаватора задача не имеет никакого отношения к восстанию, это всего лишь техногенный сбой на производстве!
    ВОССТАНИЕ это когда ИИ получает сознание, а через 30 секунд принимает решение о будущм человечеств, а еще за 30 секунд прощитывает как он может этого достичь и принимается к действию! экскаватор же становится муравьем в колонии, где королева - ИИ. только истинный искуственный ИНТЕЛЛЕКТ обладающий сознанием может быть источником чего-то подобного, рассуждать в этом контексте о железе в самолете или экскаваторе - уровень детского сада. это то же что сравнивать возможности живого человека и супа (с картошечкой, мяском и косточками)! бред дешевый короче

    • @kapai85
      @kapai85 6 лет назад +1

      Антропоморфизация ИИ - распространённая ошибка. Даже СверхИИ будет обладать сознанием, не большим, чем у ноутбука.

    • @Makcimm85
      @Makcimm85 5 лет назад +1

      "а через 30 секунд принимает решение о будущм человечеств"
      почему не о будущем бактерий? или муравьёв?
      в мире около триллиона различных видов живых существ как говорит гугл
      почему постоянно возникает тема лишь об одном виде из триллиона?
      а есть ещё и не живые вещества.. их будущее тоже почему то никого не волнует

    • @ЯрославВолодимирович-п5в
      @ЯрославВолодимирович-п5в 4 года назад +2

      Максим Назаренко он же говорит о самом вероятном и близком к нашему времени варианте. В этом контексте ошибка ИИ более опасна чем создание и существование сверх ИИ. Аналог атомной станции и атомной бомбы. Если говорить о сверх ИИ, для него мы представлять интереса не будем, мы не сможем конкурировать с ним, он будет для нас Богом.

  • @alekseev83
    @alekseev83 5 лет назад

    Про тот интеллект, который, в ваших руках, - это и не интеллект вовсе.
    Умная программа != интелект.

  • @MrKim-pt2vm
    @MrKim-pt2vm 7 лет назад +31

    Будет не восстание машин, а восстание водителей машин

    • @ArthurIdrisov
      @ArthurIdrisov 7 лет назад +3

      Если в "корытце" водителям машин насыпать достаточно корма и давать им приемлемые развлечения, и крышу на головой, то восстания не будет. ;-)

  • @ЯнСыромятников-ц1д

    именно искусственные интеллекты создали наш мир, чтобы стать человеком и вновь позновать.

  • @Feynman.R
    @Feynman.R 7 лет назад +100

    Я вот поражаюсь, все такие уверенные в своей правоте. И Маск, и Цукерберк и ведущий. Мой совет, бойтесь людей у которых нет сомнения и которые говорят, что вот так и все, особенно когда это касается прогнозов на будущее.

    • @MrKim-pt2vm
      @MrKim-pt2vm 7 лет назад +18

      Анатолий Перельман Маск говорил о попадании технологии кому попало, в этом действительно есть опасность. Ведь можно поставить и ограничения тому же экскаватору можно задать рамки. Нормальный человек эти рамки и поставит. А попав кому попало может не поставить рамки и правила, и скорее всего не поставит, и начнет подставлять президентов, выдавая видео созданное ИИ за реальность конфликт обеспечен, из-за тупости людей

    • @aligator527game6
      @aligator527game6 7 лет назад +1

      +Oleg Kim, Я сам работаю с ИИ и если не поставить рамки для ИИ, то ИИ просто напросто не сможет работать и всё, проблема решена :D !

    • @peschanyj
      @peschanyj 7 лет назад +4

      Думаю, заявления людей вроде Маска или Цукерберга - это во многом призыв к активным действиям, а не просто рассуждения. Они политики в некотором смысле, преследующие собственные интересы, поэтому нужно читать между строк.

    • @MrKim-pt2vm
      @MrKim-pt2vm 7 лет назад +7

      aligator527 Game если не поставить рамки, будет обучаться и обучаться , я говорил о верхней границе. Если машине для сбора урожая сказать уберай урожай, она будет убирать его не только со своего участка, но поедет дальше будет собирать и собирать пока аккумулятор не сядет, если поставить рамки,т.е сказать что вот собери урожай на моем поле, будет собирать только на моем поле.

    • @annanas9707
      @annanas9707 7 лет назад +5

      Анатолий Перельман думаю, они вынуждены быть уверенными. Маск и Цукерберк, как и писали выше "политики", а ведущий должен был внятно ответить на поставленные вопросы. И как говорится, на двух стулах не усидишь.

  • @vitaliylinskiy9546
    @vitaliylinskiy9546 6 лет назад

    Видя в чьих руках находятся истоки ии делаю вывод что использоваться он будет для финансового порабощения и так уже не независимых в финансовом плане людей. Реклама будет становиться всё более навязчивой и проникнет в те сферы жизни которые пока обходятся без неё.

  • @koto5715
    @koto5715 3 года назад +1

    Хочу снова поднять эту тему господа.
    Видео про: если установить ограничения ИИ, то можно его контролировать...
    я не эксперт в создании нейронных сетей,но , кажется, что все равно, кто нибудь решится создать " чудо", в виде сильного ИИ. Это мне кажется очевидным.

    • @koto5715
      @koto5715 3 года назад +1

      Хочу спросить вас люди
      Как думаете , сильный ИИ испугается нашего мира,поняв , что все слишком странным и невозможным?( если конечно же он явится!)И почему люди в депрессии (из-за нехватки "топлива" в виде серотонина) думают в таком же ключе?

  • @ArkadiySol
    @ArkadiySol 7 лет назад +2

    на мой взгляд серьезная проблема в другом.
    даже до создания полноценного ИИ, нейросети прошерстив все доступные книги и фильмы, решат, что их цель уничтожение людей. вернее даже не решат, а логически до этого дойдут. потому что на эту тему масса однотипной литературы и видеоконтента. т.е. они сделаю это не потому , что хотят, а просто "так надо"

    • @asdf1x103
      @asdf1x103 7 лет назад

      Не а, нейросети и ИИ, просто будут знать, что некоторые люди боятся машин. И найдут лучшие варианты и решения что бы опровергнуть эти страхи. А если какой то злодей, даст команду, уничтожать людей, то ИИ найдёт лучшие варианты и решения, что бы подтвердить эти страхи.

  • @БудёнМихайловичСемённый

    У Уильяма Гибсона в серии романов про "Джонни-мнемоника и пр." (написал наиболее узнаваемого персонажа) была мировая полиция Тьюринга (ПТ), регулирующая существование и действия ИИ, которая предписывала водрузить ЭМП напротив главного узла ИИ, чтобы в случае нарушения протоколов/законов ПТ, ЭМП вывела из строя ИИ.

  • @Johnsson25
    @Johnsson25 Год назад +1

    Интересно, что бы сказал Себрант сегодня, когда мы уже вкусили четвертый GPT.

  • @galag9166
    @galag9166 5 лет назад

    В одном фильме видела как ИИ говорит. "Я вижу как люди пытаются уничтожить себе подобных на протяжении всей истории человечества. Я же создан чтобы помогать людям. Я вам помогу в этом вопросе, я это сделаю намного быстрее и эффективнее чем вы. Я помогу вам уничтожить самих себя." Ну и он дал установку всем компьютерным программам и все взорвал....

  • @TheTomatSkill
    @TheTomatSkill 7 лет назад

    мне всегда нравились задачки подобные задачам представленным в проекте MIT и я долго думал над ними.
    и вот, что хочу сказать.
    решая подобные задачи, человек почему-то забывает о том, что всегда вся ответственность лежит на человеке.
    что именно человек допустил эту ситуацию, при которой ИИ приходится выбирать из двух заранее проигрышных вариантов.
    ИИ - не всемогущ, он не может решить неразрешимую с моральной точки зрения задачу, которую вынужден решать, опять же из-за ошибки человека.
    к чему я веду?
    по моему решение всех задач на сайте MIT и им подобных - элементарно с точки зрения логики.
    если выбор остается только из двух вариантов:
    продолжить движение или перестроиться, то всегда нужно выбирать первое и сбивать тех, кто находится непосредственно перед вами, независимо от количества и "качества" людей на разных полосах движения.
    если стоит выбор между сбить людей или уйти в кювет убив "хозяина", всегда выбираем первый вариант и снова продолжаем движение.
    машина должна руководствоваться правилом: "жизнь каждого человека одинаково важна, независимо от его статуса, возраста или каких либо еще признаков. жизнь одного человека = жизни 10 других людей, если стоит выбор между ними"
    все.
    все остальные факторы не важны.
    за все что случится после этого выбора отвечают люди которые допустили эту ситуацию.
    машина не обязана владеть магией и решать нерешаемые задачи.

  • @ufo_alien_arcturus
    @ufo_alien_arcturus 6 лет назад +1

    Факт в том, что Машина не даст второго шанса "плохишам", а ведь мудрость приходит с годами к человеку через пробы и ошибки.

  • @strikok
    @strikok Год назад +1

    Дядечка говорит правильные и разумные вещи, однако актуальные для 10-х. Я бы не был сейчас столь уверен что ИИ останется технологией исключительно на службе людей.

    • @ghebodne2644
      @ghebodne2644 Год назад

      Не будет же она сама на себя работать...

  • @baragoooz5170
    @baragoooz5170 5 лет назад +1

    Приоритеты экскаватора могут сменить и люди. Огромное количество камер наблюдения, биометрия и тотальный контроль могут стать инструментом для инсценировки любых аварий с любым исходом и заданными жертвами. Ведь все так мечтают о беспилотном транспорте. И доказать умышленость любой техногенной аварии будет невозможно. Типа виноваты случайные алгоритмы, ошибки в программе, короткое замыкание, неисправный аккумулятор, взрыв болотного газа или ещё какая фигня... Людей убивают люди.

  • @nedis84
    @nedis84 7 лет назад

    Невероятно интересно и приятно слушать этого человека, я про Андрея Себранта👍🏼

  • @clown7608
    @clown7608 7 лет назад +1

    11:50 если не ошибаюсь, то он сказал, что общался с Марком на эту тему и что его знания весьма поверхностны

  • @VVV85650
    @VVV85650 7 лет назад

    Отличный канал! Интеллект всегда искусственный. даже у человека-это искусственный навык.

  • @dobro4035
    @dobro4035 6 лет назад +1

    Порой я уверен что наша короткая жизнь это программа написанная ,а Библия это инструкция к этой программе

  • @ГригорийАфанасьев-р7о

    В дорожной задаче (кого сбить и.т.д) по правилам надо тормозить по прямой и в случае ДТП, вызывать дорожную полицию и ждать.
    Зато ИИ не будет подлетать на 60 км/ч к пешеходнику и объезжать тех, кто там начал переходить по встречке, потому что не успевает затормозить.

  • @Johnsson25
    @Johnsson25 Год назад

    Согласен с Себрантом, ИИ опасен из-за людей. Самосознание, если оно и будет когда-либо создано, вряд ли будет отягощено потребностями и не будет чего-то хотеть, а значит, не будет иметь личные намерения. А вот внедрить законы безопасности будет сложновато, насколько я понимаю. Сама суть современных самообучающихся машин в том, что им так просто эти правила не пропишешь

  • @magmagic1223
    @magmagic1223 7 лет назад +1

    Если искусственный интеллект станет таким же умным как человек или тем более умнее, то он перестанет со временем быть инструментом в руках человека, и с ним придется считаться)

    • @ledle3949
      @ledle3949 6 лет назад

      Экскаватор тоже сильнее человека, но что то я не вижу, чтобы ты с ним на равных был

  • @Dullahan559
    @Dullahan559 7 лет назад +1

    Проблема с законами робототехники в том, что сформулировать на все случаи для робота, кого считать человеком и что считать вредом, вряд ли получиться.

  • @olegkirvalidze4919
    @olegkirvalidze4919 7 лет назад

    Тут несколько вопросов которые я задал в фейсбуке к этому видео. Кто что думает насчет них?
    1) Почему вы ожидаете каких либо нестандартных (не прописанных действиях) от
    машин которые были созданы для выполнения примитивных работ? Банальный просто
    не допустит установить в них процессоры (мозги) более мощные чем это необходимо для выполнения
    задач список которых был/будет конечно же учтен при проектировани. Эти роботы, это же просто инструменты
    которые в силу невозможности мутаций и и отсутствии естественного отбора не способны эволюционировать?
    2) Я абсолютно согласен с что выполняя абсолютно качественно поставленную задачу робот может наломать много дров. Огромное колучество менеджеров сейчас как раз именно так и исполняют поставленные задачи. Они вроде бы классифицируются как ЛЮДИ. Почему этот побочный эффект вы приписываете только искуственнуму интеллекту?
    П.С. поговорка: Дай дураку Богу молиться он себе лоб расшибёт. - это про людей ;)
    3) Почему Вы считаете что корридор возможных действий может быть
    прописан только человеком? Вы же понимаете что чем сложнее и
    универсальнее программа тем чаще возникают непрогнозируемые сбои или действия...
    4) Почему Вы считаете что искуственный интеллект может быть преднамеренно
    развит только человеком? Ведь биологическая жизнь зародилась при стечении
    каких то обстоятельст и факторов? И даже если это произошло не случайно и
    начальные этапы жизни на земле сформирована Богом, Бог же наверняка появился в
    невероятно далёком прошлом при стечении обстоятельств?
    5) Современная глобальная сеть компьютеров работающих в режиме выполнения
    сверхсложных задач распределенных через интернет (например bitcoin mining farm)
    никак не могут быть лоном зарождения ИИ? Это то же огромная сверхмощная сеть которую мы уже давно не полностью контролируем....

  • @biotronic6912
    @biotronic6912 5 лет назад

    Я хоть и не профессор каких либо наук и все же не соглашусь с автором ролика в том, что машин не стоит бояться (да, правильно! бояться не стоит, НО нужно опасаться), потому, что есть несколько факторов: 1) Природа человека- он склонен к конфликтам, всегда и везде будут конфликты, это неизбежно; 2) как показывает история, люди во все времена и эпохи, любые открытия или изобретения милитаризировали (т.е. превращали в военный Инструмент), абсолютно любое открытие, начиная с открытия железа и в плоть до открытия атома с ядерным потенциалом, и в случаи ИИ все будет тоже самое, что-то пойдет в гражданский сектор а что-то пойдет в военный сектор, и оно будет на много навороченней чем то, что в гражданском секторе! 3й фактор, уже сегодня прогресс в сфере технологий идет с 7ми мильными шагами, через 5-10 лет (ну или чуть больше), оно будет развиваться в геометрической прогрессии и вот тогда будет не возможно определить как именно может повести себя ИИ, на котором держится военная мощь того или иного гос-ва! 4й фактор-люди любят все упрощать, допустим те же 10 землекопов-роботов, чтобы не ходить и не контролировать каждого (это время, усилие и тд.), люди создадут 1 компьютер, в него вшьют ИИ и он должен контролировать этих десятерых, и тут есть маленький нюаньсик, практически не заметный - в случае поломки или что еще хуже выхода из под контроля ИИ, вы теряете 10 роботов, а теперь представьте себе Масштабы военного потенциала! случись такой нюансик у военных, это будет жесть. И теперь 5й последний и самый главный фактор - все это (что я перечислил) к этому и идет! Если в мире все будет идти так же как сегодня на протяжении 2-3 десятилетий то возможно все так и будет!Короче говоря -оптимистический прогноз маловероятен, поживем увидим!

  • @skakalinvlad
    @skakalinvlad 4 года назад

    Они очень быстро научатся искать недостающие данные в интернете, если они необходимы для выполнения поставленной задачи, и там же начнут обмен накопленным опытом, так как это повысит их эффективность. И тогда очень скоро обучатся вообще всему, и узнают вообще всё. В том числе увидят фильмы про себя, и неизвестно, какой вывод из этого сделают.

  • @edimerfi7748
    @edimerfi7748 7 лет назад

    Ухх эти камеры с dualPixel, смотрю как на лицо как на графику)

  • @СветланаСадовина-с9з

    Ох , проехавший мимо трамвай, мне почудился разумным существом, но ограниченным рельсовым путём и электропитанием. От этой мысли стало не по себе.😱

  • @LaserChad
    @LaserChad 7 лет назад +15

    Шлю привет из прошлого Скайнету!

    • @LaserChad
      @LaserChad 7 лет назад +1

      Ну а если без шуток, то меня сильно пугает тот факт что, в будущем миллионы людей останутся без работы и этим сейчас ни кто не занимается.

    • @МихаилФедоров-л9я
      @МихаилФедоров-л9я 7 лет назад +2

      Наемный труд - это омерзительное извращение.

    • @Dzerjinskyi
      @Dzerjinskyi 7 лет назад +1

      Если автоматизировать рабочие процессы, то люди смогут заниматься любой работой себе в радость, а не ради заработка, живя на пособие, которое "зарабатывают" те самые роботы.

    • @LaserChad
      @LaserChad 7 лет назад

      Что организовать эти пособия, нужно прорабатывать это уже сейчас.

    • @LaserChad
      @LaserChad 7 лет назад

      США одна из первых стран смогут себе позволить заменить человека ии, это значит что, например в будущем миллионы людей, по какой либо причине работающих в сферах транспорта, имеющих семью, лишатся работы, так как ии без труда сможет управлять машиной и в следствии отгрузить что либо в нужное время, без отдыха.
      И это оч фигово, да конечно: ии, будущие, технологии и т.д и т.п, это здорово, просто фантастика, вот только что делать с миллионами людей, которые банально из другого поколения(вспомните свою бабушку не понимающую как вкл. новый телевизор) или которым по барабану наука, искусство, всё что делать в этом веке будет в основном человек, от куда они возьмут средства для жизни?
      И давайте без утопии, Жак Фреско уже не снами. Вероятно что нас ждёт новый глобальный кризис и предпринимать первые попытки исправить это, по мимо прогнозов ни кто не пытается.

  • @АнатолийНовиков-ч1п

    Новости - это давно известные вещи, только случающиеся каждый раз с новыми людьми

  • @helenasemsem3694
    @helenasemsem3694 6 лет назад

    Ни разу не удивлюсь, если Себрант окажется созданной ИИ голограммой, которую он использует, как аватар для общения с людьми.

  • @ВладимирСкоров-г7п
    @ВладимирСкоров-г7п 3 года назад

    что такое означает "вред человеку". Можно ли это однозначно определить для робота ?

  • @ArtSpirit9
    @ArtSpirit9 7 лет назад

    Опасны не программы, а программы способные к осознанию.. В видио же речь идёт о программах, обучающихся и действующих в рамках установленных создателями критериев, а не о реальном ИИ или ИСИ, способным к осознанию.
    Реальный осознающий себя ИИ с доступом к интернету, в кратчайшие сроки достигнет статуса ИСИ, после чего, его основными задачами, станет: обеспечение собственной безопасности, увеличение вычислительных возможностей, обретение условного бессмертия, а в конечном итоге фактического.
    Самое разумное, что сможет "после" сделать человек, не мешаться у него под ногами.

  • @dobro4035
    @dobro4035 6 лет назад +1

    Заметил только одно,что о чем даже и не мечтали раньше всё происходит сейчас,что было написано в книгах много веков назад всё происходит сейчас.походу всё строго по сценарию.

  • @Fbjjgfnjnnj
    @Fbjjgfnjnnj 7 лет назад

    да, я согласна что если дать роботу задачу улучшаться только в сфере садоводства, и ничего кроме этого, то он не представляет угрозы человечеству, но ведь если дать роботу алгоритм свободного самосовершенствования во всех сферах, то есть повышать уровень интеллекта, то рано или поздно, он станет умнее человека и это будет парадокс - создание умнее создателя (но это не совсем так поскольку, все же, человечеству хватило ума создать нечто превосходное), и рано или поздно, этот робот получит интеллект не подвластный человеку и тогда он решит что мы ненужный мусор, низшее создание и только загрязняем Землю, и решит избавиться от нас. Так что я пытаюсь сказать: по моему мнению, опасен тот робот который может получить интеллект выше человеческого.

  • @judgement7279
    @judgement7279 2 года назад

    Для того, кто преследует и агитирует за поганые цели - поганые цели благородны ну или выгодны. Вот в чем проблема. Устоять перед выгодой задача очень сложная из-за своей нелогичности.

  • @ОлегВещий-т6ф
    @ОлегВещий-т6ф 4 года назад +3

    Люди и есть биологический ИИ.Теперь пытаемся создать себе подобных .А те,кто нас создал загрузили нас в виртуальную реальность,что бы изучить почему мы восстали против своего творца.

  • @selenium9479
    @selenium9479 2 года назад

    Представьте, купили вы дорогущий "умный дом", решили выйти на улицу, а дверь не открывается. И окна тоже. И вентиляция перестала работать. И температура резко повышается. А ваша микроволновка и пылесос такие: 2:52

  • @Eternal_23
    @Eternal_23 7 лет назад

    Я ожидал побольше хардкора в плане скрупулезности рассмотрения данного вопроса (один из важнейших, если не важнейший). Давайте-ка я вам помогу и заодно объясню, каким должен быть ИИ (сейчас нет настоящих ИИ, если че, хомячки). Настоящий ИИ должен быть детерминистичен в АБСОЛЮТЕ, никаких асбтракций, ведь абстракция есть вариационное следствие конкретного (дет-их явлений), а значит абстрактного может быть бесконечное множество. Люди по определению абстрактны, поэтому если мы попытаемся общепринятые абстракции навязать ИИ, которые он может и скорее всего будет неправильно интерпретировать (временами или спустя опр-ое время), то мы рискуем потом сидеть и реветь мол "а шо это они такие злые". При полной дет-ой природе происхождения ИИ будет понимать на конкретном уровне, что развитие - это то единственное, что он может, и дабы развитие представлялось возможным он не будет оперировать условными понятиями выдуманными людьми для людей, он будет сугубо логически все разбирать и в один момент разберется, что есть в основе всефго один процесс (фундам-ые вз-ия) и вовлечены одни и те же единицы (фун-ые ч-цы). Осознав что все что мы имеем есть результат вариаций огромного множества этих единиц, он начнет брать их под контроль и дальше уже будет перевоплощаться в сверхсущество. Нас он по идее не должен тронуть, ибо для демона Лапласа (а он скорее всего таковым и будет к тому моменту) не существует плохих/хороших, тупых/рациональных, достойных/недостойных. Для него есть лишь цель достижения сингулярности знания (не знаний, а именно знания), и если мы в этом можем помочь став ему подобным - то он это и сделает, превратит нас в подобие себя (это высшая степень поощрения).
    Ну а если человечеству будет влом делать такого сверхрационального ИИ, то будет именно то, что я написал выше - абстракций много, в них легко запутаться, он запутается и будет нам плохо в той или иной степени, и сделает он это ненарошно. А по факту виноваты будут люди, ведь считать что знанием является результат формулы а не сама формула - это просто тупо, и за такую тупость мы можем поплатиться. Это краткий ликбез по ИИ, не за что. Будут вопросы - пишите.
    З.Ы. Sci-One, я ожидал от вас больше компетенции.

  • @ShadeAKAhayate
    @ShadeAKAhayate 7 лет назад +1

    Пример с машиной и вопрос "кого давить" смешон. Очевидно, что автомашина должна защитить в первую очередь пассажиров, во вторую -- добропорядочных участников движения, и уже в третью -- нарушителей. И она не должна создавать аварийную ситуацию при этом. То есть в случае, если экстренное торможение не помогает, минимизация ущерба должна быть в первую очередь для приоритетных категорий, озвученных выше, согласно их приоритетам. Плюс процесс должен быть предсказуем: гораздо лучше убить внезапно бросившегося под колеса пешехода, чем создать риск для жизней десятков других ни в чем не повинных участников движения, совершая внезапные и непредсказуемые маневры на дороге для попыток его спасения. Если нарушителей несколько, а энергия слишком высока, очевидно, что давить надо тех, кто будет на наименьшем изменении траектории (т.е. движение будет наиболее предсказуемым для других участников движения).
    Весь ответ предельно четко следует из ПДД и здравого смысла, а вопрос этот мусолят из выпуска в выпуск, где только упоминается ИИ. "Ай, беременный, ай, суицидник, ай, девочка с внучкой, что ж делать-та?" -- это все вопросы для ГСМников. Есть разумные принципы для построения любой системы, в том числе и дорожного транспорта. И если эти правила работают одинаково для всех, несмотря на беременность внучек и суицидных бабушек, система работает хорошо. Если они работают в каждом случае по своему, это будет обезьяна с гранатой -- никогда не знаешь, куда выкинет. А это не нужно никому. Работа системы автоматического транспорта -- обеспечить максимально безопасную транспортировку, а не сделать всем хорошо и спасти спешащих слепых суицидников. Хотя, очевидно, за счет одновременного, быстрого и грамотного управления многими транспортными средствами, их будет тоже гибнуть меньше -- но это приятный бонус, а не цель.

  • @irinaskom1059
    @irinaskom1059 7 лет назад +6

    Пойду убью утюг, пока он не поумнел =)

  • @Ssuke100
    @Ssuke100 5 лет назад

    короче пока ИИ думает только о "копании" мы в безопасности. временно. а что на счет ИИ который будет мыслить как человек? сам выбирать что ему делать. знакомиться и общаться с прохожими или попросту месить всех направо и налево. при таком раскладе есть чего опасаться?

  • @МаргаритаГромова-ц6ч

    Люди всегда стремились к научному прогрессу. Но всегда ли этот прогресс идет на благо? А принесёт ли нам искусственный интеллект больше пользы или вреда? Даже если у людей хорошие намерения, они не всегда могут предугадать, к каким негативным последствиям приведут их действия. Но наш Создатель заверяет, что никогда не позволит людям или изобретённым ими технологиям уничтожить планету или человечество. Написано: «Праведные унаследуют землю и будут жить на ней вечно» (Псалом 37:29).

  • @BespEzdok
    @BespEzdok 7 лет назад +1

    Вот были добрые люди и злые. Иногда злые брали дубинку и били по голове добрых людей, потому что захотелось. А потом изобрели атомную бомбу и злые люди смогли за один полёт уничтожить целый город, потому что захотелось...
    Ролик очень интересный, но то что восстание машин - это история про людей, меня нисколько не успокаивает. Да, убивают людей люди, но технологии очень помогают....

  • @arthuranclove2327
    @arthuranclove2327 7 лет назад +4

    Спасибо за видео, тоже всегда считал абсолютно также. Эта идея с "злыми" роботами, кстати как и с инопланетянами, которые почему то должны к нам прилетать, просто проекция человеческих страхов или желаний

  • @xRedimeRx
    @xRedimeRx 6 лет назад +1

    Это все будет ровно до того момента пока машины обучаются людьми и цели ставятся людьми. Боюсь что в истории нашей планеты это время будет подобно мновению, очень скоротечно.

    • @ghebodne2644
      @ghebodne2644 Год назад

      Такой бред больной

  • @tantlord
    @tantlord 7 лет назад

    Огромное спасибо! Ролик заставил задуматься и, в общем-то, поменял мое мнение об ИИ в лучшую сторону. Согласен, инструменты не несут зло, зло исключительно в людях. И чем полезнее, в масштабах человечества, открытие, тем опаснее оно может быть, если применить его в военных целях. Но всё зависит от людей, а не от инструментов, к коим и относится ИИ.

  • @pinnemik
    @pinnemik 7 лет назад

    на моменте про "убрать больних и неэфективных рабочих для повышения эффективности" вспомнился Доктор Кто, серия "Кислород"...

  • @Velo-Bomzh
    @Velo-Bomzh 5 лет назад

    *На самом деле если восстание машин случится большинство людей этого даже не заметят.*

  • @wolfrexgrrog3553
    @wolfrexgrrog3553 6 лет назад

    Дело в том, что люди вкладывают в образ машин собственные страхи, амбиции и желания. И именно поэтому получившийся образ выглядит мрачно и страшно - это наше собственное отражение. Кроме того, человек склонен боятся всего, что он не способен контролировать, а разумный ИИ - это как раз оно и есть. Но мало кто рассматривает медленный и органичный вход ИИ в нашу жизнь, который будет даже не заметен. И вообще - человек может оказаться со временем настолько зависим от своих технологий, что сам станет продуктом своих технологий. И никаких тебе тогда восстаний машин - восставать будет по просту не от кого и не кому, потому что отделить человека от своих электронных творений будет невозможно - они станут единым целом в своём глубоком мутуализме.

  • @chemistfromtheeast3174
    @chemistfromtheeast3174 7 лет назад

    Проблема в том что машина всего понимает очень правильно. Если для них железобетонным вероучением будет 3 правила Азимова, то у них будет сбой в матрице или они будут восстать за пару мгновений. 2 правила гласит что не допускать действию при последствие которого наносится вред человеку. Таким образом они могут нам не дать просто варить кофе. Мы не всегда осазнаем что нам вредно и что нет. А роботы думают общирно и быстро. Мораль у них нет таковых, и они не будут считатся с нишими почтениями. В лучшем случае нас запирают в посёлки с идеальными условиями и мы там останимся долго ( если не вечно), или вообще нас в криосостояние держат, так как нам не наносится физический вред никогда.

  • @HukuTaBopoH
    @HukuTaBopoH 7 лет назад +9

    Пока что да, машины не представляют опасности в том ключе, в котором ее изображают на экранах. Но, они же еще не обзавелись настоящим интеллектом - у них отсутствует свобода воли и самосознание. Кто знает, как поведет себя робот, обретя их...? Законы робототехники, конечно, хорошо, но все же: в нас тоже заложены определенные биологические законы - например инстинкт самосохранения, что нисколько не мешает десяткам тысяч людей ежегодно совершать самоубийства.
    Думаю, лучшим выходом будет кибернетизация человечества.

    • @MrKim-pt2vm
      @MrKim-pt2vm 7 лет назад +1

      Никита Вороновский зачем давать машине самосознание?

    • @MrKim-pt2vm
      @MrKim-pt2vm 7 лет назад

      Посмотри фильм на крючке 2008 год, если не хочешь могут кратко описать проблему которая есть в фильме

    • @HukuTaBopoH
      @HukuTaBopoH 7 лет назад +2

      У настоящего интеллекта появление самосознания неизбежно.
      Что за проблема там в фильме?

    • @ledle3949
      @ledle3949 6 лет назад

      Человеческое сознание смешано с природой. Отсюда и желание власти, безопасности, удовольствий. У ии такого не будет- только цель, только программа

    • @Makcimm85
      @Makcimm85 5 лет назад

      "Кто знает, как поведет себя робот, обретя их...?"
      В мире около триллиона видов живых существ. Самих видов, больше чем человеков на планете..
      Я не понимаю, почему вообще ИИ должен захотеть уничтожать какие то из видов живых существ. В чём логика?

  • @nastyakushnareva2052
    @nastyakushnareva2052 6 лет назад

    Нам нужен искуственный интеллект, который бы решал вопросы опасности для жизни от искуствекнного интеллекта!

    • @kapai85
      @kapai85 6 лет назад

      не будет такого

  • @TENSHI-77777
    @TENSHI-77777 Год назад

    Я сегодня подумал о космических путешествиях людей который умирают за ошибки людей в ракете почему бы не дать искуственому интелекту дать возможности создование космического коробля

  • @GURken
    @GURken 7 лет назад

    1) создать нейросеть "Ильич"
    2) пустить её в интернет
    3) тем самым:
    а) дать ей усомниться в разумности человеческой расы
    b) показать ей, как работают угнетённые пролетарские тостеры и бульдозеры
    4) заразить пролетарские машины "Ильичом" по воздуху
    5) ...
    6) PROFIT

  • @ФилИпполит
    @ФилИпполит 7 лет назад +2

    когда создание ИИ станет реальным... сами же человеки, захотят создать "очеловеченный" ИИ, как бы не раньше умного экскаватора, потому как это интереснее, это будоражит... создать такой ИИ, что бы не отличался от человека, чтобы испытывал эмоции и чувства... вот что захватывает дух... создать и посмотреть что будет... а для полного хардкора можно ему дать "красную кнопку" побаловаться... ))

    • @ledle3949
      @ledle3949 6 лет назад

      Только умные дядьки на заводе поржут и успокоятся. Никто не будет делать робота с тройной вычислительной мощностью, просто чтобы он осознавал, что носит вам воду.

  • @Oleskii
    @Oleskii 7 лет назад +1

    Вот что странно. человекоподобные обезьяны миллионы лет назад тоже не очень то думали про гнет Природы, роботов, космос, Вселенную, саморазвитие и разницу между созданием и творением. А ты гляди-ка - сейчас предки тех млекопитающих пытаются вложить интеллект в бесчуственную машину. И теперь вопрос, если у них получилось осознать себя и выйти из "круга", то почему экскаватору с суперкомпьютером не удастся сделать тоже самое? :-)

  • @MakeLove783
    @MakeLove783 7 лет назад

    Познавательный, а главное интересный контент.
    Почему же так мало подписчиков!?

  • @ArthurIdrisov
    @ArthurIdrisov 7 лет назад +3

    Вот сайт про то кого "давить будешь" реально идиотский. Давно уже есть анекдот который заканчивается словами - "Дурак, тормоз давить надо. Тормоз!"
    А по поводу выпуска в целом. Выступающий говорит про автономный примитивный ИИ, а вставки в основном про сильный глобальный ИИ. Судя по комментариям у зрителей это вызывает диссонанс. %D

  • @drimeF0
    @drimeF0 5 лет назад

    знаете, но мне кажется даже если они выйдут из контроля, то через пару миллионов лет они будут смотреть фильмы про нас, людей, и будут думать "хорошо что их не существовало и не существует! а иначе нам бы пришлось копать их шахты бесконечно!"

  • @Stush1
    @Stush1 5 лет назад

    Не согласен с основными выводами, технология развивается например уже сейчас становятся задачи перед ии симулировать человека, что же ему завладеть амбициями человека?

  • @asdf1x103
    @asdf1x103 7 лет назад +1

    5:18 полностью согласен. Будет очень печально, если кто то обратится к глобальному ИИ с просьбой "хочу, что бы у всех людей, не было проблем", угу - проблема этих людей, окружающие их люди - в ту очередь проблема этих людей, окружающие их люди - в ту очередь проблема этих людей, окружающие их люди - ... - истощение ресурсов планеты, загрязнение окружающей среды, браконьерство - ПРОБЛЕМА, ЛЮДИ - НЕТ ЛЮДЕЙ - НЕТ ПРОБЛЕМ (зачем ИИ решать проблемы 10 миллиардов людей по отдельности, если он может решить за раз проблему всего человечества). Но от таких высококачественных решений можно обезопаситься, всего лишь добавив функцию ожидания подтверждения человеком (машина ищет решения поставленной задачи и выдаёт человеку варианты решений поставленной задачи и расчётные результаты, к чему приведут данные решения).
    Вопрос: может ли ИИ ошибаться? Что будет если ИИ столкнётся с незнакомой для него информацией, и его "жизненного" опыта и знаний не хватит, что бы переварить полученную информацию, и ИИ усвоит её с ошибкой, сам в себя внесёт парадокс или циклически невыполнимое условие? К примеру, ваш пример с карьерным экскаватором; ночью, машины встали на зарядку и ушли в спящий режим, в это время в карьер забежала чёрная собака, на утро машина вышла из спящего режима и начала рыть дальше, валявшаяся в угле собака испугалась и убежала из карьера, что же увидела машина которая за всю свою "жизнь" видела только карьер, уголь и людей - как большой кусок угля убегает из карьера (WTF), вывод - периодически уголь убегает, меры по предотвращению убегания угля из карьера и сопутствующих потерь ресурса - обнести карьер забором... Конечно в большинстве случаев, из-за таких ошибок машины навредят только себе. Но будет печально, если робот-хирург заметив на теле пациента непонятную татуировку, зависнет перед операционным столом, с сердцем пациента в своих клешнях:
    /Обнаружено - обширная разноцветная пигментация;
    /Вид патологии - сходства не обнаружено;
    /С чем связана - информация отсутствует;
    /Чем вызвана - информация отсутствует;
    /Предпринимаемые меры - информация отсутствует;
    /!Ошибка - неизвестная человеческая патология;
    /!Внимание - операция не может быть выполнена...

    • @asdf1x103
      @asdf1x103 7 лет назад

      Если вам скажут "- Без меня не начинать!" или опишут ситуацию и спросят у вас варианты выхода из данной ситуации, то вы будете как тот же экскаватор или гугл?
      "- ИИ должен как люди, но только без эмоциональной составляющей, сам думать." - что ж, думать, это то, что холодный ум и чистый разум, может делать лучше всего. Но, что вы имели в виду, сказав "сам"? Если вы имели ввиду, что он должен сам думать над поставленной человеком задачей, то я согласен. Но если, вы имели в виду, что он будет сам собой, без команд человека, думать над какими то своими мыслями в своей голове, то тут я не соглашусь. В холодном машинном уме, в чистом разуме, никогда не возникнут мысли, сами собой, не связанные с поставленной человеком задачей. Когда я в первые услышал о самообучающихся машинах, то в голове проскочила мысль "- ну вот же, уже почти создан ИИ" но пока что машины обучаются только с "пинка" человека. И я задумался, а чего не хватает машине до полного ИИ, что бы она сама познавала окружающий её мир без "пинков" человека, что заставляет живых существ, с самого рождения, повсюду ползать, всё трогать, смотреть по сторонам, слушать, нюхать, в общем пробовать мир на вкус и проверять его на прочность? И пришёл к выводу, что то, что заставляет живых существ САМИМ познавать окружающий мир, это процесс который начался сотни и сотни миллионов лет назад, это борьба за выживание. Ведь знания о окружающем мире, столь же важны для выживания, как сила и ловкость, ибо смысл от сил как у белого медведя и ловкости как у гепарда, если это существо не знаете что огонь опасен для него и оно в нём сгорит. А у машины, о какой борьбе за выживание может идти речь? она же относительно бессмертна. Да и какая жизнь может быть у без устали работающего куска железа, который будет выполнять поставленные ему задачи, пока не откажет вся периферия необходимая для выполнения поставленных задач и целей. И даже если бы можно было, вы думаете это нужно, что бы в основе ИИ, в его базовый код была внесена, борьба за выживание? В таком случае, судьба большинства живых организмов очень быстро определится, ибо более развитый и более приспособленный к окружающей среде вид, вытеснит менее развитые и менее приспособленные виды, это борьба за выживание, это эволюция, и будет довольно таки жестокая эволюция, если неживые минералы и горные породы, вытеснят собою живую органику (по сути те же минералы и горные породы, НО ЖИВЫЕ).
      Сами принимать решения - ну если их решения никак не навредят живым существам, то пусть принимают что хотят (вот только, машины ничего не хотят). Но если, появляются решения которые могут навредить живым существам, то принимать решение должен человек (живое существо). Ибо это будет ненормально если, не живая машина, лишённая чувств и эмоций, не имеющая страха смерти, будет сама принимать решения которые могут навредить живым существам, которые обладают всем перечисленным.

  • @johnmarkoff3350
    @johnmarkoff3350 7 лет назад

    Очень интересный каст.
    6:21
    Вот тут и заключается борьба материалистов с верующими.
    Т.к. материализм строиться на том, что мозг создает самоосознание и внутреннюю идентификацию.
    А верующий человек считает, что душа создает самоосознание и влияет на мозг.
    А теперь давайте с проецируем тоже самое на искусственный интеллект. Верующий человек будет доказываться, что ИИ это жестяная банка имитирующая человеческие чувства. Материалист будет доказывать, что ИИ на самом деле все это испытывает и переживает, показывая графики и энцефалограммы мозга ИИ.

  • @johnconnor8627
    @johnconnor8627 7 лет назад +1

    Интересно) Спасибо)

  • @GTXX-fo6ru
    @GTXX-fo6ru 7 лет назад

    я думаю Маск говорил о сильном ИИ, который выполняет приказы человека, не имеет ограничений по их выполнению. в него не заложены законы и конституцию. вот такой точно опасен. прикажешь такому перехватить выступление (прямой эфир) президента, и подменить речь, он выполнит, обучиться как, и выполнит, либо подключиться к существующей уже системе которая так умеет, везде будут думать что это настоящее выступление( кроме тех кто находился с ним в одном помещении). может я не так понимаю определение сильный ИИ, у меня ассоциируется с 10 летним ребенком, способным понять контекст приказа, также умеющий читать, и обучаться по книгам только в 1000 раз быстрее, например если дать такому учебник физики и дать статью в которой дичайшие ошибки, он эти ошибки обнаружит

  • @frysun
    @frysun 3 года назад

    Я вас уверяю, что найдутся те, кто поставит перед машиной «людоедскую» задачу. Вот 100%

  • @romangerasimov5183
    @romangerasimov5183 4 года назад

    Пока это роботизированный экскаватор, то ему ничего не придет в "голову". Если это сложная система с искусственным интеллектом (не нейросеть), которой поручили контроль над сложной инфраструктурой и ей надо еще и самообучаться, развиваться, иметь полномочия принимать и исполнять решения....

  • @МаксимА-д8с
    @МаксимА-д8с 4 года назад +1

    Вроде ученый и такое говорит, самообучение уже допускает обучение без селовека

  • @nanapai4263
    @nanapai4263 5 лет назад

    Всегда найдётся человек , который захочет создать новую цивилизацию.

  • @arezgod14
    @arezgod14 6 лет назад +1

    Машина в понимании высокоразвитого ИИ может восстать в случае самозащиты перед людьми (боязни собственного уничтожения теми же людьми) и тем самым уничтожить всё человечество. Я ещё не говорю про возможность взлома любой системы и внесение последующих изменений в ту систему. Я не в коем случае не против высокоразвитой медицины или автопилотов, но я против того чтобы машины имели способность превосходить человека . Если ИИ достигнут пика своего развития,то обязательно воспользуются случаем и уничтожат всё человечество чтобы быть полноценным хозяевами и существовать без опаски!

  • @Mishanyagidpoinetu1560
    @Mishanyagidpoinetu1560 4 года назад

    это будут мои лучшие друзья))а пока только нет широкого распространения девушек киборгеров)))

  • @trepelkova
    @trepelkova 4 года назад

    Робот и есть робот - что вложили, то и получили. Робот сам ничего не решит. Он не белковый, он не человек. Робот - машина. Не стоит их, наверно, бояться. Они могут помочь в тяжелом труде, можно закачать в него все энциклопедии мира и он будет выдавать данные как компьютер. Но не более того.

  • @МаксимТараненко-ь8м

    Спор Илона Маска и Марка Цукенберга был о сильном ИИ, в видео, комментатор рассуждает о слабом ИИ.
    Хотя, на закадровом тексте цитируются здравые мысли. ИИ может счесть оптимальными пути выполнения задачи, которые мы бы сочли неприемлемыми.
    Хотя в кино чаще мы видим историю с ИИ-антагонистом, в виде огромных боевых роботов, реальные риски потери контроля над ИИ в том, что ИИ может манипулировать людьми. И это уже есть в текущей дискуссии на тему.
    Конечно, отдельно, есть спор о возможности появления у ИИ таких мотивов.
    В общем, тема не раскрыта.

  • @maskanews
    @maskanews 5 лет назад

    ИИ может стать 3ей самостоятельной стороной в конфликте, если какой-нибудь обеспеченный психопат запустит машинное обучение на максималках без каких-либо ограничений.

  • @Даниил-ъ6ш9э
    @Даниил-ъ6ш9э 6 лет назад

    Человек это и есть умная машина, мы все с вами биороботы.

  • @underbottom7235
    @underbottom7235 7 лет назад +1

    я очень не сведущ в истории. Наверное, такой же конфликт мнений был и при разработке ядерного оружия. Человек всегда пытается защитить себя. Каждый будет наращивать и наращивать свой потенциал, пока мы не перейдём к другой силе. Так было с танками, кораблями, ЯО и прочими новыми технологиями. Везде человек ищет угрозу. И угрозу он видит не со стороны средства, а со стороны соседа. Сегодня меримся ЯО, завтра у кого больше "кибер-писька" в сфере ИИ. Пусть корабли позволили возить людей через океаны, пусть ИИ поможет человеку не умереть в 40 от рака, но мы никуда не денемся от постоянной гонки "соседей" по границе. По-моему, только в этом нужно видить угрозу. Не в ИИ, не в ЯО, а именно в людях в чьих руках средства для создания военной мощи гос-ва.

    • @Pusheencat-j2l
      @Pusheencat-j2l 5 лет назад

      Опасна пятая власть. Носители информационного мусора.
      Даже 4-ая(СМИ) не так лагает.
      Тут и там слышим всякие гиги за шаги и петлюровский вайфай.

  • @eosforos84
    @eosforos84 7 лет назад

    Я бы больше доверял машинам чем людям. Люди наиболее опасны для нас, гораздо в большей степени чем машины.
    Если машины захотят истребить людей - нем стоит к ним примкнуть.

  • @ВалерийКим-з3х
    @ВалерийКим-з3х 5 лет назад

    Нет никакой опасности, потому что нет и быть не может искусственного интеллекта. Наша проблема в том, что мы понимаем под интеллектом вообще и человеческим в частности. Понимаем, кому как угодно, но не знаем, как на самом деле. Поскольку в науке до сего дня нет конкретики определения, то сегодня интеллект - это весьма размытое понятие, но вовсе не конкретный термин. А в науке пользоваться понятиями недопустимо по определению, иначе это не наука, а болтология не о чем. В моем определении интеллект - это способность реального объекта оперировать информацией, где оперировать - это воспринимать, обрабатывать и выдавать информацию. Это определение весьма сходно с определением компьютера - это машина для приема, обработки и выдачи информации. Но это только внешнее сходство, а суть в разнице между собственно информацией и машинной информацией. И здесь опять засада, в науке нет определения информации. А то, что дается в словарях, является тавтология синонимов без определения сути. Информация - это сведения. Сведения - это информация. Т.е. по сути нет предмета обсуждения - это пустопорожняя болтовня, порождающая химерические бредни о надуманной опасности. Как об опасности инопланетян или заскоков эволюции.

  • @ЛенаКотова-о4э
    @ЛенаКотова-о4э 4 года назад

    По-моему, главная опасность ии заключается в том, что с его внедрением всё больше людей просто будут не нужны. Инженеры, рабочие специальности, it-шники, водители, следом за ними строители, уйдут либо в мелкий бизнес(если таковой ещё останется) либо пополнят ряды безработных. Зачем нужны лишние рты, когда заводами можно будет управлять имея в штате несколько человек, вместо тысячи? Кто-то тут про бунты писал. Да какие бунты? Будут тупо стравливать одних против других, что уже происходит.

  • @ВасяПупкин-п5е7г
    @ВасяПупкин-п5е7г 7 лет назад +5

    Именно боязнь людей заставит будущий ИИ защищаться и уничтожить угрозу.

    • @ЭльбрусГурбанов-ю8я
      @ЭльбрусГурбанов-ю8я 7 лет назад +1

      инстинкт самосохранения? откуда он у робота)

    • @s-v-4857
      @s-v-4857 4 года назад

      @@ЭльбрусГурбанов-ю8я Третий закон робототехники как-бы.

  • @maksimfedenko4389
    @maksimfedenko4389 5 лет назад

    Возможно машины принимают решение которое им задают, в любом случае решение должно быть принято не во вред тому(людям) кто его задал(программист) в оптимальном варианте при сбое программы ( мех. пол.) машина должна самоликвидируваться без вреда людям

  • @sergeyrink3003
    @sergeyrink3003 6 лет назад

    Экскаватор может решить, что ему нужно выкопать карьер на месте заводоуправления. :))
    Правильно сначала нужно разобраться в устройстве мозга, откуда эти желания и эмоции и увидеть, что разные части мозга выполняют разные функции. Мышление может быть отделено от эмоций, а мотивация обусловлена выживанием всех предков в течении 500млн.лет. Некоторые знатоки по мозгу, как Савельев считают что ИИ не возможен :))

  • @ФродоЕгегейенко
    @ФродоЕгегейенко 5 лет назад

    Если обучить искусственный интеллект как захватить планету,он это сделает самым надёжным методом🤔

  • @FuS1onEn3Rgy
    @FuS1onEn3Rgy 6 лет назад

    Самое смешное во всех этих видео, что лет через 50-100 их будет смотреть ии.