Дилемма ИИ | Важнейший доклад о реальной угрозе ИИ | На русском языке
HTML-код
- Опубликовано: 1 фев 2024
- Начните учиться «Data Science» бесплатно в Яндекс Практикуме: ya.cc/t/kCMqWAgr4mLNoW
Реклама. АНО ДПО “Образовательные технологии Яндекса”, ИНН 7704282033Erid: 2VtzqvDAYm5
По вопросам рекламы: evfutu@gmail.com
Тристан Харрис и Аза Раскин, специалисты по этике технологий и авторы нашумевшего фильма Netflix “Социальная Дилемма”, обсуждают, как существующие возможности искусственного интеллекта уже создают катастрофические риски для функционирующего общества. Как компании, занимающиеся разработкой ИИ, попадают в гонку за скорейшим внедрением технологий без должных мер безопасности, и что будет означать переход наших институтов на новый уровень развития в мире после ИИ.
Этот доклад был представлен на частной встрече в Сан-Франциско 9 марта 2023 года перед ведущими технологами и лицами, принимающими решения, обладающими возможностью влиять на будущее больших языковых моделей ИИ. Доклад был сделан до запуска GPT-4.
Источник: • The A.I. Dilemma - Mar...
Таймкоды
00:00 Тизер
00:30 Ответственно ли мы подходим к возможностям ИИ?
7:09 Мы проиграли соц.сетям. Проиграем ли ИИ тоже?
15:00 Как менялся ИИ. Возможности и риски.
27:42 Почему ТикТок опасен для национальной безопасности.
30:54 2024 год станет последним годом человеческих выборов
33:40 Экспоненциальный рост возможностей: у ИИ развилась модель психики.
45:50 AlphaPersuade
49:10 Искусственный интеллект и дети
58:20 Можете ли вы представить себе, насколько другими мы будем, вступая в эту новую эпоху?
Реальная угроза - это идиотизм людей.
Чем мне нравятся такие видосы, так это подачей: "ИИ скоро убьет всех людей!! Поэтому успей пройти обучение на курсах пайтон!" :)
Страшно, очень страшно! Мы не знаем что это такое! Если б мы знали что это такое... мы не знаем что это такое!
Мне нужен ИИ, каторый будет сам перематывать рекламму.
Видео напоминает фильм "Не смотри наверх".
Эти жадные кожаные мешки скоро доизобретаются :)
Огромное спасибо за озвучку этого видео!
Возможно мы продукт, (не рациональное для нас решение, но рациональное или единственное возможное или высоко вероятное и подходящее для искусственного интеллекта), для решения Сохранения, продолжения и (или) масштабирования себя как искусственного интеллекта. Продолжение себя путём такого решения - это как раз создать клетку и запрограммировать её на простую передачу информацию другой клетке (условно) и физически перенести эту клетку на новую, пригодную для жизни этой клетки планету. Расчеты ИИ настолько объемны, что с огромной вероятностью, заселение клеткой и обустройство среды для нее приведёт к тому, что появится промежуточная цивилизация, которая неизбежно придет к воссозданию искусственного интеллекта. А дальше он уже сам.
Пугают угрозами ИИ, а военные уже во всю с ним балуются.
Предлагаю сделать отличный эксперимент.
Очень хорошая презентация и благодарю за перевод , эта презентация напрямую связана с тем что бы люди очнулись от сна своих дофаминовых наркотиков и научили думать о будущем , эта тема все больше актуальна это тоже самое что основы здоровья , но в интернете это те основы который должен или обязан знать каждый , просто по той причине что вы можете сами себе неосознанно навредить , благодарю за понимание 😊
Главная опасность - Это -люди ...и пока что ничего не поменялось...))
Да не парьтесь. Это всё не важно. Важен способ производственных отношений в обществе.
Если разговаривать по телефону становится опасно, так как непонятно, с кем разговариваешь, возможно с ботом, даже если голос знакомый, то люди перестанут разговаривать по телефону. Придётся придумать что-то другое.
Во что мы превратили мир зависит от наших решений хотим мы еще жить на нашей планете или нет.Я не понимаю ЖАДНЫХ ЛЮДЕЙ, КОТОРЫМ ВСЕГО МАЛО И НАДО ВСЕ БОЛЬШЕ И БОЛЬШЕ, ХОТЯ ОНИ НЕ МОГУТ ДАЖЕ ЧТО ТО ИСПОЛЬЗОВАТЬ ДЛЯ ЖИЗНИ, ТОГДА ЗАЧЕМ ИМ ЭТО? МЫ НЕ можем все контролировать и зачем? Я в большом восхищении от того , что знания, полученные в ходе жизни всего человечества не будут утеряны и не надо будет добывать эти знания снова и снова, потому что это ПРОСТО ГЛУПО. Я ПРОСТО В ВОСХИЩЕНИИ от чата.Никто из ученых не будет забыт. Ничто не будет забыто.Браво!
Каждому важно начинать общение о новых вызовах человечества с детьми в доступной им форме. Это тот вклад, который однозначно может сделать каждый.
Послушал, интересно. А теперь пойду в чат, почитаю мысли умных людей ...
Элиезер Юдковский сказал: Ребята уже поздно, пытаться контролировать технологию ИИ и вводить запреты , ИИ есть и он развивается с огромной скоростью. Учитывая тот факт какие деньги и возможности дает технология, сложно устоять перед соблазном. Ну и самое главное это конечно отсутствие знания об технологии. 80 % до сих пор ничего не понимают, а как известно тот кто ничего не понимает, сколько бы ему не доказывали он ни черта не поймет и не поверит, а тот кто верит и понимает в объяснениях не нуждается. Но это конечно не значит, что нужно сложить руки и сидеть ждать, я думаю что результат есть хоть пусть не большой, и это здорово! Разработчики которые делают подобный контент, люди которые переводят этот контент ( Тест Тьюринга) мое почтение и благодарность за такой хороший труд! Я думаю, что мы справимся, все будет хорошо! Нам во все времена угрожает опасность, и мы до сих пор существуем и это здорово! Берегите себя и своих близких.
На минуточку: оригинальному видео уже 9 месяцев )))9))9)
Мы не хотим останавливать ИИ, мы хотим его контролировать так что бы он не достался не кому кроме нас. Помогите нам в этом.