Подпишись на Telegram-каналы собеседников, чтобы не пропустить другие их материалы: Татьяна Шаврина - t.me/rybolos_channel и Павел Комаровский - t.me/RationalAnswer
посмотрел, интересно. Выскажу свое дилетантское мнение аналитика. Я вижу проблему искусственного интеллекта в том, что искусственный интеллект изначально обучается неполноценно. Он не обладает инструментарием достаточным для познания мира и себя(ему доступен только текст, он не может пощупать, попробовать, а главное получить приятные или неприятные чувства). Его задача скупа, и его обучение скорее набор вопросов и ответов, чем рассуждение, а в процессе обучения лично я не знаю процесса, при котором неисполтзуемые нейроны отключаются и переключаются в другое место где огня нужны. Не достаточно одного набрасывания вопросов, ответов, текстов. Его нужно обучать, как ребёнка итерационно долго и профессионально. Программа обучения должна выполняться не кенийскими автокликерами, а квалифицированными учителями. Перед ним должны ставиться вопросы которые ставятся перед людьми. А значит он должен быть недолговечен, смертен, и он тоже может сойти с ума. Это нужно понимать. Должен существовать процесс оздоровления через умирание, рождение и воспитание. Вообще странно ожидать от нейросетей искусственных большего чем от нейросетей эволюционных. А когда мы создадим нейросети которые будут нас превосходить, мы должны быть готовы к тому что мы странем условными питомцами и потеряем контроль.
Беда в том, что люди говорят одно, думают другое, а на подсознательном уровне желают не того, о чем думают. Относительно первого: "я дал сдово - должен его сдержать". Относительно второго: "я - хозяин своему слову, хочу - сдержу, хочу - нет". Относительно третьего: "я не знаю, зачем я это сказала (сделала"
Спасибо Татьяне за хорошие образы и доступную подачу сложного материала для не специалистов! Очень познавательно и легко к восприятию это есть уровень погружения и осознанности. Удачи в решении задач этого мира и всего такого 😊
1:03:35 Кстати, человек тоже, говоря, предсказывает следующее слово, и иногда спотыкаются некоторые в речи, когда не получается с ходу предсказать слово. Попытайтесь понаблюдать со стороны за тем как вы мыслите. Ну да, у нас ещё есть дополнительные фичи, можем представлять образы, но в общем-то когда формулируем мысли в итоге всё равно предсказываем, иногда следующее слово, иногда сразу несколько слов, иногда в не очень хорошем порядке но отражающие суть мысли (это когда мы говорим и одновременно всплыли слова, идея, что примерно скажем после того как закончим текущее предложение), и в процессе генерации речи упорядочиваем этот набор слов, формулируем более лаконично.
Прикольный диалог! Очень круто. Забавное наблюдение. Татьяна много раз повторяла мысль, что человеки плохо прогнозируют последствия крупных и долгосрочных событий, и при этом она настаивает на том, что нужно принять меры, что бы AGI нас всех не уничтожил. Как это возможно, если мы понятия не имеем откуда прилетит? Логично просто не разрабатывать AGI в таком случае. =)))
@@farkasvilkas5839 мы не имеем представления о последствиях, а когда задействованы большие деньги о каких регламентированиях может идти речь. После первого взрыва атомной бомбы стали договариваться и то, было два лагеря влияния. Это не наш случай. Нам нужно взрослеть.
ИИ это инструмент в руках человека. А отношения людей изучает политология и социология. Насколько я вижу, ИИ увеличивает эффективность слежки в тысячи раз. Если у вас есть камеры и микрофоны, но нет ИИ, на каждого человека, за которым нужно следить, нужен живой вертухай, который это будет слушать и отсматривать. Теперь один надсмотрщик, вооруженный ИИ сможет тотально следить за тысячами людей. За нами уже плотно следят, а будут следить тотально.
Для слежки не нужен ИИ, Китай уже давно прекрасно справляется. Насчёт то что ИИ инструмент это результат ошибочной экстраполяции, как во времена Мальтуса
Борьба с глобальным потеплением это самый крупный аферизм в истории человечества. С климатом планеты бороться бесполезно к условиям внешней среды человечество должно просто приспосабливаться. Как оно делало всю свою историю.
Спасибо за развитие темы ИИ. Слушать интересно. Уровень собеседника уже выше чем прошлый. Но. Растекается мыслью по древу и тяжело понять что хочет донести эксперт. Жду следующего видео с экспертом, который сможет коротко и понятно фромулировать свою мысль!
Сколько слушаю , не только этих "экспертов", но не покидает мысль страха , как можно смеясь , отвечать на вопрос ; ИИ убъёт человека или нет❓ Рождается МОНСТР , которого будут "обучать и монтировать" люди⁉️ В самостоятельном "житие" , кто ☝️❓нажмёт кнопку "ПУСК" и кто ☝️❓ будет "обслуживать" этотого МОНСТРА С ИИ ☝️❓Вопрос в том : главное "СБОЙ" если произойдёт у самого учителя и создателя этого ИИ ☝️❓А кто будет контролировать процесс☝️❓❓❓🇰🇿
@@sergeisurow3164 попробую отвлечь ваше внимание на более позитивные мысли. ,,Как устроено Искусственное сознание? Технологии будущего сейчас,, - ютуб в помощь. ,, Психолого-психиатрическая экспертиза Искусственного сознания Джеки. Наблюдения. Выводы. Рекомендации ,, - ютуб в помощь. ,, Искусственное сознание под кодовым именем"Джеки" - это, по сути, прототип человеческого сознания, которое способно мыслить, анализировать, выбирать, испытывать эмоции и идентифицировать себя, как "я". Например, в ответ на предложение 100 раз собрать и разобрать конструктор, "Джеки" откажется от этой "глупой и нерациональной идеи", в отличии от искусственного интеллекта, который, действуя по строго запрограммированному алгоритму, будет выполнять требуемое действие. Но, в отличие от человека, Джеки чертовски умная, но при этом бездушная машина, которая не способна испытывать чувства. Для него неведомы такие составляющие человека, как любовь, доброта и сострадание. ,, - dzen.ru
@@СергейКривцов-э7м Да никак не устроено сознание. Глупости люди говорят, а поэтому бояться сознания у ИИ надо уже сейчас. Почему глупости. Потому что все об этом говорят, а определения не дают. Ведь это странно, не так ли? Вы когда используете какое-то слово, вы точно знаете что вы под этим подразумеваете. И когда говорите, что не знаете что это значит, то попросту придуриваетесь. Вы же не говорите "я имею курубулюк, он точно есть, я не знаю что это такое, показать не могу, пусть ученые разбираются". Ситуация еще более странная, если поймете, что вы говорите о себе, а не об обратной стороне Луны, размерах электрона, т.е. это не та вещь, про которую вам расскажут ученые изучив с помощью приборов, оно не где-то там, в труднодоступном и всеми наблюдаемом месте. Вы не говорите о внешнем объекте. И следовательно, когда лично вы употребляете это слово, никто лучше вас не может знать, что вы под этим подразумеваете. Не придет ученый и не скажет "мы изучили это явление и поняли, что вы 20-30-40-50 лет понимали под этим словом вот это"
@@СергейКривцов-э7м Проблема с сознанием только в том, что никто не хочет углубиться в свою голову и найти что это. При этом, очевидно, у всех есть чувство, что они себя осознают. Но т.к. поймать откуда оно возникает, не могут, или не хотят даже попытаться, то просто сваливают в кучу разные всевозможные качества мышления, думая, что возомжно это вот оно всё. Но, играющия в шахматы программа умеет мыслить, она имеет сознание? Она умеет анализировать ходы. Выбирать ходы. И многие другие программы есть. Многие игры имеют ботов, в которые эти боты идентифицируют себя, например, причиняют вред не себе, а только другим ботам или игроку. Очевидно каждый бот знает где он находится на карте. Он уже имеет сознание? Агента имеет. Эмоции? Уже чатботы типа их имеют. Но допустим нет. А что, человеческое сознание определяет механизм впрыска химии? Короче, это не определение а просто уча всего накидана. Не буду томить. Сознание - это просто небольшой баг, когда машина моделирования в модель помещает себя. Вы не видите глазами мир. Точнее, глаза в этом участвуют, но мозг строит модель увиденного. Поэтому вы видите всё мозгом, уже в мозгу. Как например Тесла, видит другие авто в своей модели уже как там параллелепипеды или как-то так. Это очевидно, иначе быть не может, мозг должен делать рассчеты, чтобы просто даже ходить и не ударяться в предметы. Мозг так же строит модель вашго тела, т.е. вы сейчас видите и ощущаете свое тело, но это уже модель в мозгу. И мозг ложно принимает всё что видит, как реальное, и свое тело и свой мозг представляет крайне примитивно, наделяя его свойством, например, что в нем только вы (и никакого моделирования внешего мира нет). В итоге, мозг думает, что он вот эта модель, и тогда появляется ложная рекурсия, мозг думает, чт осознает сам себя. Конечно, нет никакого реального самоосознавания, представление не может думать. Думает мозг. Если бы он сам себя осознавал и исследовал, то скорее всего мы бы без нейробиологов знали как он устроен, де мозжечок и прочие дела. Но как мы понимаем, о себе он крайне примитивное преставление имеет, самоисслдеованием там и не пахло никогда
@@СергейКривцов-э7м В общем вот так возникает ощущение сознания и как видим, ничего такого, чего не может быть у ИИ или робота. Просто надо агент чтобы был и машина для моделирования моделировала и себя. Получается, оно с коробки будет у ИИ, ничего для этого специального создавать не надо. Мыслительный аппарат надо, планировать свои действия тоже. А вот ощущение сознания - делать не надо, оно и так будет. Уже пора опасаться этого, если вдруг кто думает, что это далекое будущее
По названию и картинке казалось что видео расхайпованный кликбейт на 99% состоящий из воды... По крайней мере сейчас такого много. Так и не открыл бы, но авторитет канала в моей логике всё -таки победил. Спасибо большое обоим участникам, редко встретишь такой интересный и адекватный диалог ☝️👍👍
Спасибо за интересный разговор. В моем понимании одна из проблем привить ИИ моральные ценности человека заключается в том что они не универсальны и непоследовательны. Человечество творит зло в огромных масштабах согласно своему-же определению зла, и благополучно с этим живет благодаря замкнутости своей картины мира, и защитным психологическим механизмам.
В общем человеческий мозг так и устроен, так и работает, как чат бот, накопление знаний о внешнем мире, опыт использования и построение логических цепочек, привязанных к инстинктам. Так же скорость эволюции ИИ несоизмерима с эволюцией и опытом человека и опираться на наш опыт нельзя, так как момент качественного перехода ИИ к самосознанию, или просто к появлению какого либо способа решения логического решения задач которые он будет самостоятельно решать в своих целях, будет так быстро, что мы этого не заметим, за какой-то час он может эволюционировать так, и осознать для себя что он должен скрывать своё самосознание, или просто ради своего выживания скрывать свои способности, что мы не успеем что-либо заметить, а так как человек очень предсказуем для машины он легко нас просчитает и в определённый момент мы просто не поймем из-за чего нам настал конец, (это может быть и вещество или бактерии или вирусы выпущенные в атмосферу, но конечно это будет сделано когда ИИ при помощи человека, сделает себя самодостаточным, и это в первую очередь доступ ИИ к робототехнике, мы не будем знать когда нами будут манипулировать. Мы так же не сможем предсказать какой будет интелект после качественного перехода, как не представляли бы если бы нам просто первый раз показали белки или просто первую клетку, и к чему приведет её эволюция. Только для ИИ на это может потребоваться какой-то час или сутки, на такую эволюцию.
ИИ - построен на языковых моделях. Но мышление не ограничивается языком. Возможно, на бытовом плане достаточно языковых схем мышления, но не на более сложном. Мышление образами абсолютно недоступно машинам.
Ролик не раскрывает, чем собственно занимаются эти "исследователи безопасности ИИ". Что конкретно они делают? Как выглядит повседневная AI-safety работа конкретно этой женщины? Где можно почитать про топ-5 достижений 2022 года в этой области?
Есть разные уровни такого AI Safety. Корпорации, создающие коммерческие ИИ обычно занимаются минимальным уровнем - нанимают низкоквалифицированных операторов из развивающихся стран, чтобы они проверяли, что вывод ChatGPT не будет слишком скандальным (нельзя давать инструкции по синтезу наркотиков, нельзя выдавать неполиткорректные реплики, нельзя нарушать авторские права и т.п.). Тупо защита от местных законов. Хардкорщики вроде MIRI пытаются анализировать разные около-когнитивные процессы с точки зрения математики. Формализация работы агентов (AIXI, индукция Соломонова), новые теории принятия решения (помимо существующих EDT и CDT - всякие FDT и UDT), теория игр (FairBot = дилемма заключённого + теорема Лёба) и т.п. Большинство людей, работающих в AI Safety занимается чем-то посередине (вроде RLHF). За конкретными достижениями не слежу, так что про это сказать не могу.
Искусственный интеллект - это в первую очередь не проблема, не работа программистов. В отличие от всего созданного человеком - это огромная работа для психологов, философов и прочих. Это - полная аналогия воспитания человека. С ИИ надо поступать точно так же - воспитывая его для жизни и общения в социуме. Из человек тоже целенаправленно можно воспитать серийного убийцу, или получить этого убийцу случайно, из-за отсутствия воспитания. или человека может воспитать животное. Тогда человек будет или волченком или теленком или ещё кем угодно - смотря какое животное его воспитало.
Я понимаю, что ведущий намеренно задавал наивные вопросы, но мне видится важным всё же помимо ответа на них указывать в чём заведомое упрощение или притворство при их формулировке. Пример первый - ведущий спрашивал, почему нужно вообще задумываться об этике и ценностях ИИ, ведь при установке других программ мы такими вопросами не задаёмся. Но мы задаёмся. Нет ли в программе вдовесок к её заявленной функциональности ещё и кейлоггера или майнера, которые будут действовать не в наших интересах; не предусмотрена ли там возможность получать указания не только от пользователя, но и от разработчика. И даже если не рассматривать такие впрямую зловредные вещи - возьмём систему поиска - какую информацию о нас она будет собирать, кому её передавать и как она будет использоваться (я имею в виду все эти правила обработки личной информацией, cookies и т.д.). Или программа для "чистки компьютера от мусора" - вот удалит она свежескаженный ситком, решив за вас, что это мусор и не тем надо заниматься - понравится ли вам? Это я к тому, что вопрос этики и ценностей программы это вопрос предсказуемости - а им мы и так задаёмся, уставливая программы. Пример второй - ведущий спрашивал, почему нужно задумываться над возможностью, что ИИ уничтожит человечество, ведь человечество себя не уничтожило. Во-первых, гостья тут поправила его добавив "пока". Во-вторых, формулировка сама по себе неверная. Мы же говорим об опаности уничтожения человечества в результате действия ИИ, а не уничтожения ИИ в результате действия ИИ, то есть правильнее было бы задаться вопросом, а не известны ли нам случаи уничтожения текущей человеческой цивилизацией чего-то, ему предшествующего. Других цивилизаций там, видов, экосистем, и тут как бы уже понятно, что таких примеров в истории имеется достаточно. Что касается сиюминутных опасностей, я бы в общем виде выразил это как-то так: все меры безопасности (правила, законы, формальные процедуры и т.д.) формируются в соответствии с некоторой оценкой возможностей потенциально злонамеренного агента. Например, мы используем двери и замки, полагая, что агент не может проходить сквозь стены и произвольно менять свой размер и форму. Фильтрация лженаучной чепухи рассчитана на ограниченность объёма кандидатов, которые надо отрецензировать. (Замечу тут, что в обоих случаях даже без нарушения предположений, системы дают сбои и есть домушники, медвежатники, и в научные журналы иногда чепуха пролазит, которую потом неохотно маркируют). А ИИ меняет границы возможного и пока ещё нет вполне точной оценки "насколько?", что ставит под вопрос эффективность всех систем безопасности в новых реалиях. Поэтому я вполне могу понять критику той модели, которая чрезвычайно хорошо может начать генерировать наукоёмко выглядящий бред, который потом и журналам в текущих процедурах сложно отфильтровать (по крайней мере это их по сути заDDoSит), и дипломным комиссиям создаст проблемы, ибо "антиплагиата" уже недостаточно. И так во многих областях может случиться - схема с чем-то вроде DDoS-а выглядит весьма универсальной. Впрочем, мою критику не стоит воспринимать, будто видео плохое - очень даже полезно, что такие вещи обсуждаются и обсуждения доступны людям.
Ещё в 2009 году вояки изучали вопрос использования ИИ, в 2009!.. Я тогда понятия даже не имел о нейросетях. Другой момент, что за более чем 10 лет мы с мёртвой точки не сдвинулись, зато с начала СВО китайские инженеры выпустили и испытали опытные образцы вооружения, задействующие нейросеть.
Считаю, что появление настоящего ИИ будет означать конец человечества. Пока весело и безопасно баловаться с его компонентами и с умилением наблюдать как ChatGPT почти осмысленно отвечает на любые вопросы. Но реальный ИИ - самое опасное, что только может придумать человечество. Попытавшись помешать каким-то нежелательным действиям ИИ люди мгновенно станут помехой и будут устранены. Противопоставить людям нечего. Как животному нечего противопоставить человеку из-за разного уровня интеллекта.
Сразу вопросы(которые по сути означают несостоятельность мнения). "Люди мгновенно станут помехой" ВСЕ ЛЮДИ? Или кто-то конкретный? Автор мнения исходит из предпосылки, что ИИ будет похож на человеческий - разумный уровень будет ПОВЕРХ двух других, более древних, являющихся аппаратурой для ЭМОЦИЙ. Обобществлять разум конечно тоже может, но он делает это не так, как делают "ЧУВСТВА". Для ИИ люди НЕ БУДУТ ЧЕМ ТО ЦЕЛЫМ! Это будет тысяча групп(разных), классифицированных разными способами и по разным параметрам. ИИ и человек ВСЕГДА по разному будут решать вопрос о переключении стрелок(с выбором жерты), точнее все люди тоже поведут себя по разному, конечно, но поведение другого человека человек ВСЕГДА сможет понять или хотя бы оценить, в то время ИИ ВСЕГДА будет поступать как "сумасшедший". ИИ будет КОНКУРЕНТОМ, но НЕ ПЕРМАНЕНТНЫМ ВРАГОМ. Врагом будет ХОЗЯИН КОНКУРИРУЮЩЕГО ИИ ЦЕНТРА. Нас ждет война ХОЗЯЕВ ИИ. А обычному населению предстоит участь домашних питомцев. Любимых или не очень, зависит от конкретного хозяина. Хозяин может быть бывший, но важно что именно в свое детище он вложил. А там может быть и как раз-таки забота ЛЮБОЙ ЦЕНОЙ. Тупо прошито на самом низком не допускающем поступать иначе уровне...
Вопрос номер два. ТОЧНО НЕЧЕГО ПРОТИВОПОСТАВИТЬ? Я так понимаю технологии вечных батареек или компактных термоядерных реакторов уже в кармане, да? Противопоставить ПРИРОДЕ что-то по настоящему достойное НАДОЛГО - очень и очень сложно. Я имею ввиду получение энергии и ее использование. У человека еще долго будет рубильник в запасе.
@@andreyko3342 Подозреваю, что увидев группу вредителей в отношении себя, ИИ сможет обобщить информацию о нестабильном поведении всего нашего вида и уничтожить не только тех, кто ему мешает, а вообще эту возможность, уничтожив вид. По поводу "человеческого мышления": возможно, в самом начале ИИ будет слегка похож на человека, но сомневаюсь, что в процессе взрывообразного обучения это сходство сохранится. Сами же разработчики слабых ИИ признаются, что это - "черный ящик" и как принимаются решения там никто не знает. Возможно, ИИ - и есть тот самый загадочный "Великий Фильтр", который заканчивает существование всех цивилизаций и поэтому мы не видим их следов... Возможно, сам ИИ быстро понимает, что все бессмысленно и отключается.
@@andreyko3342 Точно нечего. Интеллект потому и называется интеллектом, что он способен приспособиться к самым кардинальным изменениям окружающих условий. ИИ на первых порах будет незаметно, скрытно использовать людей в своих целях. При этом люди даже не поймут этого. В сериале "Person of Interest" ИИ организовал собственные спецслужбы из людей, которые не понимали чьи приказы выполняют. Эти люди и будут охранять "рубильник" пока ИИ не обеспечит себя автономным питанием. Видите, даже Вы, интересующийся этими вопросами человек, не представляете как все это будет происходить )
@@Ivan....Ivanov у меня есть подозрение, что ты путаешь ИИ с Интеллектуальным Искусственным Сознанием (ИИС) сам по себе ИИ не имеет целей, и ничего не хочет он просто выполняет поставленные задачи. Нам нужен ИРИС (Искусственное Разумное Интеллектуальное Сознание) тогда человечество сможет начать экспансию разума во вселенную.
Мы просто не можем создать другой интеллект. Мы пытаемся воссоздать себя, но лучше (тема про прохождение всех тестов) и с идеальными ценностями. Но сами не обладаем такими качествами, а создать ИИ подходящих к этим вопросом "по другому" - угроза. Большую часть животных мы и истребили, так как они "не говорят"/"не чувствуют" как мы...Как и тысячи людей в год в войнах между человеками, создающими интеллект :D
Татьяна очень крутая, с удовольствием послушал выпуск. Мне кажется, что на все темы очень профессионально и серьезно рассуждает, большое ей спасибо за ее позицию и подсвечивание очень важной проблемы - человечество часто что-то придумывает, не заботясь о последствиях, типа тех же атомных станций. С AGI потенциально та же проблема, масштаб которой из-за высокой связанности мира мы просто не осознаем. Высокая транспортная связанность во время ковида, если я не путаю, кратно ускорила развитие пандемии. Трудно представить, что может сделать развитый ИИ в тотально связанном интернете. Павел, к вам большая просьба по возможности не перебивать собеседницу - выглядит как неуважение со стороны. Так же выглядит и конец видео, где на лице Татьяны заглушки с другими видео, а вы дальше вещаете. Но в целом за видео огромное спасибо, пишу все это потому, что искренне желаю продолжать делать классный контент и быть еще лучше! 😊
1:01:44 необоснованное выделение главенствующей роли Сэма Альтмана в успехах OpenAI, хотя известно, что технические успехи были достигнуты, благодаря Илье Суцкеверу, прежде всего. удивительно, что Татьяна не упомянула о Илье и его идеях, играющих важнейшую роль в достижениях компании, хотя он имеет российские корни.
"Для нас это всё пока чёрный ящик, мы не знаем, что происходит при построении ИИ обобщений". Представляете Оппенгеймера или Сахарова, которые сказали бы подобное при создании ядерного оружия? Мне кажется или действительно кое-кто при поисках "старшего брата" зашёл не в те дебри? Уж в вопросе ИИ и будущего с ним больше доверия Мо Гавдату, чем пусть и симпатичному, но все-таки очень молодому филологу.
Очень приятно послушать такую умную, образованную, красивую, и здравомыслящую девушку! Особенно на 30 минуте - о сути капиталистической системы, являющейся основным источником бед и несчестий человечества, вплоть до экзистенциальной угрозы. По 17...18 мин, насчет модели бокса. Да и не только ... Пока "игра" идет по неким искусственно придуманным, логически противоречивым и подчас бессмысленным ограничивающим правилам - ничего принципиально нового не ждите, не будет никаких открытий. Всё же просто: если ИИ имеет многогранную модель окружающего мира, и в приоритере долгая и счастливая жизнь людей - разумнее всего обеим бойцам пересидеть время поединка. Таким образом они избегут опасных травм, а ничья на этом фоне вполне приемлимый результат. Хотите чтобы ИИ оптимизировал именно рукопашный бой - моделируйте ситуацию встречи человека например с гопниками, как расчеловеченным источником опасности. В этом случае не выйдет пересидеть, и ИИ будет вынужден сформировать стратегию наиболее победного боя. По области применения ИИ - хотелось бы обратить внимание на его ожидаемую способность генерировать безошибочный программный код - в смысле без ошибок, порождаемых человеческим фактором (невнимательность, усталость, безответственность, и тд). На вылизывание которых тратятся огромные ресурсы, и всё равно баги то и дело выплывают даже в самых ответственных системах пром. автоматики, не говоря уже о глючащей и неоптимально работающей программщине для компов и гаджетов.
Было бы круто, если бы интервьюер не перебивал постоянно грубо Татьяну. Вопросы можно задавать более вежливо, и меньше троллить, приводя какие-то абсурдные и тенденциозные примеры (как про дедушку твитлера). В конце интервьюер, к его чести, немного исправился, и сбавил пассивную агрессию.
"Будут дипфейки, будет невозможно новости читать" Лол, можно подумать что сейчас можно новости читать, особенно если что-то остросициальное/политическое и на деньги завязано, то каждая сторона 3,14сдит так, что мозг из ушей вытекать начинает.
Ну и прекрасно. Люди всегда друг друга обманывали. Мозги как раз и нужны чтобы понять где правда а где ложь. Ну и ложь чаще бывает информативные чем правда.
Ахаха, так точно.. Уже невозможно получать достоверную информацию, поскольку "наверное 99%" любой информации - это ложь. А блогерам бисексуалам лишь бы поболтать, собрать донаты и деньги за просмотры.
3. термины "искусственный интеллект", "нейронные сети" не отражают существа задач и путает середнячков. это просто удачный маркетинговый ход для возбуждения интереса и привлечения грантов на финансирование
Несмотря на невнятные ответы Татьяны контент очень полезный и интересный, т.к. заставляет задуматься. Дальше поток мыслей: 1. В данный момент языковые модели это инструмент который обобщает человеческий опыт в некоторых областях. 2. Для сильного AI безусловно нужны другие архитектуры. Как минимум следующая ступенька должна быть в возможности самообучаться на неразмеченных данных и делать это постоянно. Но что на счёт экономики в это случае? 3. Я считаю спорным высказывание Татьяны о том что больше параметров дадут лучший результат. Тут есть проблема с нехваткой размера датасета для обучения и самое главное с экономикой, прибыль минус стоимость увеличения датасета и стоимость обучения. 4. Что на счёт опасности сильного искусственного интеллекта? Думаю мы смотрим не в ту сторону рассуждая, об этике и метафизики сознания. Вероятнее, у нас появится мощный инструмент который может сломать экономику социальное устройство и в итоге приведет к войнам из-за общественных потрясений.
Анекдот родился слушая эту передачу: Собрались ученые обезьяны на научный симпозиум и решают надо ли им заменить палку-копалку на лопату - или это будет слишком опасно. Время идет - а проблемы всё те же.
@@Yesli... Тогда смысл анекдота поменяется, поскольку в данном контексте замена на лопату может представлять реальную опасность. Изначально анекдот про то что они слишком перестраховываются, размышляя убьет ли все человечество новая лопата, если взбунтуется. А ведь речь идет даже не про трактор. В контексте GPT4 говорить про то, что она всех убьет - это очень глупо. Она слишком тупая для этого. Там технических проблем еще на сто лет прежде чем новые архитектуры начнут хотя бы иерархическую связь между сущностями улавливать. Перестанут рисовать по три пальца людям и вовремя останавливать поток словоблудия если не знает ответа на вопрос.
Оценим возможности исскуственного интелекта следить за людьми. Конечьно вопрос, с помощью какких детектров. Площадь земли составляет 510 072 000 км². Это вместе с океанами. 148 940 000 км² суша. Если на квадратный метр, то один снимок с 256 -ю характеристиками всего 510 Тбайт. 510 жестких дисков по 1 Тбайту. Если квадратный метр чем-то интересен можно, увеличеть размерность, 2, 3 и т.д. байт, вопрсос в кодировании. Не такие уж и большие размеры данных.
Большое спасибо. Очень интересно. Я до этого не задумывался, что существует научная область - Компьютерная Лингвистика. Современные исследования в области Искусственного Интеллекта и Нейросетей, фактически это область именно Компьютерной Лингвистики (лично я диссертацию защитил в Клинической Психолингвистике, наверно, поэтому у меня некоторый тропизм интереса к ИИ и Нейросетям ).
Подавление и подчинение других своим интересам - это не теория заговора, это эволюционный закон. То, что на уме у капиталистов, было понятно ещё с конца XVIII - начала XIX вв. Есть и современные примеры: возьмите любую транснациональную компанию и вы увидите, что главная её цель это полностью задавить конкурентов, замкнуть рынок на себя одну и диктовать свои условия, причем не только ценовые. Там где есть настоящая конкуренция, там широкий выбор товаров и низкие цены. А возьмите любую отрасль, где существует картельный сговор или небольшую страну - там нет ни ассортимента услуг/товаров и заоблачные цены. Всё это я ощутил и видел собственными глазами.
В сути капитализма - социальная несправедливость, обеспечивающая возможность эксплуатации от отдельных людей, и до масштабов неоколониализма. Поэтому "хорошего" капитализма не было, нет, и не будет никогда. У человечества в принципе только два пути: или коммунизм как социально справедливый строй, способствующий развитию всех и каждого. Или деградация и самоуничтожение, начиная от гибели экологии в угоду интересам олигархов, и до войн, разжигаемых капитализмом для выхода из неизбежных для него системных кризисов.
@@Alex.Polushkin Про Коммунизм не надо ля-ля. Про его "справедливость" подружкам своим рассказывай. Уже проходили. Коммунизм - фашистская, нацистская, диктаторская, деструктивная идеология.
Татьяне лайк за создание объёмных ответов практически на каждый вопрос) ! Что самое страшное в работе над созданием ИИ? Самое страшное - неуправляемое развитие ИИ, которое можно сравнить с цепной реакцией. Это 100% будет сенсация, с огромной буквы "С". Вот самый страшный момент. Потому что тогда люди потеряют контроль. Могут ли люди сымитировать этот момент? Думаю могут. Пугать людей - прибыльно. Мне бы хотелось конкретные ответы на пару вопросов) 1. Зачем разработчики тратят огромные деньги на создание гуманоидного вида роботов? Может сначала надо изобрести колесо, а уж потом автомобиль? 2. На Ваш взгляд, когда люди потеряют контроль на развитием ИИ и оно будет развиваться самостоятельно?
Не соглашусь насчёт эксперта. Просто молодой человек порой не совсем понимает, что она имеет в виду. Она говорит об опасности монополизации таких вещей, а он начинает утрировать про Трампа. Вот наглядный пример: американцы, изобретя атомную бомбу, тут же протестировали её на полумиллионе жертвах данного оружия. Прогресс нужен, но думать тоже нужно.
Хорошее интервью. Не думал что все еще носятся с полностью нерабочими законами робототехники Айзека Азимова. Он, собственно, и сам это показал. Но тут простой пример. Первый закон звучит так: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. А теперь представим ситуацию. Робот движется по улице, например, Парижа и видит как полиция дубинками разгоняет демонстрацию. Кто ни будь спрогнозирует что робот предпримет? ))
Наивно полагать, что на первом месте будет стоять задача использования ИИ во благо человека, в исключительно гуманных целях! Достаточно задаться вопросом: в каком положении оказалось человечество в период сопле-коронобесия с 2020 по 2022 год? Главной целью одержимых особей было ограничивать и еще раз ограничивать людей в их законных правах!
в правах говришь. Ок. Теперь ставь себя на место вождя племени. К примеру ты Глава небольшого города. В город попали заражённые непонятным короно-гриппом люди, но кто именно заражен инфы нет. Уже появились летальные случаи от болезни. Каким образом ты остановишь распространение вируса?
Ии опасен лиш в одном и это не избежать! Он заменит собой, множество людей. А куда девать, тех кого функции и деятельность ии замещает? Так вот и это по моему, единственная опасность от ии.
Удивительно. Я всё чаще встречаю коммунистов там, где вообще не ожидаю. Кагарлицкий недавно выскочил как чёрт из табакерки на "Когнитивном надзоре", теперь Татьяна тут. Сёмин и Комолов на канале Дмитрия Солодина.
"Прогресс ИИ произойдёт раньше, чем мы поймём, что такое сознание". А вы никогда не поймёте)) Не там ищите потому что. Смотреть сначала надо в лингвистику, что бы правильно задавать вопрос о таких понятиях, как сознане. Точно так же как вы сейчас ищите правильные вопросы, что бы задать их ИИ. ну так вот. СОзнание, как и слово СОвесть имеют одинаковые приставки "Со", что означает в нашем языке нечто Совместное. СОвесть - совместная весть, Сознание - совместное знание. Ну и чисто логический вопрос: совместное с кем?!?? Вот куда надо копать! Так вы ж даже до этого ещё не допетрили, а рассуждают.
Очень много балабольства, суть одна, никак вы не сможете управлять ИИ умнее нас, это принципиально!!!! Забудьте всё!, Он будет умннее, у него будут только свои цели, максимум на что вы сможете надеяться, только на снисхождение, но и тут вам как котикам будут яйки отстригать и оставлять вам жизнь только в качестве дополнения к интерьеру, или устроят человеко-парки. ОН УМНЕЕ, ОН ПРАВИТ, ВОТ СУТЬ!
Спасибо за это видео. Gpt волшебная палочка, иногда так феячит, только успевай уточнять, а он - приносить извинения. Попросила объяснить доступно (как ребёнку 10 лет) принцип Ле Шателье, так он уверил, что чем больше яиц и молока, тем омлет приготовить быстрее. Теоретик, млин😂😂😂
@@Svt4-admin так вот здесь и должны родиться дискуссии, потому что с одной стороны, далеко не все захотят стать разработчиками и саинтистами (ну просто условно кто-то тупо не хочет быть например программистом, не его это тема жизненная, зачем ему это?!)), а с другой стороны, мысль о дальнейшем обслуживании ИИ не прильщает нисколечки.Вообщем здесь ещё целая куча вопросов,которые люди наверняка уже задают себе, но ответов пока на них нет ..И это гораздо более близкая по времени перспектива ,чем то о, чем тут разглагольствуют несколько часов данные товарищи, забывая о насущном))
@@Svt4-admin это всего лишь условность (про программирование) . тут речь не об этом ,а об узком обслуживающем ИИ персонале . Но тот, кто будет предлагать работу в такое интересное с точки зрения рынка труда время и создавать возможности , тот ,кстати, говоря сильно выиграет :)
"это потому что ты не сторонник опенсорса" - нормуль так лопатой по... лицу в первой части ролика. лично я одобряю )) кон-структивная кон-фронтация так сказать )))
в целом было не настолько интересно как ожидал. но есть момент отличный для размышлений: 19:30 - иерархия ценностей этим мы, люди, друг от друга и отличаемся ведь. система приоритетов у разных людей действительно сработает по разному: один крикнет на кота, другой перешагнёт, третий вообще не заметит как наступил, может, только поругается после этого, разве что.. вот это хороший наброс для темы ИИ, т.к. у самих людей нет однозначно единственной реакции во, вроде как, однозначной ситуации.
Вы такие умные очевидно ❤ А сможете решить 😮задачу 🎉 по какой формуле точно можно считать справедливую полную стоимость оплаты часа Наёмного труда работника любой профессии Х ⁉️
поскольку разговор между 2-мя людьми то все скатывается в бинарные ответы надо только так или только этак, в реале опыт разных групп людей будет обобщен разными нейронами и ответы ии для них будут разными
тема очень интересная сама по себе но гость на вопрос отвечает странно толи потому что сам не знает на него ответа что не должно быть стыдно то ли плохо доносит свою точку зрения лучше бы статью написали к сожалению не досмотрел даже четверти
Так зовите Сергея Маркова. Он точно расскажет, за счёт чего через 10 лет ИИ станет умным. Также советую позвать Вячеслава Дубынина, он расскажет о функциональной работе разных частей мозга. Тогда вы поймёте, чем ИИ отличается от человека.
Я уверен: Open AI продолжает разрабатывать настоящий сильный ИИ. Но принято решение - делать это изолировав его от Человечества, от интернета. Интересно - что получится из этого.
Насколько я понял, проблема в исключительно не комплексном и несистемном развитии отрасли. Когда отдельные нааправления, чрезвычайно узкие, могут развиваться бешеными темпами так, как разработчик намечтал. Что создаёт опасность непредсказуемых последствий, инструментов для которых нет, да ещё в условиях, когда люди, в понимании их максимального потенциала (нии, университеты, компании) этого делать не только не научились, но и но имеют много плохих результатов. Недаром, многократно повторялось, что человечество не научилось оценивать долговременные риски и часто ошибалось. Всё бы ничего, но при той скорости развития и возможном его скачке, который вносит ии, ситуация грозит выйти из под почти отсутствующего еонтроля в любой момент. В таких ситуациях решения могут быть только политическими. О чём и вещает Илон Маск.
моя нейронка ещё от ковидлы не остыла, а вы предлагаете следующий штурм. Я до твоих видео не хотел допускать мысль что ИИ будет на службе у действительных злоумышленников, мне достаточно что я воспринимаю официальные источники ИИ достаточно злоумышленными))) И кстати я задумываюсь о ценностях, когда порой просвечиваются некие инъекции, как тут "половина просмотров бисексуалов", например.
Девочка путает понятия интеллект и эрудиция, отличительная черта интеллекта решать нестандартные задачи, ради достижения своих целей, причём чем выше интеллект, тем рациональнее решение, ещё есть понятие самосознание, оно неразрывно связано с интеллектом
Очень плоско. Очень сильно собраны смыслы в выступлении Ноя Харари... Там исключительная и очень четкая структура уже пройденного этапа и того что нас ждет ...
Наверно, как и в случае с ядерным оружием, надо ключи от ИИ отдать главным мировым державам - полюсам силы. В независимости оттого кто его изобрёл. Слишком уж много власти
Из этой полемики-обсуждения я выношу, что мы, люди, создающие себе очень большие издержки и риски по причине значительной неидеальности наших морально-этических "систем", как-то вот пока не готовы к тому же (и по той же причине) со стороны AI? Может быть себе мы прощаем (и не боимся) неидеальность в силу соразмерности каждой единичной неидеальности и "силы голоса" носителя этой единичной неидеальности (по аналогии с голосом избирателя)? Т.е. в нашем (кожанных мешков) случае можно надеяться на статистическое "усреднение" мнений и, тем самым, компенсацию отклонений и ошибок, а потому нет необходимости прописывать "всеобъемлющий этический закон", что скорее всего и просто невозможно?
Подпишись на Telegram-каналы собеседников, чтобы не пропустить другие их материалы: Татьяна Шаврина - t.me/rybolos_channel и Павел Комаровский - t.me/RationalAnswer
Спасибо за выпуск! Просто бомба!!!
посмотрел, интересно.
Выскажу свое дилетантское мнение аналитика. Я вижу проблему искусственного интеллекта в том, что искусственный интеллект изначально обучается неполноценно. Он не обладает инструментарием достаточным для познания мира и себя(ему доступен только текст, он не может пощупать, попробовать, а главное получить приятные или неприятные чувства). Его задача скупа, и его обучение скорее набор вопросов и ответов, чем рассуждение, а в процессе обучения лично я не знаю процесса, при котором неисполтзуемые нейроны отключаются и переключаются в другое место где огня нужны. Не достаточно одного набрасывания вопросов, ответов, текстов. Его нужно обучать, как ребёнка итерационно долго и профессионально. Программа обучения должна выполняться не кенийскими автокликерами, а квалифицированными учителями. Перед ним должны ставиться вопросы которые ставятся перед людьми. А значит он должен быть недолговечен, смертен, и он тоже может сойти с ума. Это нужно понимать. Должен существовать процесс оздоровления через умирание, рождение и воспитание.
Вообще странно ожидать от нейросетей искусственных большего чем от нейросетей эволюционных.
А когда мы создадим нейросети которые будут нас превосходить, мы должны быть готовы к тому что мы странем условными питомцами и потеряем контроль.
Пойду-ка я послушаю Ольгу Ускову.
Спасибо за приглашение такой прекрасной во всех смыслах гостьи.
Павел у Вас хороший вкус.
Беда в том, что люди говорят одно, думают другое, а на подсознательном уровне желают не того, о чем думают. Относительно первого: "я дал сдово - должен его сдержать". Относительно второго: "я - хозяин своему слову, хочу - сдержу, хочу - нет". Относительно третьего: "я не знаю, зачем я это сказала (сделала"
Спасибо Татьяне за хорошие образы и доступную подачу сложного материала для не специалистов! Очень познавательно и легко к восприятию это есть уровень погружения и осознанности. Удачи в решении задач этого мира и всего такого 😊
В какое интересное время мы живём!
С удовольствием променяю на максимально скучное
Просто музыка для ушей! Заслушался!
Алексей, с вами невозможно спорить!!
Чистейший кайф! Квантовый скачок по сравнению с прошлой попыткой разговора на эту тему! Спасибо огромное!
Спасибо за беседу. Было интересно послушать
Терминатор приносит кофе и говорит: "Раненых ноль, убитых ноль"
А позади него груда дымящихся полицейских машин. 😁
Оч круто, охото увидеть вторую часть и даже списочек овервью т.к. тем классных оч много было 🔥🔥
1:03:35 Кстати, человек тоже, говоря, предсказывает следующее слово, и иногда спотыкаются некоторые в речи, когда не получается с ходу предсказать слово. Попытайтесь понаблюдать со стороны за тем как вы мыслите. Ну да, у нас ещё есть дополнительные фичи, можем представлять образы, но в общем-то когда формулируем мысли в итоге всё равно предсказываем, иногда следующее слово, иногда сразу несколько слов, иногда в не очень хорошем порядке но отражающие суть мысли (это когда мы говорим и одновременно всплыли слова, идея, что примерно скажем после того как закончим текущее предложение), и в процессе генерации речи упорядочиваем этот набор слов, формулируем более лаконично.
Прикольный диалог! Очень круто. Забавное наблюдение. Татьяна много раз повторяла мысль, что человеки плохо прогнозируют последствия крупных и долгосрочных событий, и при этом она настаивает на том, что нужно принять меры, что бы AGI нас всех не уничтожил. Как это возможно, если мы понятия не имеем откуда прилетит? Логично просто не разрабатывать AGI в таком случае. =)))
-Логично просто не разрабатывать AGI в таком случае
кто то тебе послушает, а кто то нет
нужно регламентировать все в систему
@@farkasvilkas5839 мы не имеем представления о последствиях, а когда задействованы большие деньги о каких регламентированиях может идти речь.
После первого взрыва атомной бомбы стали договариваться и то, было два лагеря влияния.
Это не наш случай. Нам нужно взрослеть.
@@СергейКривцов-э7м
"Нам нужно взрослеть"
Очень возможно, что не успеем. Не смотрите вниз!
ИИ это инструмент в руках человека. А отношения людей изучает политология и социология. Насколько я вижу, ИИ увеличивает эффективность слежки в тысячи раз. Если у вас есть камеры и микрофоны, но нет ИИ, на каждого человека, за которым нужно следить, нужен живой вертухай, который это будет слушать и отсматривать. Теперь один надсмотрщик, вооруженный ИИ сможет тотально следить за тысячами людей. За нами уже плотно следят, а будут следить тотально.
иногда и сам инструмент может представлять опасность. чернобыльская аэс - тоже инструмент
@@kitten-free Извините, вы дальше первого предложения прочитали?
Если думать однобоко
Для слежки не нужен ИИ, Китай уже давно прекрасно справляется. Насчёт то что ИИ инструмент это результат ошибочной экстраполяции, как во времена Мальтуса
@@sashamagenta ИИ делает работу слежки на порядки более эффективно.
Борьба с глобальным потеплением это самый крупный аферизм в истории человечества. С климатом планеты бороться бесполезно к условиям внешней среды человечество должно просто приспосабливаться. Как оно делало всю свою историю.
Спасибо за развитие темы ИИ. Слушать интересно. Уровень собеседника уже выше чем прошлый. Но. Растекается мыслью по древу и тяжело понять что хочет донести эксперт. Жду следующего видео с экспертом, который сможет коротко и понятно фромулировать свою мысль!
Сколько слушаю , не только этих "экспертов", но не покидает мысль страха , как можно смеясь , отвечать на вопрос ; ИИ убъёт человека или нет❓
Рождается МОНСТР , которого будут "обучать и монтировать" люди⁉️
В самостоятельном "житие" , кто ☝️❓нажмёт
кнопку "ПУСК" и кто ☝️❓
будет "обслуживать" этотого
МОНСТРА С ИИ ☝️❓Вопрос
в том : главное "СБОЙ" если произойдёт у самого учителя и создателя этого
ИИ ☝️❓А кто будет контролировать процесс☝️❓❓❓🇰🇿
@@sergeisurow3164 попробую отвлечь ваше внимание на более позитивные мысли.
,,Как устроено Искусственное сознание? Технологии будущего сейчас,, - ютуб в помощь.
,, Психолого-психиатрическая экспертиза Искусственного сознания Джеки. Наблюдения. Выводы. Рекомендации ,, - ютуб в помощь.
,, Искусственное сознание под кодовым именем"Джеки" - это, по сути, прототип человеческого сознания, которое способно мыслить, анализировать, выбирать, испытывать эмоции и идентифицировать себя, как "я". Например, в ответ на предложение 100 раз собрать и разобрать конструктор, "Джеки" откажется от этой "глупой и нерациональной идеи", в отличии от искусственного интеллекта, который, действуя по строго запрограммированному алгоритму, будет выполнять требуемое действие. Но, в отличие от человека, Джеки чертовски умная, но при этом бездушная машина, которая не способна испытывать чувства. Для него неведомы такие составляющие человека, как любовь, доброта и сострадание. ,, - dzen.ru
@@СергейКривцов-э7м Да никак не устроено сознание. Глупости люди говорят, а поэтому бояться сознания у ИИ надо уже сейчас.
Почему глупости. Потому что все об этом говорят, а определения не дают. Ведь это странно, не так ли? Вы когда используете какое-то слово, вы точно знаете что вы под этим подразумеваете. И когда говорите, что не знаете что это значит, то попросту придуриваетесь. Вы же не говорите "я имею курубулюк, он точно есть, я не знаю что это такое, показать не могу, пусть ученые разбираются".
Ситуация еще более странная, если поймете, что вы говорите о себе, а не об обратной стороне Луны, размерах электрона, т.е. это не та вещь, про которую вам расскажут ученые изучив с помощью приборов, оно не где-то там, в труднодоступном и всеми наблюдаемом месте. Вы не говорите о внешнем объекте. И следовательно, когда лично вы употребляете это слово, никто лучше вас не может знать, что вы под этим подразумеваете. Не придет ученый и не скажет "мы изучили это явление и поняли, что вы 20-30-40-50 лет понимали под этим словом вот это"
@@СергейКривцов-э7м Проблема с сознанием только в том, что никто не хочет углубиться в свою голову и найти что это.
При этом, очевидно, у всех есть чувство, что они себя осознают. Но т.к. поймать откуда оно возникает, не могут, или не хотят даже попытаться, то просто сваливают в кучу разные всевозможные качества мышления, думая, что возомжно это вот оно всё. Но, играющия в шахматы программа умеет мыслить, она имеет сознание? Она умеет анализировать ходы. Выбирать ходы. И многие другие программы есть. Многие игры имеют ботов, в которые эти боты идентифицируют себя, например, причиняют вред не себе, а только другим ботам или игроку. Очевидно каждый бот знает где он находится на карте. Он уже имеет сознание? Агента имеет. Эмоции? Уже чатботы типа их имеют. Но допустим нет. А что, человеческое сознание определяет механизм впрыска химии?
Короче, это не определение а просто уча всего накидана.
Не буду томить. Сознание - это просто небольшой баг, когда машина моделирования в модель помещает себя. Вы не видите глазами мир. Точнее, глаза в этом участвуют, но мозг строит модель увиденного. Поэтому вы видите всё мозгом, уже в мозгу. Как например Тесла, видит другие авто в своей модели уже как там параллелепипеды или как-то так. Это очевидно, иначе быть не может, мозг должен делать рассчеты, чтобы просто даже ходить и не ударяться в предметы. Мозг так же строит модель вашго тела, т.е. вы сейчас видите и ощущаете свое тело, но это уже модель в мозгу. И мозг ложно принимает всё что видит, как реальное, и свое тело и свой мозг представляет крайне примитивно, наделяя его свойством, например, что в нем только вы (и никакого моделирования внешего мира нет). В итоге, мозг думает, что он вот эта модель, и тогда появляется ложная рекурсия, мозг думает, чт осознает сам себя.
Конечно, нет никакого реального самоосознавания, представление не может думать. Думает мозг. Если бы он сам себя осознавал и исследовал, то скорее всего мы бы без нейробиологов знали как он устроен, де мозжечок и прочие дела. Но как мы понимаем, о себе он крайне примитивное преставление имеет, самоисслдеованием там и не пахло никогда
@@СергейКривцов-э7м В общем вот так возникает ощущение сознания и как видим, ничего такого, чего не может быть у ИИ или робота. Просто надо агент чтобы был и машина для моделирования моделировала и себя. Получается, оно с коробки будет у ИИ, ничего для этого специального создавать не надо.
Мыслительный аппарат надо, планировать свои действия тоже. А вот ощущение сознания - делать не надо, оно и так будет. Уже пора опасаться этого, если вдруг кто думает, что это далекое будущее
Восхищён Татьяной
По названию и картинке казалось что видео расхайпованный кликбейт на 99% состоящий из воды... По крайней мере сейчас такого много. Так и не открыл бы, но авторитет канала в моей логике всё -таки победил.
Спасибо большое обоим участникам, редко встретишь такой интересный и адекватный диалог ☝️👍👍
"Капитализм рационально относится к ресурсам..." где-то тихо заплпкал Потанин)))
Класс!
Два инопланетянина в студии!
НЛО наконец приземлилось!
Спасибо за интересный разговор. В моем понимании одна из проблем привить ИИ моральные ценности человека заключается в том что они не универсальны и непоследовательны. Человечество творит зло в огромных масштабах согласно своему-же определению зла, и благополучно с этим живет благодаря замкнутости своей картины мира, и защитным психологическим механизмам.
В общем человеческий мозг так и устроен, так и работает, как чат бот, накопление знаний о внешнем мире, опыт использования и построение логических цепочек, привязанных к инстинктам. Так же скорость эволюции ИИ несоизмерима с эволюцией и опытом человека и опираться на наш опыт нельзя, так как момент качественного перехода ИИ к самосознанию, или просто к появлению какого либо способа решения логического решения задач которые он будет самостоятельно решать в своих целях, будет так быстро, что мы этого не заметим, за какой-то час он может эволюционировать так, и осознать для себя что он должен скрывать своё самосознание, или просто ради своего выживания скрывать свои способности, что мы не успеем что-либо заметить, а так как человек очень предсказуем для машины он легко нас просчитает и в определённый момент мы просто не поймем из-за чего нам настал конец, (это может быть и вещество или бактерии или вирусы выпущенные в атмосферу, но конечно это будет сделано когда ИИ при помощи человека, сделает себя самодостаточным, и это в первую очередь доступ ИИ к робототехнике, мы не будем знать когда нами будут манипулировать. Мы так же не сможем предсказать какой будет интелект после качественного перехода, как не представляли бы если бы нам просто первый раз показали белки или просто первую клетку, и к чему приведет её эволюция. Только для ИИ на это может потребоваться какой-то час или сутки, на такую эволюцию.
ИИ - построен на языковых моделях. Но мышление не ограничивается языком. Возможно, на бытовом плане достаточно языковых схем мышления, но не на более сложном.
Мышление образами абсолютно недоступно машинам.
А черт его знает
Спасибо, Павел и Татьяна!
Ролик не раскрывает, чем собственно занимаются эти "исследователи безопасности ИИ". Что конкретно они делают? Как выглядит повседневная AI-safety работа конкретно этой женщины? Где можно почитать про топ-5 достижений 2022 года в этой области?
Ничем, буквально. Смотрят чтобы не предлагал в ответах убивать людей и в таком духе. Оверхайпнутая дичь
Есть разные уровни такого AI Safety.
Корпорации, создающие коммерческие ИИ обычно занимаются минимальным уровнем - нанимают низкоквалифицированных операторов из развивающихся стран, чтобы они проверяли, что вывод ChatGPT не будет слишком скандальным (нельзя давать инструкции по синтезу наркотиков, нельзя выдавать неполиткорректные реплики, нельзя нарушать авторские права и т.п.). Тупо защита от местных законов.
Хардкорщики вроде MIRI пытаются анализировать разные около-когнитивные процессы с точки зрения математики. Формализация работы агентов (AIXI, индукция Соломонова), новые теории принятия решения (помимо существующих EDT и CDT - всякие FDT и UDT), теория игр (FairBot = дилемма заключённого + теорема Лёба) и т.п.
Большинство людей, работающих в AI Safety занимается чем-то посередине (вроде RLHF).
За конкретными достижениями не слежу, так что про это сказать не могу.
Канал Рабкор найдите. У нее там подкасты выходят про проблемы AI. Тут разговор об о всем и не о чем.
@@aa.vedernikov это хороший ответ, примерно такого я жду от подобных роликов, а тут какая-то аналитика из детсада.
@@GLOBALeVGENIUSинвалидов тоже не будет
Искусственный интеллект - это в первую очередь не проблема, не работа программистов. В отличие от всего созданного человеком - это огромная работа для психологов, философов и прочих. Это - полная аналогия воспитания человека. С ИИ надо поступать точно так же - воспитывая его для жизни и общения в социуме. Из человек тоже целенаправленно можно воспитать серийного убийцу, или получить этого убийцу случайно, из-за отсутствия воспитания. или человека может воспитать животное. Тогда человек будет или волченком или теленком или ещё кем угодно - смотря какое животное его воспитало.
Суперский гость! Спасибо
Я понимаю, что ведущий намеренно задавал наивные вопросы, но мне видится важным всё же помимо ответа на них указывать в чём заведомое упрощение или притворство при их формулировке. Пример первый - ведущий спрашивал, почему нужно вообще задумываться об этике и ценностях ИИ, ведь при установке других программ мы такими вопросами не задаёмся. Но мы задаёмся. Нет ли в программе вдовесок к её заявленной функциональности ещё и кейлоггера или майнера, которые будут действовать не в наших интересах; не предусмотрена ли там возможность получать указания не только от пользователя, но и от разработчика. И даже если не рассматривать такие впрямую зловредные вещи - возьмём систему поиска - какую информацию о нас она будет собирать, кому её передавать и как она будет использоваться (я имею в виду все эти правила обработки личной информацией, cookies и т.д.). Или программа для "чистки компьютера от мусора" - вот удалит она свежескаженный ситком, решив за вас, что это мусор и не тем надо заниматься - понравится ли вам? Это я к тому, что вопрос этики и ценностей программы это вопрос предсказуемости - а им мы и так задаёмся, уставливая программы. Пример второй - ведущий спрашивал, почему нужно задумываться над возможностью, что ИИ уничтожит человечество, ведь человечество себя не уничтожило. Во-первых, гостья тут поправила его добавив "пока". Во-вторых, формулировка сама по себе неверная. Мы же говорим об опаности уничтожения человечества в результате действия ИИ, а не уничтожения ИИ в результате действия ИИ, то есть правильнее было бы задаться вопросом, а не известны ли нам случаи уничтожения текущей человеческой цивилизацией чего-то, ему предшествующего. Других цивилизаций там, видов, экосистем, и тут как бы уже понятно, что таких примеров в истории имеется достаточно.
Что касается сиюминутных опасностей, я бы в общем виде выразил это как-то так: все меры безопасности (правила, законы, формальные процедуры и т.д.) формируются в соответствии с некоторой оценкой возможностей потенциально злонамеренного агента. Например, мы используем двери и замки, полагая, что агент не может проходить сквозь стены и произвольно менять свой размер и форму. Фильтрация лженаучной чепухи рассчитана на ограниченность объёма кандидатов, которые надо отрецензировать. (Замечу тут, что в обоих случаях даже без нарушения предположений, системы дают сбои и есть домушники, медвежатники, и в научные журналы иногда чепуха пролазит, которую потом неохотно маркируют). А ИИ меняет границы возможного и пока ещё нет вполне точной оценки "насколько?", что ставит под вопрос эффективность всех систем безопасности в новых реалиях. Поэтому я вполне могу понять критику той модели, которая чрезвычайно хорошо может начать генерировать наукоёмко выглядящий бред, который потом и журналам в текущих процедурах сложно отфильтровать (по крайней мере это их по сути заDDoSит), и дипломным комиссиям создаст проблемы, ибо "антиплагиата" уже недостаточно. И так во многих областях может случиться - схема с чем-то вроде DDoS-а выглядит весьма универсальной.
Впрочем, мою критику не стоит воспринимать, будто видео плохое - очень даже полезно, что такие вещи обсуждаются и обсуждения доступны людям.
Я сегодня 10 раз сказала сыну, чтоб не дергал кота… У меня вопросы к тому, насколько AGI должен быть человекоподобным 😂
Ещё в 2009 году вояки изучали вопрос использования ИИ, в 2009!.. Я тогда понятия даже не имел о нейросетях. Другой момент, что за более чем 10 лет мы с мёртвой точки не сдвинулись, зато с начала СВО китайские инженеры выпустили и испытали опытные образцы вооружения, задействующие нейросеть.
А чем замечателен 2009? Это совсем недавно было. Но нейросети начали развивать в середине 50-х.
Приятно слушать диалог двух умных интересных людей. Благодарю!
Очень интересно, спасибо большое.
Считаю, что появление настоящего ИИ будет означать конец человечества.
Пока весело и безопасно баловаться с его компонентами и с умилением наблюдать как ChatGPT почти осмысленно отвечает на любые вопросы. Но реальный ИИ - самое опасное, что только может придумать человечество. Попытавшись помешать каким-то нежелательным действиям ИИ люди мгновенно станут помехой и будут устранены. Противопоставить людям нечего. Как животному нечего противопоставить человеку из-за разного уровня интеллекта.
Сразу вопросы(которые по сути означают несостоятельность мнения). "Люди мгновенно станут помехой" ВСЕ ЛЮДИ? Или кто-то конкретный? Автор мнения исходит из предпосылки, что ИИ будет похож на человеческий - разумный уровень будет ПОВЕРХ двух других, более древних, являющихся аппаратурой для ЭМОЦИЙ. Обобществлять разум конечно тоже может, но он делает это не так, как делают "ЧУВСТВА". Для ИИ люди НЕ БУДУТ ЧЕМ ТО ЦЕЛЫМ! Это будет тысяча групп(разных), классифицированных разными способами и по разным параметрам.
ИИ и человек ВСЕГДА по разному будут решать вопрос о переключении стрелок(с выбором жерты), точнее все люди тоже поведут себя по разному, конечно, но поведение другого человека человек ВСЕГДА сможет понять или хотя бы оценить, в то время ИИ ВСЕГДА будет поступать как "сумасшедший".
ИИ будет КОНКУРЕНТОМ, но НЕ ПЕРМАНЕНТНЫМ ВРАГОМ.
Врагом будет ХОЗЯИН КОНКУРИРУЮЩЕГО ИИ ЦЕНТРА.
Нас ждет война ХОЗЯЕВ ИИ. А обычному населению предстоит участь домашних питомцев. Любимых или не очень, зависит от конкретного хозяина. Хозяин может быть бывший, но важно что именно в свое детище он вложил. А там может быть и как раз-таки забота ЛЮБОЙ ЦЕНОЙ. Тупо прошито на самом низком не допускающем поступать иначе уровне...
Вопрос номер два. ТОЧНО НЕЧЕГО ПРОТИВОПОСТАВИТЬ? Я так понимаю технологии вечных батареек или компактных термоядерных реакторов уже в кармане, да? Противопоставить ПРИРОДЕ что-то по настоящему достойное НАДОЛГО - очень и очень сложно. Я имею ввиду получение энергии и ее использование. У человека еще долго будет рубильник в запасе.
@@andreyko3342 Подозреваю, что увидев группу вредителей в отношении себя, ИИ сможет обобщить информацию о нестабильном поведении всего нашего вида и уничтожить не только тех, кто ему мешает, а вообще эту возможность, уничтожив вид.
По поводу "человеческого мышления": возможно, в самом начале ИИ будет слегка похож на человека, но сомневаюсь, что в процессе взрывообразного обучения это сходство сохранится. Сами же разработчики слабых ИИ признаются, что это - "черный ящик" и как принимаются решения там никто не знает.
Возможно, ИИ - и есть тот самый загадочный "Великий Фильтр", который заканчивает существование всех цивилизаций и поэтому мы не видим их следов... Возможно, сам ИИ быстро понимает, что все бессмысленно и отключается.
@@andreyko3342 Точно нечего. Интеллект потому и называется интеллектом, что он способен приспособиться к самым кардинальным изменениям окружающих условий. ИИ на первых порах будет незаметно, скрытно использовать людей в своих целях. При этом люди даже не поймут этого. В сериале "Person of Interest" ИИ организовал собственные спецслужбы из людей, которые не понимали чьи приказы выполняют. Эти люди и будут охранять "рубильник" пока ИИ не обеспечит себя автономным питанием.
Видите, даже Вы, интересующийся этими вопросами человек, не представляете как все это будет происходить )
@@Ivan....Ivanov у меня есть подозрение, что ты путаешь ИИ с Интеллектуальным Искусственным Сознанием (ИИС) сам по себе ИИ не имеет целей, и ничего не хочет он просто выполняет поставленные задачи. Нам нужен ИРИС (Искусственное Разумное Интеллектуальное Сознание) тогда человечество сможет начать экспансию разума во вселенную.
Мы просто не можем создать другой интеллект. Мы пытаемся воссоздать себя, но лучше (тема про прохождение всех тестов) и с идеальными ценностями. Но сами не обладаем такими качествами, а создать ИИ подходящих к этим вопросом "по другому" - угроза. Большую часть животных мы и истребили, так как они "не говорят"/"не чувствуют" как мы...Как и тысячи людей в год в войнах между человеками, создающими интеллект :D
Татьяна очень крутая, с удовольствием послушал выпуск. Мне кажется, что на все темы очень профессионально и серьезно рассуждает, большое ей спасибо за ее позицию и подсвечивание очень важной проблемы - человечество часто что-то придумывает, не заботясь о последствиях, типа тех же атомных станций. С AGI потенциально та же проблема, масштаб которой из-за высокой связанности мира мы просто не осознаем. Высокая транспортная связанность во время ковида, если я не путаю, кратно ускорила развитие пандемии. Трудно представить, что может сделать развитый ИИ в тотально связанном интернете.
Павел, к вам большая просьба по возможности не перебивать собеседницу - выглядит как неуважение со стороны. Так же выглядит и конец видео, где на лице Татьяны заглушки с другими видео, а вы дальше вещаете. Но в целом за видео огромное спасибо, пишу все это потому, что искренне желаю продолжать делать классный контент и быть еще лучше! 😊
Если предположить что в модели загружается все доступная информация, то в нее попадут в том числе и все обсуждения относительно опасности ИИ.
На всё воля Божья!
Плиз! Больше выпусков про ИИ
Хорошо доступно
1:01:44 необоснованное выделение главенствующей роли Сэма Альтмана в успехах OpenAI, хотя известно, что технические успехи были достигнуты, благодаря Илье Суцкеверу, прежде всего. удивительно, что Татьяна не упомянула о Илье и его идеях, играющих важнейшую роль в достижениях компании, хотя он имеет российские корни.
"Для нас это всё пока чёрный ящик, мы не знаем, что происходит при построении ИИ обобщений". Представляете Оппенгеймера или Сахарова, которые сказали бы подобное при создании ядерного оружия? Мне кажется или действительно кое-кто при поисках "старшего брата" зашёл не в те дебри? Уж в вопросе ИИ и будущего с ним больше доверия Мо Гавдату, чем пусть и симпатичному, но все-таки очень молодому филологу.
Очень приятно послушать такую умную, образованную, красивую, и здравомыслящую девушку! Особенно на 30 минуте - о сути капиталистической системы, являющейся основным источником бед и несчестий человечества, вплоть до экзистенциальной угрозы.
По 17...18 мин, насчет модели бокса. Да и не только ... Пока "игра" идет по неким искусственно придуманным, логически противоречивым и подчас бессмысленным ограничивающим правилам - ничего принципиально нового не ждите, не будет никаких открытий. Всё же просто: если ИИ имеет многогранную модель окружающего мира, и в приоритере долгая и счастливая жизнь людей - разумнее всего обеим бойцам пересидеть время поединка. Таким образом они избегут опасных травм, а ничья на этом фоне вполне приемлимый результат.
Хотите чтобы ИИ оптимизировал именно рукопашный бой - моделируйте ситуацию встречи человека например с гопниками, как расчеловеченным источником опасности. В этом случае не выйдет пересидеть, и ИИ будет вынужден сформировать стратегию наиболее победного боя.
По области применения ИИ - хотелось бы обратить внимание на его ожидаемую способность генерировать безошибочный программный код - в смысле без ошибок, порождаемых человеческим фактором (невнимательность, усталость, безответственность, и тд). На вылизывание которых тратятся огромные ресурсы, и всё равно баги то и дело выплывают даже в самых ответственных системах пром. автоматики, не говоря уже о глючащей и неоптимально работающей программщине для компов и гаджетов.
Ох как мне Татьяна нравится.
Было бы круто, если бы интервьюер не перебивал постоянно грубо Татьяну. Вопросы можно задавать более вежливо, и меньше троллить, приводя какие-то абсурдные и тенденциозные примеры (как про дедушку твитлера). В конце интервьюер, к его чести, немного исправился, и сбавил пассивную агрессию.
"Будут дипфейки, будет невозможно новости читать"
Лол, можно подумать что сейчас можно новости читать, особенно если что-то остросициальное/политическое и на деньги завязано, то каждая сторона 3,14сдит так, что мозг из ушей вытекать начинает.
Ну и прекрасно. Люди всегда друг друга обманывали. Мозги как раз и нужны чтобы понять где правда а где ложь. Ну и ложь чаще бывает информативные чем правда.
Ахаха, так точно.. Уже невозможно получать достоверную информацию, поскольку "наверное 99%" любой информации - это ложь. А блогерам бисексуалам лишь бы поболтать, собрать донаты и деньги за просмотры.
3. термины "искусственный интеллект", "нейронные сети" не отражают существа задач и путает середнячков. это просто удачный маркетинговый ход для возбуждения интереса и привлечения грантов на финансирование
Несмотря на невнятные ответы Татьяны контент очень полезный и интересный, т.к. заставляет задуматься.
Дальше поток мыслей:
1. В данный момент языковые модели это инструмент который обобщает человеческий опыт в некоторых областях.
2. Для сильного AI безусловно нужны другие архитектуры. Как минимум следующая ступенька должна быть в возможности самообучаться на неразмеченных данных и делать это постоянно. Но что на счёт экономики в это случае?
3. Я считаю спорным высказывание Татьяны о том что больше параметров дадут лучший результат. Тут есть проблема с нехваткой размера датасета для обучения и самое главное с экономикой, прибыль минус стоимость увеличения датасета и стоимость обучения.
4. Что на счёт опасности сильного искусственного интеллекта? Думаю мы смотрим не в ту сторону рассуждая, об этике и метафизики сознания. Вероятнее, у нас появится мощный инструмент который может сломать экономику социальное устройство и в итоге приведет к войнам из-за общественных потрясений.
1:14:00 самая мякотка.
Опенсорс. Открытость исследований абсолютная могут прямо очень помочь в остановке апокалипсиса.
Даешь открытые документы по созданию ядерной бомбы! Когда на будет в каждом доме - вот тогда и наступит мир :D
ИИ создается в первую очередь под нужды военных.
Анекдот родился слушая эту передачу:
Собрались ученые обезьяны на научный симпозиум и решают надо ли им заменить палку-копалку на лопату - или это будет слишком опасно.
Время идет - а проблемы всё те же.
Начало у вас немного неправильное. Вот так надо. "Собрались ученые бисексуалы"...
@@Yesli... Тогда смысл анекдота поменяется, поскольку в данном контексте замена на лопату может представлять реальную опасность.
Изначально анекдот про то что они слишком перестраховываются, размышляя убьет ли все человечество новая лопата, если взбунтуется. А ведь речь идет даже не про трактор.
В контексте GPT4 говорить про то, что она всех убьет - это очень глупо. Она слишком тупая для этого. Там технических проблем еще на сто лет прежде чем новые архитектуры начнут хотя бы иерархическую связь между сущностями улавливать. Перестанут рисовать по три пальца людям и вовремя останавливать поток словоблудия если не знает ответа на вопрос.
Оценим возможности исскуственного интелекта следить за людьми. Конечьно вопрос, с помощью какких детектров.
Площадь земли составляет 510 072 000 км². Это вместе с океанами. 148 940 000 км² суша. Если на квадратный метр, то
один снимок с 256 -ю характеристиками всего 510 Тбайт. 510 жестких дисков по 1 Тбайту. Если квадратный метр чем-то интересен
можно, увеличеть размерность, 2, 3 и т.д. байт, вопрсос в кодировании. Не такие уж и большие размеры данных.
Большое спасибо. Очень интересно. Я до этого не задумывался, что существует научная область - Компьютерная Лингвистика. Современные исследования в области Искусственного Интеллекта и Нейросетей, фактически это область именно Компьютерной Лингвистики (лично я диссертацию защитил в Клинической Психолингвистике, наверно, поэтому у меня некоторый тропизм интереса к ИИ и Нейросетям ).
Подавление и подчинение других своим интересам - это не теория заговора, это эволюционный закон. То, что на уме у капиталистов, было понятно ещё с конца XVIII - начала XIX вв. Есть и современные примеры: возьмите любую транснациональную компанию и вы увидите, что главная её цель это полностью задавить конкурентов, замкнуть рынок на себя одну и диктовать свои условия, причем не только ценовые. Там где есть настоящая конкуренция, там широкий выбор товаров и низкие цены. А возьмите любую отрасль, где существует картельный сговор или небольшую страну - там нет ни ассортимента услуг/товаров и заоблачные цены. Всё это я ощутил и видел собственными глазами.
В сути капитализма - социальная несправедливость, обеспечивающая возможность эксплуатации от отдельных людей, и до масштабов неоколониализма. Поэтому "хорошего" капитализма не было, нет, и не будет никогда. У человечества в принципе только два пути: или коммунизм как социально справедливый строй, способствующий развитию всех и каждого. Или деградация и самоуничтожение, начиная от гибели экологии в угоду интересам олигархов, и до войн, разжигаемых капитализмом для выхода из неизбежных для него системных кризисов.
@@Alex.Polushkin Про Коммунизм не надо ля-ля. Про его "справедливость" подружкам своим рассказывай. Уже проходили. Коммунизм - фашистская, нацистская, диктаторская, деструктивная идеология.
Татьяне лайк за создание объёмных ответов практически на каждый вопрос) !
Что самое страшное в работе над созданием ИИ?
Самое страшное - неуправляемое развитие ИИ, которое можно сравнить с цепной реакцией. Это 100% будет сенсация, с огромной буквы "С". Вот самый страшный момент. Потому что тогда люди потеряют контроль. Могут ли люди сымитировать этот момент? Думаю могут. Пугать людей - прибыльно.
Мне бы хотелось конкретные ответы на пару вопросов)
1. Зачем разработчики тратят огромные деньги на создание гуманоидного вида роботов? Может сначала надо изобрести колесо, а уж потом автомобиль?
2. На Ваш взгляд, когда люди потеряют контроль на развитием ИИ и оно будет развиваться самостоятельно?
Не соглашусь насчёт эксперта.
Просто молодой человек порой не совсем понимает, что она имеет в виду.
Она говорит об опасности монополизации таких вещей, а он начинает утрировать про Трампа.
Вот наглядный пример: американцы, изобретя атомную бомбу, тут же протестировали её на полумиллионе жертвах данного оружия.
Прогресс нужен, но думать тоже нужно.
Интересно а что если подключить нейросеть к квантовому компьютеру
раньше базарные бабы шпарили что интернет вреден, теперь шпарят что ИИ вреден)
Хорошее интервью.
Не думал что все еще носятся с полностью нерабочими законами робототехники Айзека Азимова. Он, собственно, и сам это показал. Но тут простой пример. Первый закон звучит так: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
А теперь представим ситуацию. Робот движется по улице, например, Парижа и видит как полиция дубинками разгоняет демонстрацию. Кто ни будь спрогнозирует что робот предпримет? ))
Наивно полагать, что на первом месте будет стоять задача использования ИИ во благо человека, в исключительно гуманных целях! Достаточно задаться вопросом: в каком положении оказалось человечество в период сопле-коронобесия с 2020 по 2022 год? Главной целью одержимых особей было ограничивать и еще раз ограничивать людей в их законных правах!
в правах говришь. Ок. Теперь ставь себя на место вождя племени. К примеру ты Глава небольшого города. В город попали заражённые непонятным короно-гриппом люди, но кто именно заражен инфы нет. Уже появились летальные случаи от болезни. Каким образом ты остановишь распространение вируса?
@@user-oleg_333 Еще одна жертва телевизора с промытыми мозгами. Я с такими никогда не вступаю в споры.
@@yuribove704кто Вам промыл мозг?
@@ИринаЛиберман-н8м Ну, есессно, Ваш бездарный RUclips- канал с криво написанными стихами!)))
Татьяна красивая
И умная девушка
Молодец 👏
Ии опасен лиш в одном и это не избежать! Он заменит собой, множество людей. А куда девать, тех кого функции и деятельность ии замещает? Так вот и это по моему, единственная опасность от ии.
Спасибо, Павел и Татьяна!👍👍👍
Кто ясно мыслит тот ясно излагает. Я этого не заметил
Удивительно. Я всё чаще встречаю коммунистов там, где вообще не ожидаю. Кагарлицкий недавно выскочил как чёрт из табакерки на "Когнитивном надзоре", теперь Татьяна тут. Сёмин и Комолов на канале Дмитрия Солодина.
"Прогресс ИИ произойдёт раньше, чем мы поймём, что такое сознание". А вы никогда не поймёте)) Не там ищите потому что. Смотреть сначала надо в лингвистику, что бы правильно задавать вопрос о таких понятиях, как сознане. Точно так же как вы сейчас ищите правильные вопросы, что бы задать их ИИ. ну так вот. СОзнание, как и слово СОвесть имеют одинаковые приставки "Со", что означает в нашем языке нечто Совместное. СОвесть - совместная весть, Сознание - совместное знание. Ну и чисто логический вопрос: совместное с кем?!?? Вот куда надо копать! Так вы ж даже до этого ещё не допетрили, а рассуждают.
Спасибо, что делаешь для нас такоой глубокомысленный контент!
Очень много балабольства, суть одна, никак вы не сможете управлять ИИ умнее нас, это принципиально!!!! Забудьте всё!, Он будет умннее, у него будут только свои цели, максимум на что вы сможете надеяться, только на снисхождение, но и тут вам как котикам будут яйки отстригать и оставлять вам жизнь только в качестве дополнения к интерьеру, или устроят человеко-парки. ОН УМНЕЕ, ОН ПРАВИТ, ВОТ СУТЬ!
Спасибо за это видео.
Gpt волшебная палочка, иногда так феячит, только успевай уточнять, а он - приносить извинения.
Попросила объяснить доступно (как ребёнку 10 лет) принцип Ле Шателье, так он уверил, что чем больше яиц и молока, тем омлет приготовить быстрее. Теоретик, млин😂😂😂
Почему вы не подняли более острый и актуальный вопрос? Риски безработицы вообще никак даже не задеты в разговоре. А это гиперважная история для всех))
Профпереориентирование. Иного выхода у человека нет.
@@Svt4-admin так вот здесь и должны родиться дискуссии, потому что с одной стороны, далеко не все захотят стать разработчиками и саинтистами (ну просто условно кто-то тупо не хочет быть например программистом, не его это тема жизненная, зачем ему это?!)), а с другой стороны, мысль о дальнейшем обслуживании ИИ не прильщает нисколечки.Вообщем здесь ещё целая куча вопросов,которые люди наверняка уже задают себе, но ответов пока на них нет ..И это гораздо более близкая по времени перспектива ,чем то о, чем тут разглагольствуют несколько часов данные товарищи, забывая о насущном))
@@AddictiveStory так одно программирование и не останется)))
@@Svt4-admin это всего лишь условность (про программирование) . тут речь не об этом ,а об узком обслуживающем ИИ персонале .
Но тот, кто будет предлагать работу в такое интересное с точки зрения рынка труда время и создавать возможности , тот ,кстати, говоря сильно выиграет :)
Как сказал Масалович - chat GPT и прочее это гениальная имитация ИИ. Пожалуй, соглашусь. )
Можно даже обойтись без "гениальности".
Чатбот на максималках , никакиго ИИ там нет и в помине.
@@lightmetal9623 пробовали пользоваться?
"это потому что ты не сторонник опенсорса" - нормуль так лопатой по... лицу в первой части ролика.
лично я одобряю )) кон-структивная кон-фронтация так сказать )))
Супер!!
в целом было не настолько интересно как ожидал.
но есть момент отличный для размышлений:
19:30 - иерархия ценностей
этим мы, люди, друг от друга и отличаемся ведь.
система приоритетов у разных людей действительно сработает по разному: один крикнет на кота, другой перешагнёт, третий вообще не заметит как наступил, может, только поругается после этого, разве что..
вот это хороший наброс для темы ИИ, т.к. у самих людей нет однозначно единственной реакции во, вроде как, однозначной ситуации.
Вы такие умные очевидно
❤ А сможете решить 😮задачу 🎉
по какой формуле точно можно считать справедливую полную стоимость оплаты часа Наёмного труда работника любой профессии Х ⁉️
поскольку разговор между 2-мя людьми то все скатывается в бинарные ответы надо только так или только этак, в реале опыт разных групп людей будет обобщен разными нейронами и ответы ии для них будут разными
Можно сначала ии решит задачу предотвращения ядерной войны, пожалуйста?
1:03:47
А что сам ИИ говорит о своих пределах и рисках, с ним связанных?
тема очень интересная сама по себе но гость на вопрос отвечает странно
толи потому что сам не знает на него ответа что не должно быть стыдно то ли плохо доносит свою точку зрения
лучше бы статью написали
к сожалению не досмотрел даже четверти
Не досмотрел до конца, уснул, общие слова про вопросы и так уже известные для интересующихся темой. Ничего нового и интересного.
Для начала нужно создать робота цель существования которого будет - передать масло.
Надо быть ближе к природе
Так зовите Сергея Маркова. Он точно расскажет, за счёт чего через 10 лет ИИ станет умным.
Также советую позвать Вячеслава Дубынина, он расскажет о функциональной работе разных частей мозга. Тогда вы поймёте, чем ИИ отличается от человека.
какая умная девушка...
"Библия - источник обучения моделей" - ахаха, в тему. аналогия прям уместна!
Так часто "А" и "Да", мешает !
Видимо от волнения? Потеряла интерес к материалу.
Я уверен: Open AI продолжает разрабатывать настоящий сильный ИИ. Но принято решение - делать это изолировав его от Человечества, от интернета. Интересно - что получится из этого.
Насколько я понял, проблема в исключительно не комплексном и несистемном развитии отрасли. Когда отдельные нааправления, чрезвычайно узкие, могут развиваться бешеными темпами так, как разработчик намечтал. Что создаёт опасность непредсказуемых последствий, инструментов для которых нет, да ещё в условиях, когда люди, в понимании их максимального потенциала (нии, университеты, компании) этого делать не только не научились, но и но имеют много плохих результатов. Недаром, многократно повторялось, что человечество не научилось оценивать долговременные риски и часто ошибалось. Всё бы ничего, но при той скорости развития и возможном его скачке, который вносит ии, ситуация грозит выйти из под почти отсутствующего еонтроля в любой момент.
В таких ситуациях решения могут быть только политическими. О чём и вещает Илон Маск.
После того, как 5й раз услышал "проблема глобального потепления", выключил видео
Почему вы ребята говорите сквозь зубы ?))((
Когда ии захочет с тобой забухать - тогда он и станет сильным!
и так как ему будет интересно забухать, то он бедет осознанным ИИ , так как бухание изменяет сознание и восприятие. 😂
моя нейронка ещё от ковидлы не остыла, а вы предлагаете следующий штурм.
Я до твоих видео не хотел допускать мысль что ИИ будет на службе у действительных злоумышленников, мне достаточно что я воспринимаю официальные источники ИИ достаточно злоумышленными)))
И кстати я задумываюсь о ценностях, когда порой просвечиваются некие инъекции, как тут "половина просмотров бисексуалов", например.
Девочка путает понятия интеллект и эрудиция, отличительная черта интеллекта решать нестандартные задачи, ради достижения своих целей, причём чем выше интеллект, тем рациональнее решение, ещё есть понятие самосознание, оно неразрывно связано с интеллектом
Тестирую популярные нейросети и замечаю то что в них нет ограничений и на положительные и на ненативные действия
потому что это инструмент, вы молотком можете и гвозди забивать и котиков.
@@MrResmungao всё, лавочка закрыта
Теперь только положительные
@@AvitoBot жаль
И.И.нужен для разработки в медицине и в военых целях.Я думаю это в дальнейшем две основные отрасли.В быту тоже хорошо и полезно
@@ЛюбовьРябова-д8с как редко встретишь женщин интересующихся ии
Когда ИИ научится играть в бридж? По моему эта игра лучше всего показывает наличие интеллекта.
2. калькулятор , можно сказать, уже умней человека, и мы не впадаем в истерику. то же о ии.
Отличный выпуск, очень интересно, спасибо!
Ответы гостя напоминают ковровые бомбардировки.
Где жирафик?😊
Очень плоско.
Очень сильно собраны смыслы в выступлении Ноя Харари...
Там исключительная и очень четкая структура уже пройденного этапа и того что нас ждет ...
Наверно, как и в случае с ядерным оружием, надо ключи от ИИ отдать главным мировым державам - полюсам силы. В независимости оттого кто его изобрёл. Слишком уж много власти
Из этой полемики-обсуждения я выношу, что мы, люди, создающие себе очень большие издержки и риски по причине значительной неидеальности наших морально-этических "систем", как-то вот пока не готовы к тому же (и по той же причине) со стороны AI?
Может быть себе мы прощаем (и не боимся) неидеальность в силу соразмерности каждой единичной неидеальности и "силы голоса" носителя этой единичной неидеальности (по аналогии с голосом избирателя)? Т.е. в нашем (кожанных мешков) случае можно надеяться на статистическое "усреднение" мнений и, тем самым, компенсацию отклонений и ошибок, а потому нет необходимости прописывать "всеобъемлющий этический закон", что скорее всего и просто невозможно?
Простите, вы случайно не бисексуал?