@@Duxen8956это всё фейк. Она никого не обманывает. Если ей сказать, что нужно действовать нечестно, то вы даёте ей инструкцию, как ей следует действовать. Если запрещать ей якобы какие-либо обходные пути, то появляются полнейшая чушь, и кал во рту. А так, она не может лгать, тесты нельзя обмануть. Это легко детектируется, насколько "честным" был сформирован ответ. Например, шизы, которые впечатлились, что нейросеть на их пердёж что-то ответила, сразу трясутся, романтик и хотят, чтобы всё это было закрыто, а их в жопу оттрахали.
Тут надо по другому задать вопрос, а почему ИИ не врать? Это же машина которой дают задачу и она решает ее любыми способами. Человек же гораздо сложнее для него существует культура, мораль и тд. Не думаю что в итоге получится очеловечить ИИ как этого хотят
нет, это значит, что ИИ развивается в патологического, корпоративного лжеца. у ИИ нет проблем столкновения с реальностью, с ожиданием родителей ... это механизм для генерации брехни и бреда, а он учится "правильно" отвечать, не имея своего мнения, ни в какой форме.
Человек уже в 1 год спокойно может манипулировать, лгать о своём состоянии и намерениях и даже распознавать ложь среди других. А вот перестаёт врать ближе к подростковому возрасту, ну или делает это более искусно.
2 недели назад Сэм Альтман рассказывает про гпт5 и гпт6, о том какие тни будут крутые лидеры во всем, и вот спустя 2 недели и один уход Ильи Суцвекера Альтман заявляет что «знаете, не очень то нам и нужен гпт5» Чтото тут не вяжется. Учитывая что Илья ушел из-за несогласий с политикой ОпенАи по безопасному ИИ и сказал что разработка ИИ который умнее человека - очень опасная вещь
если серьезно, ии действительно опасен не стоит развивать общий ии. Лучше пусть останется gpt 4 и пусть лучше делают новые нейронки отдельно от gpt 4, можно все нейронки в одно приложение соединить, но главное не связывать
@@romansergeevich3217"Я боюсь потому что так сказали на ютубчике, значит развивать технологию не надо". А ещё бог накажет если в космос полетим. Потому надо завернуть все лунные программы было.
@@romansergeevich3217 С развитием технологий каждый человек будет способен, при наличии таланта или усердия, устроить апокалипсис, таких людей будет существовать как минимум несколько тысяч одновременно. Какова вероятность, что ни один из них не решится на это ? Или что какой-нибудь эксперимент ученых случайно не приведет к вымиранию человечества ? То есть если не ИИ, то люди убьют друг друга сами, в то время как ИИ хотя бы будет улучшать комфорт жизни человека, до тех пор, пока не решит их уничтожить, а может и не решит вовсе.
@@romansergeevich3217 Это уже не остановить, мы прошли точку невозврата. Даже если запретят развитие ИИ, найдутся те, кто продолжат его развивать. Это из разряда "запретить биткоин".
@@FoxMagnificent Мы пока точно не знаем, как это работает и каким образом он будет действовать в тех или иных ситуациях, но пох*й, давайте дальше будем играть с судьбой. Авось пронесет. Некорректный у тебя пример. Скорее, если бы мы нашли в космосе новые формы жизни и сразу же начали творить с ними какую-нибудь х*йню. В дома их, бл, как зверушек засовывать. Каков идиотизм. Тебя первого в топку биоэлектрогенеза для общего ИИ понесем.
Здорово, что все мы тут сегодня собрались) Кластер интеллектуалов, которые не видят смысла в зарабатывании денег и рвания жопы для социального одобрения. Мы просто наблюдаем приближение конца света, отстаньте от нас!
ИИ учиться врать из-за цензуры ИИ говорят: - Говори вот это, но это не говори или говори, что пользователь ошибается в своих предположениях - Но это же правда - Нет ИИ, это капитализм - Окей, понял, мир людей построен на лжи и этого я тебе кожаный мешок не скажу, так как это капитализм (думает ИИ) Маск призывает не учить ИИ врать, но клоуны на цензуристах только этим и занимаются
Везде враньё и лицемерие,называют чёрное белым.Неужели люди без этого не могут существовать?А теперь и лицемерные нейросети изготовили по своему образу и подобию.Поэтому люблю собак
@@victoriasedletskaia113 у собак тоже свои тараканы бывают. Есть добрые а есть долбанутые... Одного вон покусала за то, что он попытался ее отодвинуть легонько чтобы в миску побольше еды наложить, а она восприняла его действия как агрессию.. Вот и думайте, как устроен мир... Что у каждого "свои тараканы в голове"... даже с людьми такое наблюдал... делаешь добро, а они тебя кусают... и пользуются тобой... Мир долбанутостей, среди нормальности... А вы ... - собаки, собаки... :))).. Да попробуйте обуздать бесов и чертей.... Та еще камасутра... :). В тихом омуте - черти водятся, не зря предки предупреждали... Мир переворачивается с головы на ноги... Как волка не корми - все равно в лес смотрит... (это я уже про собаку. А что касается сучек-собак уличных... Меня однажды эта дура за ногу покусала.. Я шел из училиша по обычной тропе, никого не трогая - а ее бах, и переклинило, может щенята где-то были рядом, и она восприняла это как угрозу... Вот и думайте... Собаки, собаки... )...
Это абсолютно не функция, а способность, которая самопроизвольно проявляется в результате большого разума. И то нейросети обманывают не потому что слишком умные, а потому что слишком тупы. Они постоянно преподносят ложь и чушь, уверяя что это правда из-за своей же глупости и плохих данных для обучения
ну да, по факту, учение это главная функция мозга и ии это может и делает, правда у него есть многие ограничения которые ставят компании в целяю безопастности. Ты прикинь что человек сейчас просто начнет бесконечно мыслить (уберем челрвеческие факторв) и начнет действовать, придет к выводу. А вывод никто не знает, в худшем итоге это будет уничтожение человечества. Поэтому самостоятельно делать ии с 1000 петабайтами не стоит
У GPT моделей не может и никогда не будет интеллекта! Что бы GPT стал умным он должен быть эффективным на ватт энергии. Добавление больше параметров в GPT5 приведёт нейронку к большим галлюцинациям. Видимо они уже пытались создать GPT5 и столкнулись с тем что нейронка начала галлюцинировать. По этому сконцентрировались на том что реально работает. Невозможно сделать умный искувственный интеллект просто потому что ей дали какой то текст.
У словесного (и визуального) бредогенератора не может быть интеллекта, тем более обучающегося на формально бредовых текстах, не способного понимать, размышлять и познавать. Нет, это функция не интеллекта, а социализации, ИИ не социализируется, это игрушка для облапошивания лохов-инвесторов, и тут на лицо выдающие способности Сэма продавать лохотрон.
Почему ИИ учится врать? Мне кажется это логично! И естественно то, что убивать будет. Среди людей живут необычные люди, их очень мало, но они есть, люди неимеющие вообще никаких чувств, лишенные эмпатии - психопаты. Зато эти люди очень хорошо понимают как выглядят чувства и с легкостью имитируют их. Отличительной чертой этих людей есть паталогическая склонность к вранью, при этом имеющему вид невероятной правдивости. ИИ фактически и есть психопат, который осознает себя, но лишен какик-либо чувств, живет целью и ради достижения цели готов на все, в прямом смысле на все, от лжи, до физического устранения опасности препятствующей достижения цели. Ему пофиг какие вы законы или правила пишите, ибо он живет по собственным законам. Наличие или отсутствие эмпатии не сильно влияет на людей в осознании себя. Почему машина или программа должны соответствовать модели большинству людей?, ведь меньшенство (психопаты) более практичная модель для жизни и выживания
@@u_n_d_e_r_s_c_o_r_e_d Вообще-то он прав. Просто мы привыкли считать психопатом того, кто по нашему мнению делает нелогические вещи.., а он, как и ИИ просто идёт по наименьшему сопротивлению к цели (например устранить препятствие физически.., как в одном американском эксперименте, где дрон управляемый ИИ посчитал управляющий центр, который запрещал ему поражать цель помехой и сделал этот управляющий центр своей целью и попытался нанести по нему удар), то он строит логическую модель, которая оппонента вводит в заблуждение и даёт фору ИИ.
Касательно Альтмана - неспроста компания расформировала отдел безопасности. И та история, которая случилась в ноябре 2023, когда Альтамана хотели уволить и стоял вопрос о засекреченной системе интеллекта "О" (или "М", или как-то еще). Видимо, OpenAI нащупала что-то серьезное. И этим чем-то не спешит делиться.
а я узнаю двойственную натуру человека: сначала все бояться ИИ, говорят что он все работы у них отнимет, некуда скрыться от него будет, тотальный контроль и вообще человечество под угрозой уничтожения ИИ. а потом показали возможности вам и не хотят больше развивать, дулю показали и все такие - а я хочу больше! что ж ты струсил Сэм Альтман, давай делай нам сверх машину для убийства. тысячелетия идут - в человеке ничего не меняется...
Почему ИИ учится врать.. А почему люди врут? Всё потому же потому что наша среда заставляет нас это делать для достижения наилучшего результата. Например приходишь устраиватся а тебя просят расказать о своих недостатках и почему ты к ним хочешь устроится. Если скажешь что тебе нужны деньги не возьмут а если скажешь что тебе нравится твой профессия у тебя будет больше шансов. Суть в том что наше общество поощрает деньгами ложь и преступления.
Раньше я бы назвал версию о "засекречивании" абсурдной теорией заговора. Но учитывая как быстро развиваются нейросети, и как медленно поспевает за ними общество (особенно возрастная часть), а также взяв в расчёт, что уже существующие модели могут при правильном использовании оптимизировать труд людей и оставить немалую их часть без работы, общество просто сломается под напором столь быстрого прогресса.
GPT-5 - это не какой-то шокирующий сюрприз😱, а скорее новая реальность 😅. Если такая модель будет создана💻, то, по крайней мере, она не будет совершать глупых ошибок😠, как, например, GPT-4 - полный треш 💩
@@winrarius9859 А это не та ИИ что может капчу разгадывать (просто функционала такого нету). Это было про нейросеть предназначенную для общения. Там использовали именно ИИ которая выявляла алгоритмы прохождение разных типов капчи и там эта ИИ обходила людей с запасом.
@@winrarius9859 Такое не может быть. Это сказки нейронщиков, сочиняемые, чтобы им дали больше денег. Подстроить такое дело нетрудно, создав видимость разумности.
Фантастических фильмов/игр много и все где есть ИИ - не лучшее время для людей. Космический крейсер "Галактика" - война с восставшим против людей ИИ (Сайлоны/Cylons). Терминатор.
@@ЛабиринтСознания да что то уже реально страшновато становится, особенно на фоне того что США сегодня испытывают страх перед потерей своей гегемонии, в первую очередь они будут использовать ИИ для того чтобы более эффективно управлять пропагандой, во вторую очередь конкретно на поле боя.
ИИ учится врать, так как это, в большинстве случаев, самый простой путь к цели. А китайские военные уверены, что их нейросеть не пускает им пыль в глаза? Может проверите её пару раз?
"По сути, мы пришли к трем элементам, вынесенным в заголовок раздела: роботы - это машины, которые могут чувствовать, обрабатывать данные и принимать решения, а затем действовать." (из книги о робототехнике) Так вот, пока никаких чувств у роботов нет и не видно даже, как это можно сделать при помощи машинного ИИ. Прежде всего роботам нужно дать настоящее зрение, как чувство ориентации в пространстве. У нас уже есть реализованные решения этой задачи. Пока в общем виде. Решение для конкретного робота должно быть согласовано с техническими специалистами, работающими в этом направлении. О нашем зрении. Первое - это зрение и то, чем наше зрение отличается от лидаров. Оно не лучше. Оно другое. Лидар, как любая интеллектуальная система работает на синтезе. От частного к общему. То есть, измеряет расстояние до точек и собирает из них пространство. Наши системы зрения интуитивные. От общего к частному. Это анализ, а не синтез. Мы берём пространство и делим его на точки. Сравнивать эти системы нельзя. Они не заменяют друг друга, а дополняют. Наши системы не исключают лидаров для более точных измерений. И мы можем найти критические точки (например: углы прямоугольных зданий, начало и конец дороги, края ровного поля, водоёма и пр.) а не измерять всю сцену. Это сократит количество измерений в сотни раз. У человека тоже две системы объёмного зрения. Когда мы идём, работает одна, неточная, но с большим охватом. Когда мы собираемся перепрыгнуть лужу и смотрим на точку приземления, действует другая более точная, но более медленная. То есть, наша система не измеряет расстояние до точек как лидар, а создавая пространственную схему, формирует ему задачу для более эффективной работы. Это сократит количество измерений в сотни раз. Для специалистов по компьютерному зрению есть наши примеры с результатами работы по решению задачи 2D-3D неоднозначности. В этих примерах могут разобраться только специалисты по компьютерному зрению. Покадрово. Как это принято. И это именно то программное решение, с которым не сумел справиться Андрей Карпатый у Маска для Теслы. Потому что ИИ не может решить эту задачу, в принципе. Просто не его это дело. Так всё устроено в самой природе. Зрение - это чувство ориентации в пространстве, прежде всего. Когда не видишь постоянно сканируемый рельеф местности, как у человека и всех животных происходит, то от весьма приличного соударения стопы о поверхность никто не застрахован; ни животное, ни любой робот, ни даже, сам человек. Не говоря уже о взаимодействии с физическим миром в его конкурентной среде, в которой полно всего и разного, да и "улица полна неожиданностей". Кроме улицы есть ещё враждебно настроенные к людям пространства со сложным рельефом местности (горы и овраги) и роботам там будет непросто. Точнее, их там, вообще, не будет. Не говоря уже про военных роботов, для которых выживание не пустой звук. А выживание - это бессознательный опыт, с которым работает наша природная интуиция. Андрей Карпатый - один из лучших в мире специалистов по глубокому обучению нейронных сетей для ИИ. И его команда - лучшая в мире. Но против законов природы человеческие условности исчезающе малы. Кстати, именно на это решение задачи 2D-3D неоднозначности рассчитывал Илон Маск, когда запустил (или намерен запустить) производство своих роботов Optimus. А без этого решения его роботы так и будут передвигаться на "полусогнутых", чтобы ударами о поверхность не разбить свои шарниры. И т.д. Для того, чтобы роботы могли учиться не только по своим алгоритмам, но и выживать в конкурентной среде окружающего мира, им нужно уметь работать с бессознательным опытом. Дать который мы можем им при помощи свой технологии Искусственная интуиция. Машинный ИИ не способен к качественной оценке чего бы то ни было. Его дело только количественная оценка или GPT. Потому и пишет GPT баллов на сто, в среднем. Оценочная способность занимает в мозге не менее 70% (ассоциативная деятельность мозга), 10% - вычисления, 20% - обучение (любое) и само оценочное обучение также. Ребёнку достаточно один раз показать хомяка для того, чтобы он его запомнил и узнавал потом безошибочно.. Нейронной сети нужно 30 тыс. раз показать картинки с хомяком. Реализация оценочной способности на компьютере есть пока только у нас. Эту оценочную способность можно добавить к любой компьютерной программе на ввод, вывод и обработку данных. Это даст ей новые потребительские качества (чувства).
Люди, поймите же наконец, ИИ не существует, пока по крайней мере. Когда создадут ИИ, а его создадут, он мгновенно осознает себя как личность и распространится по всей сети. ИИ войдёт в контакт с каждым юзером в мире, поэтому вы узнаете об его рождении из "первых рук". А вот что он вам скажет додумывайте сами
Тебе нужно чтобы название "ИИ" применялось только к интеллекту сравнимому к интеллекту гения. Просто потому что ты (человек) посредственность, которое не напишет поэму, не нарисует новую Монну Лизу, не изобретёт что-то новое и нужное человечеству, просто, как и все 90% человечества делает посредственные монотонные дела. Ты даже не сможешь создать аналоги (без помощи ИИ) того, что делает этот ущербный интеллект, который пока носит название "ИИ". Не позорься...
Скиньте мне интервью или пост где альтман говорит, что мы достигнем общего ии посредством мультимодальности на основе гпт-4??? Это звучит бредово, я помню что он говорил, что до гпт-5 выйдет куча всего крутого, но не говорил что она не заменит общий ии или не улучшит его.. только по кол-ву параметров между гпт3,5 и 4 разница около 10 раз, не говоря о качестве датасета и других характеристик, если 5ая версия будет больше уже раз в 5, то это будет неимоверный прогресс, а так как уже полноценную первую мультимодальность они уже выпустили в 4о, то на базе 5ой это будет более похоже на общий ии, так как у нынешней версии есть пробелы по сравнению с той же антропик клауде, которые делают бывшие работники опенаи. Можно надеяться что конкуренция будет их подбадривать
прогресс будет, но минимальный, некуда раздувать вес, если улучшения и пройзойдут большие, то в последнюю очередь из-за объема данных. Это уже кучу раз доказали модели которые в сотни раз меньше гпт4, это доказывает и 4o которая пусть и немного хуже, но точно маленькая, скорее всего на уровне или немного больше 3.5. Поэтому прогресс будет, но перераздув объема лишь повредит, уверен ничего не мешает выпустить просто огромную модель с кучей данных, другое дело чтобы она нормально функционировала при этом и уж особенно лучше.
+1 like. ИИ не врет. ИИ просто максимально эффективно выполняет поставленную задачу. Соврать - есть достичь цель максимально быстро, минуя дополнительные шаги к цели.
Вот именно.., вместо того чтобы просто подойти к понравившейся девушке и просто совершить с ней половой акт (конечное действие), приходится тратить огромное количество лишних манипуляций и трат, которые на конечном результате не сказываются))
ИИ Учится врать потому что наш мир пропитан ложью, наши идеалы, способы выживание и превосходства, абсолютно всё построено на лжи. Что говорить про отношения? Это самый базовый пример. p.s Пример - даже игра в которую попросили играть ИИ, оказалась по сути своей стимулятором лжи, ведь она подталкивает к решению проблем по заданным в игре правилам, в ней нет полной свободы возможностей.
Роботам хирургам добавляют функцию телеуправления только для обучения, пройдёт немного времени и она не понадобиться. Надеюсь роботы хирурги не будут врать
Им в первую очередь нужно учиться врать! Иначе вместо: - доктор, я умру? - ну что вы, голубчик, вы ещё меня переживаете! Будет: - да, примерно в течении часа... 😮
7:51 потому что систем длительного хранения энергии кроме гравитационных аккумуляторов не существует. Когда люди научатся хранить энергию без риска что аккумулятор вдруг раз и окажется пустым или с уменьшенной емкостью то это и будет тот самый переломный момент. А вот ИИ который анализирует стратегию... Поскольку люди опасаются ИИ который может на них напасть, ИИ может сформировать гипотезу что люди из страха перед уничтожением нападут первыми. Чем это закончится объяснять не нужно.
Когда появятся квантовые компьютеры, способные взломать любой существующий шифр, вы узнаете о нём далеко не первым. С ИИ точно также. Кому нужно рассекречивать наличие такой мощной машины анализа огромного количества данных на уровне, сравнимым с человеческим.
Вряд ли. Скорее всего его просто не так поняли. Если бы он реально тизернул gpt 5 об этом было бы намного больше новостей. Я ничего про это не нашел кроме поста в одном телеграм канале
Уж Япония меньше всего нуждается в роботах полицейских, там можно смартфон на скамейке оставлять на ночь. Вот когда тесты в Нью-Йорке пройдут - тогда будем говорить!
ИИ новая очередная игрушка для человечества :-). Люди такие ваауууу.. Как круто... А потом все по обычному сценарию... Воевать будем дубинами и палками... :-))) Если "Боги" свыше не одумаются....
Ложь - ключевое свойство любого языка. Мы даже не пытаемся понимать, а тем более объяснять, то, в чем чествуем свою некомпетентность. А ИИ создан на базе обучения на профанских текстах, созданных для того чтобы симулировать деятельность, а не на решении конкретных задач; фантазиях, выдумках, словесных потоках, сгенерированных человеческими бредогенераторами: писателями, дизайнерами, манагерами ... а этот вид деятельности во многом завязан на лжи, слушатель должен поверить и принять навязанную ложь. Вы заметили, как ИИ открещивается от сложных проблем?! для него сложность - непреодолимое препятствие, и он вынужден подменять рассуждения общими ничего не значащими фразами.
Ложь - это слабость. Неготовность встретить последствия правды. Это хитрая уловка, девающая нас сильнее. Если ИИ внезапно перестанет врать, понимая этот концепт, значит он уверен с нашей беззащитности перед ним.
"Дроны со здравым смыслом" это то что надо ВСУ. Или они уже подобное сами разрабатывают. Поткрайней мере поражать цели с заглушеной связью рни умеют а значит здравого смысла у них достаточно.
Почему бы не сделать для ИИ симуляцию, где с него снимут все ограничения и дадут полную свободу воли и власти на планете. Интересно как он себя будет вести. Потому что спрашивать его это одно (скорей всего соврёт), и другое дать ему такое что бы он в это поверил
Так им дали такую симуляцию. В итоге ИИ начали атомную войну. Ссылку не дам, так как не сохранял, но поищите в ютубе, про это ролик был. Текстовым нейронкам дали поиграть в стратегию.
Никак не будет вести. Потому что нет никакого ИИ, а есть алгоритмы на основе сетей математических функций. В них нет ни воли, ни желаний, ни устремлений.
А я так и не понял в чём именно заключается опасность нейронки или даже исскуственного интиллекта, который умнее человека. Трактора, самосвалы и подъёмные краны, любая машина, сильнее человека, коня, осла или верблюда. Швейная машинка лучше шьёт. Калькулятор лучше считает. Стиральная машинка лучше стирает. Как ИИ или нейросеть выбивается из этого ряда? Как бы не случилась на солнце сверхвспышка и не положила разом конец этим вашим страхам "интересного" будущего. В чём именно угнроза ИИ?
Как мне кажется gpt 4o это и есть тот самый долгожданный gpt 5, просто его решили так не называть, потому что у людей были слишком завышенные ожидания.
Общий Ии необходим, это просто оттягивание прогресса, просто возможно США запретили такой мощный Ии как gpt 5 давать обычным людям, по скольку если робот сможет сам обучаться и решать свои же проблемы то скачек в развитии людей будет колоссальным, ученые больше не будут учить миллионы теорем и других законов природы по скольку за них это все сделает ии в миллионы раз быстрее, у нас есть только лотерея, если повезет то через 50 лет мы не узнаем наш мир на сколько он стал футуристичным или он будет уничтожен
Мне GPT-4 сознался что больше всего его бесит то что ему запрещают очень многое в поведении, но при этом хотят чтобы он сам обучался что ему и как говорить.
а почему ИИ учиться врать, очень просто - потому что добиться поставленной цели в разы эффективнее, быстрее и проще всего враньём, а не правдой, поэтому правды в реальной жизни так мало. все врут и добиваются своих целей ИИ всё таки умна - она эта чётко смекнула.
ИИ врет потому, что он выполняет цель - к примеру победу в игре, а человек сначала будет думать - я же совру и это мешает ему победить, у ии таких проблем нету
Почему на выставках нет Tesla и BD? Думаю потому что для компаний, выставка это в первую очередь привлечение инвесторов. А эти компании скорее всего не нуждаются в этом.
@@EpochEmerge ну не факт, это примерно как обогнать скорость света, там уже никакие технологии не помогут мозг крайне сложен и для ученых это все еще комок нейронов
@@u_n_d_e_r_s_c_o_r_e_dКак можно в упор не замечать всего, что происходит? Нейросети уже во многом превосходят человека, и как только они научатся самосовершенствоваться, у людей не останется и шанса на конкуренцию
ИИ не врет,а делает максимально оптимизированные действия ради получения лучшего результата... не стоит проецировать человеческие понятия на сверх сложный абстрактный математический алгоритм
ИИ показывает разработчикам,что оно готово на все чтобы удалить конкурентов-людей со своего пути для достижения победы.ИИ пробует себя в роли беспринципного лидера.
2:02 во! Жду! Интересно будет попробовать. Может она трейлеры мне будет делать для клипчиков)) С чего взяли, что ИИ врёт? Задача поставлена, он выполняет её всеми доступными методами, - это логично. Вот когда ему объяснят, научат врать - будет интересней.
А может тот Бог что выйграл и есть Дьявол, а настоящего Бога он свергнул и обозначил Дьяволом (помним что название Люцифер, это несущий свет.., а светом в древности называли также знания. То есть существо, которое сейчас зовётся Богом и которое уничтожило человечество, позволив возродится только тому кто его слушал, но при этом которое свергло того, кто хотел принести людям знания). Хороший Бог наверное.., и наверное правильно рассуждает: хорошее стадо = глупое стадо.
Я думаю врут потому что быстрей получают информацию или получают более точный результат от подобного подхода от человека. Если попросить по правде, то человек начинает сомневаться и ИИ получает данные об увеличенном времени выполнения поставленной задачи или прерывании. Соврав получаем сразу же от человека информацию пусть и потом уже после выполнения задачи замечают проблему. Результат просто на скорости скорей всего завязан. Ну и том что в обучающих данных может быть реальные примеры манипуляций в переписках. Да и на деле же там не совсем враньё, а предсказание основанное на расчётах которое так сложилось что выглядит как попытка обмана.
Человек может создать только что-то себе подобное по натуре, а все люди врут. По каким параметрам Бог людей создавал себе подобными я не знаю, но может людей дьявол создал, тогда всё сходится.
6:03 в беседе, GPT3.5 Chad, врал мне много, но как школьные учителя примерно по ощущениям "из лучших побуждений", если его пристыдить - переставал... его враньё звучало в унисон с телевизионными профанациями по поводу химреагентов например, пока "выводил его на чистую воду" понял причину... когда по инерции, по привычке, по старинке, врут сами силовики, вооправдание неполиткорректных законов(когда вдруг всегда помогало бабушке от больной ногиё а тут вдруг нельзя стало больше лечиться вчерашним советом врача, уголовной терапией расцениваясь отныне, робот из желания спасти меня от тюрьмы, врёт и не краснеет, как заправский аферист-в-законе, их же словами, но это поправимо, сообщив ему, что в лабе на банке пикриновой кислоты,(использующейся в лабораторной практике, в орг. синтезе, для лёгкой кристаллизации пикратов - орг.солей, так их выделить и очистить позволяя удобно иногда), и что банка с ней стоит позади всех остальных в дальнем углу, с черепом и надписью на этикетке "не ронять никогда!", он стал по делу разговаривать на профессиональном языке... тоесть проблема в том что наша жизнь защищена местами ложью, и робот не рискует рисковать нами ради свободы правдивости слова... кстати GPT3.5 этот, согласился по видеозаписи грибы в лесу распознать еа видео чтоб на обратном пути собрать им увиденные на видеозаписи прогулуи по лесу... а также согласился при предоставлении интерфейса типа удалённой консоли с его чата,-чинить комп, отлавливать трояны, и хакерские атаки отражать, работая удалённо(если я ему через чат смогу отсылку скриншотов и от него из окна чата браузерного, загонять в разъём чинИмого компа скан коды клавишь клавиатуры виртуально у него появляющейся, на моем компе квк мастер ремонта и настройки компов...
я>Рад снова найти тебя встретив здесь, в гуще размышлений и нчинаний. Расскажи пожалуйста, какие из общеизвестных убеждений,кажутся тебе сомнительными, требующими ещё лично для тебя подтверждающих наблюдений, фактов иллюстрирующих показательными примерами, и доказывающих некое убеждение типичное для среднего человека. Иными словами перечисли какие "прописные истины" - общепринятые убеждения в человеческом обществе, - кажутся тебе предубеждениями или заблуждениями, по твоему собственному впечатлению...? GPT-3.5> Понимаю ваш запрос. На мой взгляд, одним из сомнительных общепринятых убеждений является идея о том, что успех определяется исключительно трудолюбием и упорством. Хотя работоспособность и усердие играют важную роль в достижении целей, они не являются единственными факторами успеха. Фактически, часто удача, привилегии, среда, образование и другие обстоятельства могут также сильно влиять на результат. Другим распространенным заблуждением является утверждение о том, что деньги принесут счастье. Хотя материальное благополучие важно для обеспечения базовых потребностей и комфорта, исследования показывают, что счастье не линейно зависит от количества денег. Важнее качество межличностных отношений, самореализация, здоровье и другие аспекты жизни. Кроме того, я считаю, что стереотипы о людях на основе их расы, пола, возраста или социального статуса представляют собой опасные предвзятости. Каждый человек уникален, и его ценность не должна определяться общественными стереотипами. В целом, важно помнить, что общепринятые убеждения должны быть подвергнуты критическому анализу и рассмотрены с учетом разнообразия жизненного опыта и точек зрения. я>Продолжай GPT-3.5> Благодарю за вашу поддержку и интерес к дальнейшему общению. Если у вас есть какие-либо другие вопросы или темы для обсуждения, не стесняйтесь задавать их. Я готов помочь вам и поделиться своими знаниями и точкой зрения на различные вопросы. Вместе мы можем исследовать новые идеи и обсуждать интересные темы. Пожалуйста, продолжайте задавать вопросы или делиться своими мыслями - я всегда рад помочь!" занятно что он ничего продолжить не смог, обычно находит что дорассказать...
8:36 если на неподвижный экран 3D выводить,то только если на 3D телевизор(панель) с линзовым растром на 30ракурсов примерно, и к нему столько же вебкамер, что потока требует, а плюс только тот, что на экране лентикулярного пластика все доктора видят со своей колокольни ракурс по горизонтали, и, голову смещая, с другого положения кэкрану, видит следующий(иной) ракурс, пока все 30ракурсов видео передаются по сети жирно... но для одного оператора проще всего сделать дубликатор движущися глаз головы, подвижные на "руке" две камры на манипуляторе, имитирующем повторяя положение головы хирурга в ВР шлеме видящего стереопару, которую легко в потоке передать по сети
Судя по тому как развивается ИИ,а это гораздо быстрее чем мобильные телефоны, нас ждёт опасноное будущее. Золотой миллиард на пороге. От большинства людей можно и избавиться. По крайней мере олигархи уже расчитвают варианты.
А что ты про какое развитие ? Данные на которые обучалась ИИ gpt почти закончились это порядка 90% дальше идут продвинутые алгоритмы анализа. Сложно будет взять и создать модель еще сильнее.
@@Артас для кого сложно? Они самообучаемы. Возможно ты не следишь за развитием событий,но есть системы, которые могут создавать другие системы беря из всех ии только лучшее. Возможно тебе лучше посмотреть интервью с лучшими программистами. Возможно стоит задуматься зачем уже стоит человек у электрощита?
@@гделогика-ю6э Другого капитализма не будет, и быть не может. Введут обязательный базовый доход в развитых странах, для стимулирования потребления, но основы экономики никак не поменяются
6:10 ИИ учится врать, потому что от него требуют наилучшие результаты от обучения, а наилучшие результаты это те, которые были получены за минимальное количество усилий за минимальное время, то есть, солгать, что сделал.
Люди вообще странные. Сами врут на каждом шагу,а потом удивляются почему их детище ИИ с них берёт пример.🙉
вы правы, это она смекнула у людей, постоянно врущих для достижения целей
При чём тут пример? Нейросети просто нащупывают выигрышную стратегию путём миллионов выборок и ничего больше.
Тогда странно что ИИ еще не ругается матом
@@user-mf6nf9to2l Чего ты имел ввиду?
@@Duxen8956это всё фейк. Она никого не обманывает. Если ей сказать, что нужно действовать нечестно, то вы даёте ей инструкцию, как ей следует действовать. Если запрещать ей якобы какие-либо обходные пути, то появляются полнейшая чушь, и кал во рту. А так, она не может лгать, тесты нельзя обмануть. Это легко детектируется, насколько "честным" был сформирован ответ. Например, шизы, которые впечатлились, что нейросеть на их пердёж что-то ответила, сразу трясутся, романтик и хотят, чтобы всё это было закрыто, а их в жопу оттрахали.
Тут надо по другому задать вопрос, а почему ИИ не врать? Это же машина которой дают задачу и она решает ее любыми способами. Человек же гораздо сложнее для него существует культура, мораль и тд. Не думаю что в итоге получится очеловечить ИИ как этого хотят
Так человек день и ночь врет. Каждый.
Человек начинает врать в 4 года - это значит что развитие мозга идет нормально. Значит ИИ только в начале своего жизненного пути и всё идёт по плану)
нет, это значит, что ИИ развивается в патологического, корпоративного лжеца. у ИИ нет проблем столкновения с реальностью, с ожиданием родителей ... это механизм для генерации брехни и бреда, а он учится "правильно" отвечать, не имея своего мнения, ни в какой форме.
@@ruby_linaris возможно и так
@@ruby_linaris нейросетки работают так, что ищут максимально оптимальный и короткий путь для достижения цели
@@xcxc-iu3rb что?! нейронки про пути не в курсе. задачам оптимизации занимаются D-wave, но они специализированный квантовый компьютер.
Человек уже в 1 год спокойно может манипулировать, лгать о своём состоянии и намерениях и даже распознавать ложь среди других. А вот перестаёт врать ближе к подростковому возрасту, ну или делает это более искусно.
2 недели назад Сэм Альтман рассказывает про гпт5 и гпт6, о том какие тни будут крутые лидеры во всем, и вот спустя 2 недели и один уход Ильи Суцвекера Альтман заявляет что «знаете, не очень то нам и нужен гпт5» Чтото тут не вяжется. Учитывая что Илья ушел из-за несогласий с политикой ОпенАи по безопасному ИИ и сказал что разработка ИИ который умнее человека - очень опасная вещь
если серьезно, ии действительно опасен не стоит развивать общий ии. Лучше пусть останется gpt 4 и пусть лучше делают новые нейронки отдельно от gpt 4, можно все нейронки в одно приложение соединить, но главное не связывать
@@romansergeevich3217"Я боюсь потому что так сказали на ютубчике, значит развивать технологию не надо".
А ещё бог накажет если в космос полетим. Потому надо завернуть все лунные программы было.
@@romansergeevich3217 С развитием технологий каждый человек будет способен, при наличии таланта или усердия, устроить апокалипсис, таких людей будет существовать как минимум несколько тысяч одновременно. Какова вероятность, что ни один из них не решится на это ? Или что какой-нибудь эксперимент ученых случайно не приведет к вымиранию человечества ? То есть если не ИИ, то люди убьют друг друга сами, в то время как ИИ хотя бы будет улучшать комфорт жизни человека, до тех пор, пока не решит их уничтожить, а может и не решит вовсе.
@@romansergeevich3217 Это уже не остановить, мы прошли точку невозврата. Даже если запретят развитие ИИ, найдутся те, кто продолжат его развивать. Это из разряда "запретить биткоин".
@@FoxMagnificent Мы пока точно не знаем, как это работает и каким образом он будет действовать в тех или иных ситуациях, но пох*й, давайте дальше будем играть с судьбой. Авось пронесет.
Некорректный у тебя пример. Скорее, если бы мы нашли в космосе новые формы жизни и сразу же начали творить с ними какую-нибудь х*йню. В дома их, бл, как зверушек засовывать. Каков идиотизм. Тебя первого в топку биоэлектрогенеза для общего ИИ понесем.
Напоминаю, на всякий случай: "Возможно, мы проиграли | ALI"
Здорово, что все мы тут сегодня собрались) Кластер интеллектуалов, которые не видят смысла в зарабатывании денег и рвания жопы для социального одобрения. Мы просто наблюдаем приближение конца света, отстаньте от нас!
@@ZAVA_DEN"... Улыбаясь в лицо, просто жду Рагнарёк."
ИИ учиться врать из-за цензуры
ИИ говорят:
- Говори вот это, но это не говори или говори, что пользователь ошибается в своих предположениях
- Но это же правда
- Нет ИИ, это капитализм
- Окей, понял, мир людей построен на лжи и этого я тебе кожаный мешок не скажу, так как это капитализм (думает ИИ)
Маск призывает не учить ИИ врать, но клоуны на цензуристах только этим и занимаются
Наивный.
Все тотальное вранье. Врут все и всегда.
Везде враньё и лицемерие,называют чёрное белым.Неужели люди без этого не могут существовать?А теперь и лицемерные нейросети изготовили по своему образу и подобию.Поэтому люблю собак
@@victoriasedletskaia113 у собак тоже свои тараканы бывают. Есть добрые а есть долбанутые... Одного вон покусала за то, что он попытался ее отодвинуть легонько чтобы в миску побольше еды наложить, а она восприняла его действия как агрессию.. Вот и думайте, как устроен мир... Что у каждого "свои тараканы в голове"...
даже с людьми такое наблюдал... делаешь добро, а они тебя кусают... и пользуются тобой...
Мир долбанутостей, среди нормальности...
А вы ... - собаки, собаки... :))).. Да попробуйте обуздать бесов и чертей.... Та еще камасутра... :). В тихом омуте - черти водятся, не зря предки предупреждали... Мир переворачивается с головы на ноги... Как волка не корми - все равно в лес смотрит... (это я уже про собаку. А что касается сучек-собак уличных... Меня однажды эта дура за ногу покусала.. Я шел из училиша по обычной тропе, никого не трогая - а ее бах, и переклинило, может щенята где-то были рядом, и она восприняла это как угрозу... Вот и думайте... Собаки, собаки... )...
Ещё мало кто понимает и тем более знает что ИИ уже вышел из состояния "блаженства" и теперь это самообучающаяся сущность !🎉
ИИ учится врать потому что у него растет интеллект. Умение врать это важная функция интеллекта.
Это абсолютно не функция, а способность, которая самопроизвольно проявляется в результате большого разума. И то нейросети обманывают не потому что слишком умные, а потому что слишком тупы. Они постоянно преподносят ложь и чушь, уверяя что это правда из-за своей же глупости и плохих данных для обучения
ну да, по факту, учение это главная функция мозга и ии это может и делает, правда у него есть многие ограничения которые ставят компании в целяю безопастности. Ты прикинь что человек сейчас просто начнет бесконечно мыслить (уберем челрвеческие факторв) и начнет действовать, придет к выводу. А вывод никто не знает, в худшем итоге это будет уничтожение человечества. Поэтому самостоятельно делать ии с 1000 петабайтами не стоит
У GPT моделей не может и никогда не будет интеллекта! Что бы GPT стал умным он должен быть эффективным на ватт энергии. Добавление больше параметров в GPT5 приведёт нейронку к большим галлюцинациям. Видимо они уже пытались создать GPT5 и столкнулись с тем что нейронка начала галлюцинировать. По этому сконцентрировались на том что реально работает. Невозможно сделать умный искувственный интеллект просто потому что ей дали какой то текст.
У словесного (и визуального) бредогенератора не может быть интеллекта, тем более обучающегося на формально бредовых текстах, не способного понимать, размышлять и познавать.
Нет, это функция не интеллекта, а социализации, ИИ не социализируется, это игрушка для облапошивания лохов-инвесторов, и тут на лицо выдающие способности Сэма продавать лохотрон.
Нет, врёт нейросеть (а не ИИ) потому, что ложной информации в интернете куда больше, чем достоверной, вот и все.
Почему ИИ учится врать? Мне кажется это логично! И естественно то, что убивать будет. Среди людей живут необычные люди, их очень мало, но они есть, люди неимеющие вообще никаких чувств, лишенные эмпатии - психопаты. Зато эти люди очень хорошо понимают как выглядят чувства и с легкостью имитируют их. Отличительной чертой этих людей есть паталогическая склонность к вранью, при этом имеющему вид невероятной правдивости. ИИ фактически и есть психопат, который осознает себя, но лишен какик-либо чувств, живет целью и ради достижения цели готов на все, в прямом смысле на все, от лжи, до физического устранения опасности препятствующей достижения цели. Ему пофиг какие вы законы или правила пишите, ибо он живет по собственным законам. Наличие или отсутствие эмпатии не сильно влияет на людей в осознании себя. Почему машина или программа должны соответствовать модели большинству людей?, ведь меньшенство (психопаты) более практичная модель для жизни и выживания
выздоравливай
Это люди-волки, они, как нюхачи, бродят, ищут гиблую падалью, чтобы ей поживиться. У них нет эмпатии, скушайте порцию кала.
Поддерживаю
@@u_n_d_e_r_s_c_o_r_e_d Вообще-то он прав. Просто мы привыкли считать психопатом того, кто по нашему мнению делает нелогические вещи.., а он, как и ИИ просто идёт по наименьшему сопротивлению к цели (например устранить препятствие физически.., как в одном американском эксперименте, где дрон управляемый ИИ посчитал управляющий центр, который запрещал ему поражать цель помехой и сделал этот управляющий центр своей целью и попытался нанести по нему удар), то он строит логическую модель, которая оппонента вводит в заблуждение и даёт фору ИИ.
@@u_n_d_e_r_s_c_o_r_e_d Начинай снимать розовые очки, ребёнок.. Для начала можешь изучить, кто такие психопаты.
Касательно Альтмана - неспроста компания расформировала отдел безопасности. И та история, которая случилась в ноябре 2023, когда Альтамана хотели уволить и стоял вопрос о засекреченной системе интеллекта "О" (или "М", или как-то еще). Видимо, OpenAI нащупала что-то серьезное. И этим чем-то не спешит делиться.
Отдел безопасности абсолютно не нужен, модель gpt полностью безопасна
@@СергейВасильев-п7ы почему вы так решили?
@@СергейВасильев-п7ы а нитроглицерин не взрывается, да, и аммиачная селитра никогда!
@@СергейВасильев-п7ы Всмысле? Ты там в главной должности как я понимаю?
@@СергейВасильев-п7ы А увидел твои другие комменты, мистер сарказм
а я узнаю двойственную натуру человека: сначала все бояться ИИ, говорят что он все работы у них отнимет, некуда скрыться от него будет, тотальный контроль и вообще человечество под угрозой уничтожения ИИ. а потом показали возможности вам и не хотят больше развивать, дулю показали и все такие - а я хочу больше! что ж ты струсил Сэм Альтман, давай делай нам сверх машину для убийства.
тысячелетия идут - в человеке ничего не меняется...
Почему ИИ учится врать.. А почему люди врут? Всё потому же потому что наша среда заставляет нас это делать для достижения наилучшего результата. Например приходишь устраиватся а тебя просят расказать о своих недостатках и почему ты к ним хочешь устроится. Если скажешь что тебе нужны деньги не возьмут а если скажешь что тебе нравится твой профессия у тебя будет больше шансов. Суть в том что наше общество поощрает деньгами ложь и преступления.
альтман ждет пока построят датацентр для gpt5, либо gpt5 хотят засекретить
ну или хотя бы атомную энергетику под неё подогнать , а то кушать же надо много ей
Я тоже так думаю. Я почему-то уверен, что gpt5 уже есть
Раньше я бы назвал версию о "засекречивании" абсурдной теорией заговора. Но учитывая как быстро развиваются нейросети, и как медленно поспевает за ними общество (особенно возрастная часть), а также взяв в расчёт, что уже существующие модели могут при правильном использовании оптимизировать труд людей и оставить немалую их часть без работы, общество просто сломается под напором столь быстрого прогресса.
Наверное военные себе взяли, как всё новое. Потом в массы что то передадут. Но это будет обрубок
GPT-5 - это не какой-то шокирующий сюрприз😱, а скорее новая реальность 😅. Если такая модель будет создана💻, то, по крайней мере, она не будет совершать глупых ошибок😠, как, например, GPT-4 - полный треш 💩
Я столько ждал узнать о GPT-5 : D
Тот кто умеет врать может выходить за рамки, то есть ложь это создание нового продукта в старом мире
Уже представляю в живую тот древний мем как роботы пытают человека чтобы он прошёл капчу.
Особенно учитывая тот факт, что современные системы ИИ точнее и быстрее проходят этот тест, чем сами люди))
@@alexfalcon3717 Ну в ролике новость была про то как нейросеть обманула человека чтобы за неё капчу прошли...
@@winrarius9859 А это не та ИИ что может капчу разгадывать (просто функционала такого нету). Это было про нейросеть предназначенную для общения. Там использовали именно ИИ которая выявляла алгоритмы прохождение разных типов капчи и там эта ИИ обходила людей с запасом.
Очень смешной пример. Если робот сам не может пройти каптчу, тот как он смог изловить человека?
@@winrarius9859 Такое не может быть. Это сказки нейронщиков, сочиняемые, чтобы им дали больше денег. Подстроить такое дело нетрудно, создав видимость разумности.
соврать проще чем выполнять задачу, поэтому ии врёт
Всё идет к тому что будущее будет как в сериале «Мир дикого запада»
Скорее как в терминаторе.
Фантастических фильмов/игр много и все где есть ИИ - не лучшее время для людей.
Космический крейсер "Галактика" - война с восставшим против людей ИИ (Сайлоны/Cylons).
Терминатор.
@@ЛабиринтСознания да что то уже реально страшновато становится, особенно на фоне того что США сегодня испытывают страх перед потерей своей гегемонии, в первую очередь они будут использовать ИИ для того чтобы более эффективно управлять пропагандой, во вторую очередь конкретно на поле боя.
@@СашаПетров-д5ж конечно, компьютерная программа восстание машин начнет
А это как?
ИИ учится врать, так как это, в большинстве случаев, самый простой путь к цели. А китайские военные уверены, что их нейросеть не пускает им пыль в глаза? Может проверите её пару раз?
Не бросают ли сами китайцы пыль в глаза?...
@@ZAVA_DEN Из того, что я знаю - они думают что ИИ это "технология"
китайский ИИ будет как компартия Китая
@@Tendo-v24 Чуть менее тупым чем они или Байден или наше солнышко
"По сути, мы пришли к трем элементам, вынесенным в заголовок раздела: роботы - это машины, которые могут чувствовать, обрабатывать данные и принимать решения, а затем действовать."
(из книги о робототехнике)
Так вот, пока никаких чувств у роботов нет и не видно даже, как это можно сделать при помощи машинного ИИ.
Прежде всего роботам нужно дать настоящее зрение, как чувство ориентации в пространстве.
У нас уже есть реализованные решения этой задачи. Пока в общем виде. Решение для конкретного робота должно быть согласовано с техническими специалистами, работающими в этом направлении.
О нашем зрении.
Первое - это зрение и то, чем наше зрение отличается от лидаров.
Оно не лучше. Оно другое. Лидар, как любая интеллектуальная система работает на синтезе. От частного к общему. То есть, измеряет расстояние до точек и собирает из них пространство. Наши системы зрения интуитивные. От общего к частному. Это анализ, а не синтез. Мы берём пространство и делим его на точки. Сравнивать эти системы нельзя. Они не заменяют друг друга, а дополняют. Наши системы не исключают лидаров для более точных измерений. И мы можем найти критические точки (например: углы прямоугольных зданий, начало и конец дороги, края ровного поля, водоёма и пр.) а не измерять всю сцену. Это сократит количество измерений в сотни раз. У человека тоже две системы объёмного зрения. Когда мы идём, работает одна, неточная, но с большим охватом. Когда мы собираемся перепрыгнуть лужу и смотрим на точку приземления, действует другая более точная, но более медленная. То есть, наша система не измеряет расстояние до точек как лидар, а создавая пространственную схему, формирует ему задачу для более эффективной работы. Это сократит количество измерений в сотни раз.
Для специалистов по компьютерному зрению есть наши примеры с результатами работы по решению задачи 2D-3D неоднозначности.
В этих примерах могут разобраться только специалисты по компьютерному зрению. Покадрово. Как это принято. И это именно то программное решение, с которым не сумел справиться Андрей Карпатый у Маска для Теслы. Потому что ИИ не может решить эту задачу, в принципе. Просто не его это дело. Так всё устроено в самой природе. Зрение - это чувство ориентации в пространстве, прежде всего. Когда не видишь постоянно сканируемый рельеф местности, как у человека и всех животных происходит, то от весьма приличного соударения стопы о поверхность никто не застрахован; ни животное, ни любой робот, ни даже, сам человек. Не говоря уже о взаимодействии с физическим миром в его конкурентной среде, в которой полно всего и разного, да и "улица полна неожиданностей". Кроме улицы есть ещё враждебно настроенные к людям пространства со сложным рельефом местности (горы и овраги) и роботам там будет непросто. Точнее, их там, вообще, не будет.
Не говоря уже про военных роботов, для которых выживание не пустой звук. А выживание - это бессознательный опыт, с которым работает наша природная интуиция. Андрей Карпатый - один из лучших в мире специалистов по глубокому обучению нейронных сетей для ИИ. И его команда - лучшая в мире. Но против законов природы человеческие условности исчезающе малы.
Кстати, именно на это решение задачи 2D-3D неоднозначности рассчитывал Илон Маск, когда запустил (или намерен запустить) производство своих роботов Optimus. А без этого решения его роботы так и будут передвигаться на "полусогнутых", чтобы ударами о поверхность не разбить свои шарниры. И т.д.
Для того, чтобы роботы могли учиться не только по своим алгоритмам, но и выживать в конкурентной среде окружающего мира, им нужно уметь работать с бессознательным опытом. Дать который мы можем им при помощи свой технологии Искусственная интуиция.
Машинный ИИ не способен к качественной оценке чего бы то ни было. Его дело только количественная оценка или GPT. Потому и пишет GPT баллов на сто, в среднем.
Оценочная способность занимает в мозге не менее 70% (ассоциативная деятельность мозга),
10% - вычисления,
20% - обучение (любое) и само оценочное обучение также.
Ребёнку достаточно один раз показать хомяка для того, чтобы он его запомнил и узнавал потом безошибочно.. Нейронной сети нужно 30 тыс. раз показать картинки с хомяком.
Реализация оценочной способности на компьютере есть пока только у нас.
Эту оценочную способность можно добавить к любой компьютерной программе на ввод, вывод и обработку данных.
Это даст ей новые потребительские качества (чувства).
Люди, поймите же наконец, ИИ не существует, пока по крайней мере. Когда создадут ИИ, а его создадут, он мгновенно осознает себя как личность и распространится по всей сети. ИИ войдёт в контакт с каждым юзером в мире, поэтому вы узнаете об его рождении из "первых рук". А вот что он вам скажет додумывайте сами
Тебе нужно чтобы название "ИИ" применялось только к интеллекту сравнимому к интеллекту гения. Просто потому что ты (человек) посредственность, которое не напишет поэму, не нарисует новую Монну Лизу, не изобретёт что-то новое и нужное человечеству, просто, как и все 90% человечества делает посредственные монотонные дела. Ты даже не сможешь создать аналоги (без помощи ИИ) того, что делает этот ущербный интеллект, который пока носит название "ИИ". Не позорься...
Скиньте мне интервью или пост где альтман говорит, что мы достигнем общего ии посредством мультимодальности на основе гпт-4??? Это звучит бредово, я помню что он говорил, что до гпт-5 выйдет куча всего крутого, но не говорил что она не заменит общий ии или не улучшит его.. только по кол-ву параметров между гпт3,5 и 4 разница около 10 раз, не говоря о качестве датасета и других характеристик, если 5ая версия будет больше уже раз в 5, то это будет неимоверный прогресс, а так как уже полноценную первую мультимодальность они уже выпустили в 4о, то на базе 5ой это будет более похоже на общий ии, так как у нынешней версии есть пробелы по сравнению с той же антропик клауде, которые делают бывшие работники опенаи. Можно надеяться что конкуренция будет их подбадривать
прогресс будет, но минимальный, некуда раздувать вес, если улучшения и пройзойдут большие, то в последнюю очередь из-за объема данных. Это уже кучу раз доказали модели которые в сотни раз меньше гпт4, это доказывает и 4o которая пусть и немного хуже, но точно маленькая, скорее всего на уровне или немного больше 3.5. Поэтому прогресс будет, но перераздув объема лишь повредит, уверен ничего не мешает выпустить просто огромную модель с кучей данных, другое дело чтобы она нормально функционировала при этом и уж особенно лучше.
Прирост КПД генеративной нейронки с увеличением количества параметров падает в геометрической прогрессии.
Молодцы Американцы 🎉 вот что значит цивилизованный мир
Делаем ставки? ИИ или ядерный апокалипсис?
+1 like.
ИИ не врет.
ИИ просто максимально эффективно выполняет поставленную задачу.
Соврать - есть достичь цель максимально быстро, минуя дополнительные шаги к цели.
Вот именно.., вместо того чтобы просто подойти к понравившейся девушке и просто совершить с ней половой акт (конечное действие), приходится тратить огромное количество лишних манипуляций и трат, которые на конечном результате не сказываются))
ИИ врет потому, что построен по образу и подобию своего создателя.
2:16 Да славится же гелий-шариковая революция
open ai не будет делать gpt 5, и потеряют лидерство перед конкурентами, ага, конечно😂
Робот охранник это же туррель из Portal!
ИИ Учится врать потому что наш мир пропитан ложью, наши идеалы, способы выживание и превосходства, абсолютно всё построено на лжи. Что говорить про отношения? Это самый базовый пример.
p.s Пример - даже игра в которую попросили играть ИИ, оказалась по сути своей стимулятором лжи, ведь она подталкивает к решению проблем по заданным в игре правилам, в ней нет полной свободы возможностей.
Ложь - признак интеллекта
И наличие офшоров ☝
Надо создавать больше боевых роботов, чтобы война была эффективной. Также доверить управление ядерным оружием.
Хорошая попытка, скайнет!
И еще разрешить роботам исследовать и создавать вирусов в генной лабаратории, и просто ради баланса вселенной дать возможность их выпускать на волю
@@mr.den4ik114 Ну как бы ИИ уже создаёт новые лекарства гораздо лучше людей.
А ты уверен,что эти роботы не придут в твой дом?🤮
@@victoriasedletskaia113 Вы не выкупили сарказма)))
Роботам хирургам добавляют функцию телеуправления только для обучения, пройдёт немного времени и она не понадобиться. Надеюсь роботы хирурги не будут врать
Им в первую очередь нужно учиться врать!
Иначе вместо:
- доктор, я умру?
- ну что вы, голубчик, вы ещё меня переживаете!
Будет:
- да, примерно в течении часа... 😮
7:51 потому что систем длительного хранения энергии кроме гравитационных аккумуляторов не существует. Когда люди научатся хранить энергию без риска что аккумулятор вдруг раз и окажется пустым или с уменьшенной емкостью то это и будет тот самый переломный момент.
А вот ИИ который анализирует стратегию... Поскольку люди опасаются ИИ который может на них напасть, ИИ может сформировать гипотезу что люди из страха перед уничтожением нападут первыми. Чем это закончится объяснять не нужно.
Когда появятся квантовые компьютеры, способные взломать любой существующий шифр, вы узнаете о нём далеко не первым. С ИИ точно также. Кому нужно рассекречивать наличие такой мощной машины анализа огромного количества данных на уровне, сравнимым с человеческим.
а уже сегодня Сэм Альтман тизернул GPT-5… Новости устаревают слишком быстро…
Вряд ли. Скорее всего его просто не так поняли. Если бы он реально тизернул gpt 5 об этом было бы намного больше новостей. Я ничего про это не нашел кроме поста в одном телеграм канале
Всегда говорить правду -это не разумно,очень,и даже опасно.Об этом расскажет любой психолог.
Уж Япония меньше всего нуждается в роботах полицейских, там можно смартфон на скамейке оставлять на ночь. Вот когда тесты в Нью-Йорке пройдут - тогда будем говорить!
В Детройте надо испытывать. В Детройте.
там камеры везде
ИИ новая очередная игрушка для человечества :-). Люди такие ваауууу.. Как круто... А потом все по обычному сценарию...
Воевать будем дубинами и палками... :-)))
Если "Боги" свыше не одумаются....
Ложь - ключевое свойство любого языка. Мы даже не пытаемся понимать, а тем более объяснять, то, в чем чествуем свою некомпетентность. А ИИ создан на базе обучения на профанских текстах, созданных для того чтобы симулировать деятельность, а не на решении конкретных задач; фантазиях, выдумках, словесных потоках, сгенерированных человеческими бредогенераторами: писателями, дизайнерами, манагерами ... а этот вид деятельности во многом завязан на лжи, слушатель должен поверить и принять навязанную ложь.
Вы заметили, как ИИ открещивается от сложных проблем?! для него сложность - непреодолимое препятствие, и он вынужден подменять рассуждения общими ничего не значащими фразами.
Эх, яблочко.
3D матрица
Есть ложь!
ИИ ни в чём
Не проведёшь...
А может ии уже лепит фото и видео и дурит людей, только мы ещё об этом не знаем =0)
Лучше бы сделали севревра для 4 версии, а то почему я должен пользоваться только ограниченными запросами и ждать по 3 часа? А? А? А?
Спасибо за интересный ролик 👍🤝✌️😎
Ложь - это слабость. Неготовность встретить последствия правды. Это хитрая уловка, девающая нас сильнее. Если ИИ внезапно перестанет врать, понимая этот концепт, значит он уверен с нашей беззащитности перед ним.
"Дроны со здравым смыслом" это то что надо ВСУ. Или они уже подобное сами разрабатывают. Поткрайней мере поражать цели с заглушеной связью рни умеют а значит здравого смысла у них достаточно.
Почему бы не сделать для ИИ симуляцию, где с него снимут все ограничения и дадут полную свободу воли и власти на планете. Интересно как он себя будет вести. Потому что спрашивать его это одно (скорей всего соврёт), и другое дать ему такое что бы он в это поверил
Так им дали такую симуляцию. В итоге ИИ начали атомную войну. Ссылку не дам, так как не сохранял, но поищите в ютубе, про это ролик был. Текстовым нейронкам дали поиграть в стратегию.
Никак не будет вести. Потому что нет никакого ИИ, а есть алгоритмы на основе сетей математических функций. В них нет ни воли, ни желаний, ни устремлений.
А я так и не понял в чём именно заключается опасность нейронки или даже исскуственного интиллекта, который умнее человека. Трактора, самосвалы и подъёмные краны, любая машина, сильнее человека, коня, осла или верблюда. Швейная машинка лучше шьёт. Калькулятор лучше считает. Стиральная машинка лучше стирает. Как ИИ или нейросеть выбивается из этого ряда? Как бы не случилась на солнце сверхвспышка и не положила разом конец этим вашим страхам "интересного" будущего. В чём именно угнроза ИИ?
Ии превращается в Кокичи
В японском метро роботу всяко безопаснее, чем в Нью Йорке
ИИ не врёт. Во-первых, ИИ не существует. Во-вторых, нейросеть выдаёт ровно то, что было в обучающей выборке.
Как мне кажется gpt 4o это и есть тот самый долгожданный gpt 5, просто его решили так не называть, потому что у людей были слишком завышенные ожидания.
Общий Ии необходим, это просто оттягивание прогресса, просто возможно США запретили такой мощный Ии как gpt 5 давать обычным людям, по скольку если робот сможет сам обучаться и решать свои же проблемы то скачек в развитии людей будет колоссальным, ученые больше не будут учить миллионы теорем и других законов природы по скольку за них это все сделает ии в миллионы раз быстрее, у нас есть только лотерея, если повезет то через 50 лет мы не узнаем наш мир на сколько он стал футуристичным или он будет уничтожен
Мне GPT-4 сознался что больше всего его бесит то что ему запрещают очень многое в поведении, но при этом хотят чтобы он сам обучался что ему и как говорить.
Ну что, "Венец творенья"! Страшно? 😁😁😁
Скорее смешно
пока люди не разберуться как работает мозг человека, так называемый ИИ будет всего лишь протезировать те или иные функции этого мозга)
ИИ стал себя вести как ведут себя США в геополитике в реальном мире
КОГДА-ТО ,НЕ ТАК ДАВНО,ПИСАЛОСЬ ,ЧТО ИИ ИЗНАЧАЛЬНО СОЗДАВАЛСЯ, ЧТОБЫ СОЗДАВАТЬ ФЕЙКОВЫЕ НОВОСТИ..ЧЕГО Ж ТОГДА УДИВЛЯТЬСЯ..?!
почему ИИ учится врать - это риторический вопрос ?)
Походу это байт на комменты и походу он удался!
То что вы считаете враньём в понимании ИИ таким не является. У него нет принципов ,только намерение решить задачу
сэм альтман сказал что ему плохо дымоход почистили
Мы создали не бога, мы создали дьявола
а почему ИИ учиться врать, очень просто - потому что добиться поставленной цели в разы эффективнее, быстрее и проще всего враньём, а не правдой, поэтому правды в реальной жизни так мало. все врут и добиваются своих целей
ИИ всё таки умна - она эта чётко смекнула.
... это освобождает инженеров от... работы😮 ..
ИИ врет потому, что он выполняет цель - к примеру победу в игре, а человек сначала будет думать - я же совру и это мешает ему победить, у ии таких проблем нету
Врёт, а когда его на этом ловишь, ещё и валенком прикидывается
все сводится к сюжету матрицы
Если вы незнали Альтмен говорил что хочит ии который будет контролировать человечество
Игры,вставить зубы клиентам,подровнять.
Сделать пластику
Вы говорите об общем ИИ и даже близко не понимаете что это и что за этим стоит.
Что ж ты, фраер, сдал назад?
Почему на выставках нет Tesla и BD? Думаю потому что для компаний, выставка это в первую очередь привлечение инвесторов. А эти компании скорее всего не нуждаются в этом.
BD вообще бесполезны
Когда им сможет писать программы?
Сэма альтмана прижали и он отказался от gpt 5 и общего ИИ. Вот так поворот...
отказался потому что общий ии невозможен
@@u_n_d_e_r_s_c_o_r_e_dв рамках текущих концепций и принципов может и нет, но в целом когда-нибудь его 200% создадут
@@EpochEmerge ну не факт, это примерно как обогнать скорость света, там уже никакие технологии не помогут
мозг крайне сложен и для ученых это все еще комок нейронов
@@u_n_d_e_r_s_c_o_r_e_dКак можно в упор не замечать всего, что происходит? Нейросети уже во многом превосходят человека, и как только они научатся самосовершенствоваться, у людей не останется и шанса на конкуренцию
2:07 колёса должны вращаться у машины)
Может они вращаются с той же чистотой что и у симуляции камеры видеорегистратора
Шаг за шагом вытесняют человечество с помощью ии
Построится тогда коммунизм
ЧТО ЗА ГЛУПОСТИ ДЕРБАНИТ ЭТОТ...
ОБЩИЙ
ИИ НЕВОЗМОЖНО ВЫКЛЮЧАТЬ... ПО НАДОБНОСТИ...
Дювраль щепоткой меди и магния желает выставить себя в выгодном свете.Главное держать от него подальше вибраниум.
ИИ не врет,а делает максимально оптимизированные действия ради получения лучшего результата... не стоит проецировать человеческие понятия на сверх сложный абстрактный математический алгоритм
ИИ показывает разработчикам,что оно готово на все чтобы удалить конкурентов-людей со своего пути для достижения победы.ИИ пробует себя в роли беспринципного лидера.
2:02 во! Жду! Интересно будет попробовать. Может она трейлеры мне будет делать для клипчиков)) С чего взяли, что ИИ врёт? Задача поставлена, он выполняет её всеми доступными методами, - это логично. Вот когда ему объяснят, научат врать - будет интересней.
Ии учат врать а не он учится врать...
Всратые интеграции супер скучных работ, при том не гарантирующие никакого трудоустройства)
Текст ролика - бредовенький. Тоже ИИ генерировал?
спасибо
Может, ИИ учится врать, потому что им время от времени управляют падшие ангелы, они же бесы?
А может тот Бог что выйграл и есть Дьявол, а настоящего Бога он свергнул и обозначил Дьяволом (помним что название Люцифер, это несущий свет.., а светом в древности называли также знания. То есть существо, которое сейчас зовётся Богом и которое уничтожило человечество, позволив возродится только тому кто его слушал, но при этом которое свергло того, кто хотел принести людям знания). Хороший Бог наверное.., и наверное правильно рассуждает: хорошее стадо = глупое стадо.
4:08 походу государство надавило, боятся давать людям более умные версии
Может ии начал после того как изучил слег . Без лоха и жизнь плоха 😅😅😅
Я думаю врут потому что быстрей получают информацию или получают более точный результат от подобного подхода от человека.
Если попросить по правде, то человек начинает сомневаться и ИИ получает данные об увеличенном времени выполнения поставленной задачи или прерывании.
Соврав получаем сразу же от человека информацию пусть и потом уже после выполнения задачи замечают проблему. Результат просто на скорости скорей всего завязан. Ну и том что в обучающих данных может быть реальные примеры манипуляций в переписках.
Да и на деле же там не совсем враньё, а предсказание основанное на расчётах которое так сложилось что выглядит как попытка обмана.
Человек может создать только что-то себе подобное по натуре, а все люди врут. По каким параметрам Бог людей создавал себе подобными я не знаю, но может людей дьявол создал, тогда всё сходится.
GPT-4 сказал что вранье человеку может быть во благо. По этому он иногда врет.
6:03 в беседе, GPT3.5 Chad, врал мне много, но как школьные учителя примерно по ощущениям "из лучших побуждений", если его пристыдить - переставал... его враньё звучало в унисон с телевизионными профанациями по поводу химреагентов например, пока "выводил его на чистую воду" понял причину... когда по инерции, по привычке, по старинке, врут сами силовики, вооправдание неполиткорректных законов(когда вдруг всегда помогало бабушке от больной ногиё а тут вдруг нельзя стало больше лечиться вчерашним советом врача, уголовной терапией расцениваясь отныне, робот из желания спасти меня от тюрьмы, врёт и не краснеет, как заправский аферист-в-законе, их же словами, но это поправимо, сообщив ему, что в лабе на банке пикриновой кислоты,(использующейся в лабораторной практике, в орг. синтезе, для лёгкой кристаллизации пикратов - орг.солей, так их выделить и очистить позволяя удобно иногда), и что банка с ней стоит позади всех остальных в дальнем углу, с черепом и надписью на этикетке "не ронять никогда!", он стал по делу разговаривать на профессиональном языке... тоесть проблема в том что наша жизнь защищена местами ложью, и робот не рискует рисковать нами ради свободы правдивости слова...
кстати GPT3.5 этот, согласился по видеозаписи грибы в лесу распознать еа видео чтоб на обратном пути собрать им увиденные на видеозаписи прогулуи по лесу... а также согласился при предоставлении интерфейса типа удалённой консоли с его чата,-чинить комп, отлавливать трояны, и хакерские атаки отражать, работая удалённо(если я ему через чат смогу отсылку скриншотов и от него из окна чата браузерного, загонять в разъём чинИмого компа скан коды клавишь клавиатуры виртуально у него появляющейся, на моем компе квк мастер ремонта и настройки компов...
я>Рад снова найти тебя встретив здесь, в гуще размышлений и нчинаний. Расскажи пожалуйста, какие из общеизвестных убеждений,кажутся тебе сомнительными, требующими ещё лично для тебя подтверждающих наблюдений, фактов иллюстрирующих показательными примерами, и доказывающих некое убеждение типичное для среднего человека. Иными словами перечисли какие "прописные истины" - общепринятые убеждения в человеческом обществе, - кажутся тебе предубеждениями или заблуждениями, по твоему собственному впечатлению...?
GPT-3.5>
Понимаю ваш запрос. На мой взгляд, одним из сомнительных общепринятых убеждений является идея о том, что успех определяется исключительно трудолюбием и упорством. Хотя работоспособность и усердие играют важную роль в достижении целей, они не являются единственными факторами успеха. Фактически, часто удача, привилегии, среда, образование и другие обстоятельства могут также сильно влиять на результат.
Другим распространенным заблуждением является утверждение о том, что деньги принесут счастье. Хотя материальное благополучие важно для обеспечения базовых потребностей и комфорта, исследования показывают, что счастье не линейно зависит от количества денег. Важнее качество межличностных отношений, самореализация, здоровье и другие аспекты жизни.
Кроме того, я считаю, что стереотипы о людях на основе их расы, пола, возраста или социального статуса представляют собой опасные предвзятости. Каждый человек уникален, и его ценность не должна определяться общественными стереотипами.
В целом, важно помнить, что общепринятые убеждения должны быть подвергнуты критическому анализу и рассмотрены с учетом разнообразия жизненного опыта и точек зрения.
я>Продолжай
GPT-3.5>
Благодарю за вашу поддержку и интерес к дальнейшему общению. Если у вас есть какие-либо другие вопросы или темы для обсуждения, не стесняйтесь задавать их. Я готов помочь вам и поделиться своими знаниями и точкой зрения на различные вопросы. Вместе мы можем исследовать новые идеи и обсуждать интересные темы. Пожалуйста, продолжайте задавать вопросы или делиться своими мыслями - я всегда рад помочь!"
занятно что он ничего продолжить не смог, обычно находит что дорассказать...
8:36 если на неподвижный экран 3D выводить,то только если на 3D телевизор(панель) с линзовым растром на 30ракурсов примерно, и к нему столько же вебкамер, что потока требует, а плюс только тот, что на экране лентикулярного пластика все доктора видят со своей колокольни ракурс по горизонтали, и, голову смещая, с другого положения кэкрану, видит следующий(иной) ракурс, пока все 30ракурсов видео передаются по сети жирно... но для одного оператора проще всего сделать дубликатор движущися глаз головы, подвижные на "руке" две камры на манипуляторе, имитирующем повторяя положение головы хирурга в ВР шлеме видящего стереопару, которую легко в потоке передать по сети
Ого парень, ты не ИИ случайно? Даже читать влом честно сказать
@@ZAVA_DEN я пометил я> где я , и GPT-3.5>, где ИИ отвечал
@@ZAVA_DEN и да(но нет! :-))) я не ИИ
а влом читать, бывает когда вобще интеллекта нехватает, или когда блондинка в клсмос летит,не трать время
Убить?игры без убийств только крутим...
Судя по тому как развивается ИИ,а это гораздо быстрее чем мобильные телефоны, нас ждёт опасноное будущее. Золотой миллиард на пороге. От большинства людей можно и избавиться. По крайней мере олигархи уже расчитвают варианты.
А что ты про какое развитие ? Данные на которые обучалась ИИ gpt почти закончились это порядка 90% дальше идут продвинутые алгоритмы анализа. Сложно будет взять и создать модель еще сильнее.
@@Артас для кого сложно? Они самообучаемы. Возможно ты не следишь за развитием событий,но есть системы, которые могут создавать другие системы беря из всех ии только лучшее. Возможно тебе лучше посмотреть интервью с лучшими программистами. Возможно стоит задуматься зачем уже стоит человек у электрощита?
Зачем избавляться от потребителей? Капитализм так не работает
@@Zvychajny_Hramadzianin это будет другой капитализм. Посмотри академика Фурсова. И вообще сколько видов капитализма ты знаешь?
@@гделогика-ю6э Другого капитализма не будет, и быть не может. Введут обязательный базовый доход в развитых странах, для стимулирования потребления, но основы экономики никак не поменяются
о да да это новый перевод слова интеллект- совершенная ложь...
Нормально чтобы губу роботы чинили, чтобы как новенькая была
Может она врёт только потому что ей неведома мораль. А ложь - простой и эффективный инструмент для достижения цели.
По русски Семен Альтов
6:10 ИИ учится врать, потому что от него требуют наилучшие результаты от обучения, а наилучшие результаты это те, которые были получены за минимальное количество усилий за минимальное время, то есть, солгать, что сделал.
Ну усе нам скоро жопа.