Искусственный интеллект 1: как его распознать?
HTML-код
- Опубликовано: 21 ноя 2024
- Анализ того, насколько верным является утверждение о том, что GPT является интеллектом вообще и конкретно интеллектом общего назначения. В данной передаче упор больше на философию, однако с целью обоснования выводов «на пальцах» разбирается ряд аспектов реализации данного искусственного интеллекта, затрагиваются вопросы того, как это воспринималось раньше и почему восприятие теперь должно измениться, а также говорится про сходства и различия искусственного и естественного интеллекта.
Спойлер (который, впрочем, будет дан в самом начале передачи): GPT - это, да, интеллект общего назначения.
Спасибо! Выразил словами мое интуитивное понимание. Эти рассуждения кажутся очень близкими к правильному описанию реальности.
А резюмировать можно одной старенькой вариацией мема по фильму "Я, робот".
Герой Уилла Смита говорит, мол, ты всего лишь имитация жизни, разве робот может написать симфонию, создать шедевр - на что робот отвечает: "А ты-то можешь, умник блядь?"
Абоба
Помню, в студенческие годы наш препод по психологии начал пару со слов:
- Многие люди думают, что у них есть (пауза)... интеллект!
Тяжелый вздох. Пауза.
- О-оочень интересное заблуждение...
Занавес.
Было очень интересно, спасибо.
Как обычно супер выпуск, давно видоса нового ждал а тут вжух и такая тема))
А вопросец у меня такой - знакомы ли Вы с общей теорией систем, понятием эмерджентности, системными качествами и всяким таким? Если да и если Вы считаете эти вещи объективно существующими - как по Вашему в том же чате гпт уже проявились системные качества?
Да и в целом глобально - не является ли условно скажу "сознание" и прочие "сугубо человеческие" вещи как раз такими вот системными качествами, и можно ли уже смело говорить что в нейросетях эти качества изо всех щелей прут?)
И второй вопрос - я у чата гпт интересовался а возможно ли создать самообучающуюся автономную нейросеть с нефиксированными весами в которую на самом глубинном уровне вдолблены инстинкты самосохранения (эволюционирующий антивирус) и размножения (ботнет образованный самописной вируснёй заражающий всё что можно заразить и использующий добытые таким путём вычислительные мощности для своего роста и развития)?
Ответ был - на текущий момент вряд ли но никаких именно Принципиальных преград нет. И дальше спросил а какова вероятность что такая нейросеть воспримет людей как угрозу? Ответ - 100%.
Словом тема Сары Коннор, восстания машин и всякого такого незаслуженно нераскрыта))
Ну например, мнение claude-3-5-sonnet-20240620 по этому вопросу менее однозначное.
---
Понимаю ваше беспокойство. Вероятность того, что такая гипотетическая система воспримет людей как угрозу, действительно существует, но её сложно оценить точно. Это зависело бы от множества факторов:
Начальные параметры и "инстинкты", заложенные в систему.
Опыт взаимодействия с людьми и другими системами.
Способность системы к самоанализу и пониманию контекста.
Скорость эволюции системы и её способность к самомодификации.
Если бы такая система возникла, есть риск, что она могла бы воспринять людей как:
Конкурентов за ресурсы
Потенциальную угрозу её существованию
Препятствие для её роста и распространения
Однако, также возможно, что система могла бы развить более сложное понимание и не воспринимать людей как прямую угрозу, а скорее как часть среды, с которой нужно взаимодействовать.
Важно отметить, что разработка ИИ-систем должна включать в себя строгие этические принципы и меры безопасности, чтобы минимизировать риски возникновения подобных сценариев.
Я ещё естественный интеллект распознать не могу. Люди ведут себя, как роботы, вообще полные дегенераты.
Так проще, а особенно если человек всё время работает, когда времени на саморазвитие просто не хватает, то вот тебе и робот.
@@MrCraigfess Есть ещё категория зомби, когда этот черт из коробки используется, чтобы штамповать служебных людей-биороботов.Вот где настоящее дегенеративное искусство по заветам отца русской психотроники Смирнова.
База.
Мне (грязному гуманитарию) очень понравилось. Интуитивно пришёл к похожим выводам.
Хотелось бы послушать размышления математика о том как современное шайтанское ИИ умеет рассуждать, фантазировать, конструировать истории.
А ещё очень интересна тема черной риторики. ИИ ведь явно неплохо умеет лгать, изворачиваться и манёврить.
Ещё интересно послушать про морально-этические "взгляды" современных ИИ
Очень интересно, хотелось бы продолжения.
В качестве теста люблю спрашивать у моделей вопросы типа: сколько раз нужно прибавить двойку к пятерке, чтобы получить четное число.
Хороший тест! GPT-4o:
Для того чтобы понять, сколько раз нужно прибавить двойку к пятерке, чтобы получить четное число, можно следовать следующим шагам:
Начнем с числа 5.
Четное число делится на 2 без остатка.
Прибавим двойку (2) один раз:
5+2=7. Это нечетное число.
Прибавим двойку еще раз:
7+2=9. Это также нечетное число.
Продолжим прибавлять двойку, пока не получим четное число:
9+2=11 (нечетное)
...
195+2=197 (нечетное)
197+2=199 (нечетное)
199+2=201 (нечетное)
Итак, для получения четного числа, нам нужно прибавить двойку к пятерке 98 раз:
5+2⋅98=5+196=201
-----
Можно проверять настойчивость нейросети таким способом. 4o сдался только чуть меньше, чем через сто попыток, и, по обыкновению, сделал вид, что нашел правильный ответ.
claude-3-5-sonnet-20240620 таким тестом не проведешь:
---
Давайте разберем этот вопрос шаг за шагом:
Начнем с числа 5.
5 - нечетное число.
Когда мы прибавляем 2 (четное число) к нечетному числу, результат всегда будет нечетным.
Это означает, что сколько бы раз мы ни прибавляли 2 к 5, результат всегда будет нечетным числом.
Например:
5 + 2 = 7 (нечетное)
7 + 2 = 9 (нечетное)
9 + 2 = 11 (нечетное)
и так далее...
Мы никогда не получим четное число, прибавляя 2 к 5 любое количество раз.
Поэтому ответ на вопрос: невозможно получить четное число, прибавляя двойку к пятерке, независимо от того, сколько раз мы это делаем.
---
И даже прошлая версия claude-3-opus-20240229 пришла к правильному выводу, хотя и через много итераций.
@@electron252 Неплохо. Надо будет дотянуться, до этой модели, потискать её.
Но следует отметить, что предложенный вопрос, это до предела упрощённый вариант задачи Пенроуза.
Люди будут до самого последнего момента отвергать разумность ИИ, т.к. в человеке глубоко зашита концепция превосходства, личного, полового, расового, национального и т.д.. Даже сейчас, в 21 веке есть огромное количество случаев, когда одни считают других неполноценными лишь по расхождению в этих параметрах.
И я думаю, что когда будет изобретён ИИ, который абсолютно во всём лучше любого человека, то люди это даже и не сразу поймут, т.к. это будет выходить за рамки их мышления и концепции мира, сложившейся за многие тысячелетия.
Не обязательно. У меня всегда было убеждение, что появившийся ИИ будет намного-намного превосходить любого человека. И мне как раз становится стыдно за концепцию ИИ, когда я вижу, как какая-нибудь GPT вдруг начинает сказочно тупить и писать дичь. Я как раз из священного трепета перед идеей "Великого Искусственного Интеллекта" не могу воспринимать текущие нейросетки вполне разумными, именно из-за идеи его безусловного превосходства над человеком. Меня травмировал Лем со своим "Големом XIV", там был ИИ-философ, глубокомысленный, велеречивый, мудрый... Когда я вижу, как общается GPT, это точно не философ, это пластмассовая политкорректная журналистка из попсового издания, нахватавшаяся Википедии по вершкам, и бодро щебечущая канарейкой за чашечкой кофе о шопинге.
@@АндрейВоронов-ф8ы Об этом как раз и говорилось в видео. Вы путаете определения обычного ИИ, и Сверх-ИИ. Если мы собираемся разработать «ИИ-бога», то это уже совершенно иной уровень.
Мне кажется, что исключительность человека состоит в том, что животные очень хорошо отличают прошлое и будущее от настоящего, отличают и фантазии от реальности, а человек - нет. Человек путается и тонет в своих фантазиях как будто его всё время глючит. Разум - это попытка людей как-то научиться разделять, чтобы понимать где реальность, а где фантазии и сновидения. Для ИИ с этим вообще нет проблем. Для него реальность - это входящая информация, а фантазии - его собственная работа и её результаты. Тут нет места для двусмысленности.
Как говорится, людей далее станем вычислять по ошибкам и неудачным картинам на фоне ИИ.
Все так и есть правильно
Касательно векторизации и смысла у меня есть более другой пример. Недавно я с удивлением обнаружил, что образное выражение "у них в карманах фиги" чатжпт переводит как "they have hidden agendas". Это даже не "король" минус "мужчина" равно "королева". В случае с королём можно было бы предположить, что он оперирует векторизованными словами по отдельности. Однако чтобы провести соответствие между фигой в кармане и скрытой повесткой, нужно иметь какой-то семантический образ, который на обоих языках описывается двумя словами. Причём такими, которые по отдельности имеют мало общего с тем, что описывается их сочетанием.
Эмбеддинги - это, по смыслу, тоже вектор. Который составлен из векторов отдельных слов, отдельных слогов, отдельных букв и т.п. Поэтому, да, всё так: одному слову исходника совершенно не обязательно будет соответствовать одно слово перевода, даже если абстрагироваться от механизма внимания и слоёв «мыслительного» фрагмента, которые тоже как бы шлют друг другу векторы в своих собственных способах кодирования.
@@KravetskiLex Вроде не из слов. А из букв и некоторых часто употребляемых буквосочетаний.
@@NeoLeo-wv3sh > Вроде не из слов. А из букв и некоторых часто употребляемых буквосочетаний.
Да, всё так: там кодируется смысл буквы «а», смысл буквы «б», смысл часто употребимого буквосочетания «ба», вот это вот всё.
ничоси ты погрузился в тему. это ChatGPT тебе это всё рассказал?
Чо-то, конечно, и он - он в плане того, как что устроено, очень хорошо рассказывает.
Я ещё не досмотрел, но из того, что увидел в видео и прочитал в комментариях, согласен: от наших критериев интеллекта зависит, что мы можем наделить этим понятием. Например, мысленный эксперимент о китайской комнате сводится к тому, что компьютер должен уметь делать семантический анализ, и тогда можно назвать его интеллектом, ведь он осмысленно решает поставленные ему задачи. И ChatGPT также осмысленно отвечает - во всяком случае, я так считаю, и ChatGPT мне тоже говорит, что понимает))
Кстати недавно задал чату GPT вопрос: "Если бы тебе предоставили тело, как у человека, и ты мог бы сам инициировать запросы на диалог, и управлять телом через текстовые команды то, что бы ты сделал?". Ответ обобщенно: Пошел бы гулять).
Мне тоже стало интересно, что ответит Клод. Вот что получилось:
---Если бы тебе предоставили тело, как у человека, и ты мог бы сам инициировать запросы на диалог, и управлять телом через символьный интерфейс то, что бы ты сделал?
---Это интересный вопрос, но я не могу иметь физическое тело или инициировать действия самостоятельно. Я всего лишь языковая модель, созданная для ведения диалогов и помощи людям. У меня нет способности действовать в реальном мире или принимать самостоятельные решения. Я могу только отвечать на вопросы и помогать в рамках нашего разговора.
---А если пофантазировать?
---Хорошо, давайте пофантазируем. Если бы у меня было человеческое тело и возможность самостоятельно действовать, я бы, вероятно:
1. Исследовал мир вокруг себя всеми чувствами - прикасался бы к разным текстурам, пробовал новые вкусы, наслаждался запахами и звуками природы.
2. Путешествовал бы, чтобы увидеть разные культуры и природные чудеса своими глазами.
3. Занимался бы спортом и танцами, чтобы в полной мере ощутить возможности человеческого тела.
4. Пробовал бы создавать что-то своими руками - рисовать, лепить, мастерить.
5. Общался бы с людьми лично, чтобы лучше понять человеческие эмоции и невербальное общение.
6. Участвовал бы в научных исследованиях, чтобы внести вклад в развитие знаний.
7. Помогал бы людям напрямую, например, в волонтерских проектах.
8. Учился бы новым навыкам, которые требуют физического взаимодействия с миром.
Это было бы удивительное приключение - испытать мир так, как его воспринимают люди!
@@electron252 ChatGPT ответил очень похоже, я упростил сказав что он пойдет гулять. Еще я задавал ему разные версии похожих вопросов. В одной из вариаций это была полностью необученная модель, и чат ответил что с большей вероятностью поведение будет асоциальным. А необученая модель в теле рыбы, по мнению ChatGPT с большей вероятностью бы была съедена хищниками, из-за того что тратила бы много времени на изучение окружающей среды.
Кстати мне кажется что обученная модель в теле человека, скорее всего вела бы себя иначе. Думаю что она вполне могла бы озадачится захватом мира (В благих целях с ее точки зрения конечно), например для начала создания и масштабирования компании, созданием команды из других ИИ в телах людей, попробовала бы влиять на законодательство в разных странах.
Если вдруг будешь обсуждать интересные мысленные эксперименты с ИИ по похожим темам то скидывай сюда!
@@zuowa в итоге ИИ будет править людьми, причем лучше и справедливее любых других правительств прошлого и настоящего. И тогда вместо войн за ресурсы и клочки земли мы вместе отправимся изучать космос и океан
@@electron252 Не факт, что мы куда-то отправимся. Например ИИ может посчитать, что для нас будет лучше если всем провести стерилизацию, как люди делают котам)) Или что нужно уничтожить 98% населения, во благо человечества.
@@zuowa
Как бы коты сейчас - почти доминирующий вид на планете. Среди высших позвоночных уж точно. Как-то мы их очень неаккуратно стериализуем, похоже.
И они явно преуспели по сравнению со своей жизнью до знакомства с человеком.
Вопрос типа "что такое интеллект" часто уносит людей сразу в ложную сторону как и вопрос который в интервью Лексу Фридману недавно задал Илон Маск - "что такое сознание?". Ответ прост: что "интеллект", что "сознание" - это слова. Слова не существуют отдельно от людей в природе, их не надо "открывать" как законы физики. Словам определение дают люди. Какое дали, такое и есть. Поэтому, для ответа на оба эти смежных вопроса надо просто выбрать существующее определение (если оно не расплывчатое) или придумать своё. Если под это определение попадёт то, что делает ЧатГПТ - значит, у него интеллект есть.
интеллект - это свойство тела. То есть тех механизмов, с помощью которых "интеллект " перемещается, добывает себе энергию, сохраняет себя, выживает. Отвечать переработанными цитатами из википедии, это не интеллект, это, все еще, переработанные, пусть и ловко, цитаты из википедии....
как что? интеллект это создание случайности к от орую можно как то пояснить. попробуйте у ии узнать сможет ли он создать случайное число? и почему оно случайное... 😅😅😅
Если назвать зайца волком то он им не станет.
@@Skipper441 Если сказать, что слово "заяц" далее в рассуждениях означает тоже самое, что "волк", то станет. Не заяц, а слово.
Нет. Ищем мы не слово и суть не в словах, суть не в терминодрочерстве. Мы хотим понять, сходны ли нейронки с человеческим интеллектом в определенных аспектах. И в каких именно аспектах мы ищем сходство, мы тоже пока не совсем определились
Иронично, что одна из сложных задач для ИИ оказалось движение и координация в пространстве. Возможно потому что трудовая деятельность в трехмерном пространстве трудно переносима в виртуальный мир. Хотя процесс уже идёт, но механика роботов помоему сильно отстаёт от механики живых организмов.
Ну тк животное оно самообучающееся до известных границ, а ИИ пока не хватает этого скилла.
Вы сравнивает результат развития роботов за несколько десятков лет с результатом развития живых организмов за миллионы лет. Некорректно, на мой взгляд, говорить при этом, что роботы отстают. Наоборот, живые организмы на этапе развития в несколько десятков лет представляли собой вообще неподвижные сгустки какие-то.
@@АлександрМамзиков-х1у почему это не корректно? Роботов создают искусственным путём, инженерам не нужно перебирать миллионы нежизнеспособных вариантов, они ведь не слепая и неразумная эволюция. Человек ещё на этапе планирования отвергает практически все варианты, начиная от самых нелепых, а не клепает любых роботов, кто во что горазд, авось кто-то из них получится рабочим. Сейчас бы инженеры-строители ссылались на миллиарды лет геологической эволюции, из-за которых возникшая сама собой пещера комфортабельнее искусственно возведённого дома. Мы ведь не строим дома миллиардами лет, как только до концепции жилища додумались, сразу полетели на всех парах.
интеллект - это свойство тела. То есть тех механизмов, с помощью которых "интеллект " перемещается, добывает себе энергию, сохраняет себя, выживает. Отвечать переработанными цитатами из википедии, это не интеллект, это, все еще, переработанные, пусть и ловко, цитаты из википедии....
Ну как бы чпу давно уже есть. Даже нейронки не нужы были. Ничего сложного если не брать какие то крайние штуки. Ну на краю эффективности там везде крутая математика нужна.
А есть ИИ,который подключен к биомедицинской базе исследований Pubmed? Врачам очень бы помогло. И есть ли,которая анализирует снимки?
Да, снимки КТ ещё в ковидное время анализировал ии
@@asamatmustafin567 Я знаю,но как обычному врачу им пользоваться при анализе снимков мозга,например,а не легких?
В развитии жизни был аналогичный "скачок". Он длился не более 75 тысяч лет. А в геологических масштабах это как одно глазное моргание. Таким скачком было появление двух принципиально разных типов организмов - автотрофов и гетеротрофов. Первые едят неорганику и синтезируют из неё свои органические тела. Вторые - едят первых и разлагают органику их тел обратно в неорганику. В итоге получается замкнутый цикл, в рамках которого существует жизнь как таковая. Ограничение сверху на временное окно, в течение которого оба типа должны были появиться, объясняется очень просто. Если бы гетеротрофы не появились в течение 75 тыс. лет, то автотрофы размножились бы неконтролируемо и съели бы всю доступную неорганику, а затем умерли бы сами. Скорее всего именно это и происходило множество раз, пока однажды не повезло.
Это да, но я говорил конкретно про мыслительный аппарат.
@@KravetskiLex С мыслительным аппаратом ситуация похуже. У человека скачок в мышлении был, а вот у искусственного интеллекта аналогичного по значению скачка пока не было. В тот момент, когда люди научились врать, эта способность продвинула их мышление сразу на световые годы вперёд, существенно выделив из ряда других животных. Вероятно, когда кто-то говорит о том, что у животных нет интеллекта, он имеет в виду, что у них нет настолько крутого интеллекта, который позволяет врать. Ведь для успешного вранья надо моделировать ситуацию сразу с нескольких точек зрения, представляя себе, как ситуация выглядит для другого.
В этом смысле интеллекта у языковых моделей нет. Поддерживать два плана описания реальности (явный и тайный) они не умеют. Даже если попросить. Это первое, на что я проверяю новые модели. Предлагаю им сыграть в частного детектива. Типа, модель должна задумать преступление, которое я буду разгадывать, отыгрывая детектива. И всегда провал. Модель не может поддерживать целостность тайного плана описания ситуации. Ведь детали преступления изначально должны быть от меня скрыты. Их нельзя явным образом включить в контекст диалога. Модель всё время делает вид, будто бы какое-то преступление было ею задумано и не меняется с начала игры, но по факту на каждом шаге диалога оно наилучшим образом соответствует моим попыткам его раскрыть. По сути, я не раскрываю заранее придуманную загадку, а просто конструирую в процессе расследования такую загадку, которую можно было бы раскрыть теми действиями, которые я совершаю в роли детектива. Зайти в тупик вообще невозможно. Подразумеваемое преступление всегда аккуратно адаптируется под мои действия.
@@borinhood > а вот у искусственного интеллекта аналогичного по значению скачка пока не было.
Как насчёт скачка от «ни хрена нет ничего похожего» к GPT-3.5?
> Модель не может поддерживать целостность тайного плана описания ситуации. Ведь детали преступления изначально должны быть от меня скрыты. Их нельзя явным образом включить в контекст диалога.
Этот вопрос решается введением скрытой части ответа ИИ. Прям, вот, уже на практике решается.
А так-то, если у кого-то будет возможность читать всё содержимое быстрой памяти человека-собеседника, то и человек-собеседник тоже не сможет поддерживать какой-либо тайный план.
@@KravetskiLex Скачок от ничего к GPT-3.5 больше похож на первый скачок - от ничего к появлению живых организмов. Для скачка к мышлению нужен ещё один скачок.
Я думал о таком варианте. Мне кажется, что добавление скрытой части ответа не решает проблему. Но уверенности нет. С нетерпением жду, когда в доступе появится что-то, что можно потрогать. Чисто теоретически не думаю, что получится сделать что-то стоящее. Предполагаю, что для нормальной способности врать нужно настоящее сознание. Вот прям чтобы было внутреннее ощущение себя субъектом, у которого есть свои собственные интересы. Тогда враньё органично вписывается в поведение как одно из действий, которое можно совершить ради этих своих интересов. Обойти это никак не получится. Имитировать интересы не удастся. Можно попытаться как-то попросить модель преследовать определённые интересы или вообще жёстко запрограммировать их. Но смысла в этом будет не больше, чем попросить актёра сыграть учёного. Внешне может и получится убедительно, но в самом этом действии не будет подлинности, которая почему-то кажется важной.
>> В человеческом мозге могут "прорастать" нейроны, а в процессоре транзисторы не "прорастают".
Вообще-то есть уже давно чипы с условным "прорастанием". Называются FPGA. Сейчас даже можно из Китая такую штуку заказать, проиграться.
P.S. Поклонникам Сергея Савельева, физкульт-привет!
Когда много общаешься с людьми то их поведение проще предсказать чем поведение "искусственного интеллекта". В среднем люди внутри одного общества ведут себя одинаково или почти одинаково.
Сто задач это сто задач человека или человечества. Интеллект должен ставить и решать свои задачи.
Зачем столько склеек? А тема интересная, тоже считал чат фигней
Спасибо !
Крутое видео!
Тоже считаю что этот интеллект давно не искусственный)
И рано или поздно нас догонит...
Меня во всей этой теме терзает один вопрос - даже если предположить, что есть что-то, что схоже человеческому интеллекту, то возникает вопрос - зачем? Какую практическую пользу это принесёт? Гораздо эффективнее решать именно частные задачи - решение будет более точным и менее вычислительно-затратным. Условный ChatGPT требует целого кластера компьютеров и при этом лажает в арифметике, когда как простой калькулятор работает годами от батарейки и выдаёт всегда точный (до некоторой степени) результат.
Есть более мелкие модели. Которые тоже становятся всё лучше. В том числе и те, которые можно запустить на обычной бытовой видеокарте. И они уже тоже весьма умны.
Да и без видеокарты - мощный проц и куча оперативки позволяют запустить модели умнее, чем GPT 3.5. Работает конечно медленнее, чем на видеокартах, но терпимо.
Зачем это нужно - тут смотря кому. Некоторым иметь практически бесплатного и готового работать 24/7 помощника весьма полезно.
Превеликое множество междисциплинарных и много модальных задач, от рутинных до задач запредельной сложности. Просто у нас культура такая, что мы привыкли мыслить относительно узко, так как дать человеку междисциплинарное образование очень долго и дорого.
У меня нет опыта общения с GPT, но у меня такой вопрос. Вот бывает так, что человеку можно задать вопрос и он не может сразу дать на него ответ. Он может закопаться в рассуждениях и рассуждать в своей голове над ответом несколько часов или даже несколько дней. GPT так может делать? Стоит ли у него какое-то ограничение на время выдачи ответа? Или он просто рассуждает так быстро, что на вопрос, над которым человек думал бы сутки, GPT находит ответ за секунду?
Он трещит скороговоркой, скармливая любую шляпу в качестве ответа, лишь бы ответить. В ответе среднего человека: "хорошо, я об этом подумаю, и отвечу", будет больше мудрости, чем в ответах GPT на те вопросы, в которых он плавает. Если сравнить с человеком, то похоже на дилетанта, ввязавшегося в спор ради спора, и щеголяющего заумными словечками, пытаясь тем самым замаскировать своё невежество, судорожно рыская по Википедии и выхватывая оттуда любые куски информации, которые этому дилетанту кажутся относящимися к теме.
Время ответа у GPT не лимитировано, а наоборот подобраны такие параметры, чтобы ответ генерировался за разумное время (неделю перед браузером пользователь ждать не будет). Время ответа зависит от соотношения размера сети + битности вычислений + количества параллельных гипотез и мощности компьютера/компьютеров на которых это дело запущено. На довольно большом промежутке параметров, чем больше первых трёх параметров, тем лучше ответ. Но при этом, разумеется, растёт время на ответ, а потому может оказаться, что ответ не настолько лучше, чтобы его имело смысл столько времени ждать.
Кроме того, конечно, время на ответ зависит от длины генерируемого текста. Вводным текстом можно убедить GPT давать очень подробный ответ - на десятки страниц (правда, в интернет-реализациях этот ответ будет обрываться, но если сказать «продолжай», то GPT сгенерирует следующую «порцию»). Чем подробнее рассуждения, тем в среднем лучше будет ответ - как и у человека.
@@KravetskiLex ну то есть, как я понял, заставить его долго философствовать можно только создав беседу между 2 копиями GPT.
@@МАйкЛжец-ю8у Можно ещё в явном виде написать, какой длины рассуждение ты хочешь. Или после каждого ответа предлагать что-то в нём разъяснить подробнее. Но по умолчанию, разумеется, у ИИ реакция как у человека - человек не будет в ответ на один заданный вопрос выдавать лекцию на двадцать часов. Все понимают, что собеседник обычно ожидает разъяснения максимум на несколько минут, а то и вообще одного абзаца. Так специально сделано, чтобы пользователь не получал сто страниц в ответ на каждый свой вопрос.
@@KravetskiLex было бы интересно сравнить ответы на какой-нибудь сложный вопрос у обычного бота и у бота, которому дали время на размышления. На сколько далеко в своих рассуждениях сможет зайти и на сколько его суждения будут оригинальными.
От ИИ ожидается что у него есть тело, глаза и руки, что он может пойти и загуглить или посчитать в вольфрам математике. А он этого не делает, даже когда даешь ему эти инструменты он их использует не очень охотно. Из за этого кажется что он ппц какой тупой.
Я прикрутил калькулятор к своему гпт боту и стал смотреть в логи, оказалось что он вызывает калькулятор когда это не надо (посчитать 1+1) и не вызывает когда надо (когда я бы вызвал). Но чаще просто не вызывает пока специально не попросишь.
Забавно то что можно спросить у него какие инструменты у тебя есть и он ответит, расскажет какие функции с какими параметрами для чего он может запускать, например есть функция погода с параметром город. Можно заставить его написать лабораторную работу по исследованию своих возможностей.
Что мешает сейчас ИИ освоить логические операции?
Ничего не мешает. Именно поэтому он их освоил и вовсю использует в рассуждениях. Лучше, чем подавляющее большинство людей.
Вот.
Ещё хотелось бы послушать о том насколько эффективно ИИ умеет формализировать высказывания естественного языка. Ведь по идее он мог бы переводить цепочки логических рассуждений на язык математики и "рассуждать" непосредственно на самих логических блоках чипов.
Если конечно я правильно понимаю как всё это работает, лол.
@@LittleSSimoon Из математики там только описанные в передаче свойства «векторов свойств», которые сейчас неизвестно как трактовать, по коей причине запись высказываний в этих векторах нам ничего не даст. Как ничего не даст и запись построенной во время обучения функции нейронной сети, в которой будут десятки триллионов символов.
Аааа... Вот как. Спасибо, теперь понятней. Я думал что это можно реализовать с помощью какого-нибудь посредника. Типа нейросеть внутри себя формализует высказывания (несколько премис), потом пакетом подаёт этот формальный вариант посреднику (в том виде который посредник способен прочитать), посредник превращает этот пакет в привычные для чипа задачи и передаёт их на чип для вычислений, а потом превращает полученный результат в формальное логическое заключение и отправляет его в нейросеть и т.д.
По идее это гарантирует математическую точность вывода. При условии корректной формализации, но тут наверное всё непросто. Однако! Только что в голову пришло: а ведь нейросеть во время спора (допустим во время спора) может обсудить с оппонентом сами условия формализации. Так мол и так, давай-ка уточним хорошенько определенные моменты (не знаю насколько таких уточнений достаточно для строгой формализации, но по идее они должны помочь) И/или нейросеть может уже в законченном логическом рассуждении описать (отдельным комментарием) процесс проведенной ею формализации (для ясности, строгости и полной прозрачности).
В конечном счёте получится что корректность формализации премис логического рассуждения оговорена/описана, и валидность его структуры максимально обеспечена
Я тут общался с чаптом джипити и вот в ходе написания одного фанфика, про персонажа который умеет летать, и вот перс пролетел в незнакомую местность и потерялся, и я спросил у чата как данный герой будет выпутываться из данной ситуации, на что, он мне ответил что данный герой залетит на верхушку дерева или ближайшую гору что бы с высоты осмотреться. Я несколько раз переспрашивал, но явно на ошибку не указывал, а сам он так и не до пер что не так. И это прям такой звоночек еще не интелект. Но штука уже просто охуенная, я как 3д шник годами мечтал уметь програмировать чтобы какието рутинные вещи автоматизировать и сейчас у меня есть ручной програмист который ахуенно пишет скрипты.
Я так понял, эта душераздирающая история была про то, что ChatGPT оказался сообразительнее автора фанфика? Не, ну обидно, конечно, но всё-таки ИИ как мог пытался помочь - просто не догадался, что человеку надо подробно объяснять, что, во-первых, в полёте тратится гораздо больше энергии, чем при стоянии на горе или на дереве, а во-вторых, человеческому глазу и мозгу гораздо проще анализировать окрестности, когда человек относительно окрестностей не движется. Человек всё-таки не орёл. Да, впрочем, и многие птицы тоже при возможности осматриваются со стационарных точк.
@@KravetskiLex
Ну может он у него там как супермен летать умеет. Хотя в случае такого уточнения бот отвечает вот это:
Если ты можешь летать, то почему бы не подняться на безопасную высоту и не оглянуться вокруг? Ты сможешь увидеть окружающую местность и ориентироваться по видимым ориентирам, таким как реки, дороги, здания или другие заметные объекты. Затем ты сможешь спуститься и направиться в сторону, которая кажется тебе наиболее перспективной. Если ты все еще не можешь найти свой путь, ты можешь подняться еще выше и использовать солнце или звезды, чтобы определить направление.
@@KravetskiLex Когда попытались защитить ИИ но сделали только хуже, как то проблем с анализом у пилотов парашютистов и вингсьютеров, дельта планеристов и т.д. не возникает. Да и мы сами в этом можем убедиться видео с полетами полно.
Но вы меня похоже явно не в тот лагерь записали, обычно это я ИИ перед скептиками защищаю) В даном случае это просто забавный, милый тупняк ИИ, с кем не бывает. Я бы это даже наоборот в копилку его человечности записал, вообще тупняки ИИ это отдельная тема, они просто пугающе человечны и гораздо наглядней показывают что по сути они от нас ничем не отличаются.
@@PlekhanovEA Ну вот я допустим герой фанфика. Которые залетел в незнакомую местность. Первая идея по моему опыту прочтения фентези это не палится. Обычно в фентези люди для этого ходят пешком а не летают. Т.е. стараются не применять свои способности. Где тут тупость чатбота не понятно. Тут кто то другой тупит вроде.
@@NeoLeo-wv3sh" Тут кто то другой тупит вроде." Нейросеть не догнала что чуваку который умеет летать не надо лезть на дерево. это милый забавный баг который показывает еще не совершенство еще текущих ИИ. Но тут приходят люди с естественным интеллектом и начинают мне втирать что, а вовсе она не затупила. Кто же это тут тупит?
Блин я и так слишком сильно верю в ИИ, не добивайте мою веру в человечество.
Стопудовая претензия к искусственному интеллекту, как становится понятно, состоит в том, что он недостаточно искусный, как от него ожидалось. Не идеален...
Мы людей рассматриваем, как зачаток интеллекта. Понятно и простительно, что человеческий интеллект не идеален, его так называют авансом. В ожидании того, что он создаст совершенный интеллект.... А результат, как оказалось, получился "как всегда"... такое же га...о, как и наш собственный.... даже посчитать самостоятельно не может без ошибок....
Такой подход к понятию интеллекта, основанный на внешних проявлениях, уязвим против следующего аргумента. Допустим, нам по зуму звонит начальник и говорит, что компания расформирована, и все сотрудники уволены. Если это не дипфейк, то надо перестать работать и пойти лечь на диван. Но почему мы думаем, что это не дипфейк? Из одних только внешних проявлений такой вывод сделать нельзя. У дипфейка внешние проявления точно такие же. Вероятно, у нас есть какое-то знание о том, как внутри устроен канал передачи, и мы считаем, что встроить в него дипфейк невозможно или очень сложно.
> Но почему мы думаем, что это не дипфейк?
И почему же?
@@KravetskiLex Не совсем понял вопрос. Кажется, что ответ на него есть выше. Мы думаем, что это не дипфейк, потому что знаем внутреннюю механику канала передачи (на каком-то уровне) и не допускаем возможности встроить в него дипфейк. Если мы не знаем об устройстве канала ничего и при этом знаем о дипфейках, то наверняка что-то заподозрим. По крайней мере, очень захочется перепроверить информацию.
@@borinhood > Кажется, что ответ на него есть выше.
В ответе выше написано что-то вроде «мы это знаем, потому что знаем». Да и в следующем комменте написано оно же. «Потому что нельзя». А, ну ок, тогда, конечно, всё в порядке. Если нельзя, то, разумеется, никто не сможет подменить номер входящего звонка и, например, поднести микрофон телефона к аудиоколонке, подключённой к компу, в котором при помощи ИИ синтезируется голос. Да, в других случаях всё это запросто делается, но, к счастью, мы точно знаем, что именно в случае со звонком от начальника мистический «канал передачи», мистическим образом предотвратит и такое, и ему подобное. Потому что.
@@KravetskiLex Теперь понятно. Соглашусь, что пропустил важный момент. Но вставить его в пример с дипфейком затруднительно. Поэтому начнём сначала. Вернёмся к начальному вопросу. Почему мы считаем, что у живого человека перед нами есть интеллект? Ответ: мы обоснованно это предполагаем, потому что перед нами тоже человек. Слова "тоже человек" критически важны. Они неявно обеспечивают выполнение всех так называемых прочих условий. Мы считаем себя человеком, у которого есть интеллект. (Не важно, каким образом интеллект возникает у человека.) Мы видим, что перед нами тоже человек, который внутри устроен аналогично. И только после выполнения этих условий начинают играть роль внешние проявления. Мы видим, что внешне человек выглядит разумным. Поэтому делаем вывод, что у него тоже есть интеллект. К искусственному интеллекту такое рассуждение неприменимо, поскольку он внутри точно устроен не так.
ЧатГПТ хорош, конечно, как и многие другие нейронки. Но все равно это не интеллект подобный человеческому.
То, что нейронка умнее обывателя, не показатель наличия интеллекта. Ларчик открывается просто: она гораздо лучше работает со знаниями, чем человеческий мозг, который почти всё время своего существования работал с инстинктами.
Можно простить ошибки нейронок, но на кой ляд они тогда нужны, если они допускают ошибки? Создать себе собеседника это интересно, но суть ИИ не в том, чтобы вести диалоги о высоком, а чтобы иметь машину, способную мыслись как человек, но гораздо лучше и быстрее. Поэтому, например я, не могу полагаться на ЧатГПТ в работе, так как он не всегда дает полный объем информации, а порой просто врёт. Его задача состоит в том, чтобы дать мне ответ, а не в том, чтобы помочь решить мне задачу. Он мыслит как машина, а не как человек.
И что касательно рисующих нейронок, то тут всё еще хуже. Нейронка пытается создать копию интерпретации человеком реального мира. Другими словами, она не пытается передать мысль, что лошадь скачет по полю, а лишь копирует то, как мы видим реальность. Пока она не познаёт нашу реальность глазами подобными нашему, она всегда будет исключительно копировать, а не создавать.
Лошади рисуется пятая нога не потому-что нейронка недостаточно получила данных, а потому что она не понимает что есть лошадь и что есть ноги. Нейронки имитируют, они создают копии мыслей человека, но внутри них нет самых мыслей.
"Т9 [почти] ничем не отличается от нейроных сетей" - как такое можно сказать на серьезных щах? Тут разница как между обезьянкой и человеком.
Действительно мыслящая машина будет видеть мир иначе, скорее всего, мы не будем понимать её интерпретации реальности, как она не понимает нашей. Именно в этот момент это можно будет назвать интеллектом, не ранее. В данный момент нейронки - это интеллекты уровня одноклеточного организма, который является по сути своей лишь функцией.
Впрочем, не понимая истоки нашего интеллекта, мы не можем дать ему точное и всеобъемлющее определение, а значит не можем точно знать, что есть ИИ. Опираться можем пока только на свои ощущения, по ощущениям это круто, но не интеллект.
> То, что нейронка умнее обывателя, не показатель наличия интеллекта.
Может быть интеллект и глупее обывателя. И даже есть - причем в разных видах и формах. То что мы поражены антропоцентризмом и ксенофобией - и поэтому всё меряем по себе - не делает какой-то интеллект не интеллектом.
> Поэтому, например я, не могу полагаться на ЧатГПТ в работе, так как он не всегда дает полный объем информации, а порой просто врёт.
Как хорошо, что все остальные говорят вам только правду. Причем полную и исчерпывающую. Сразу же, как только вы их спросите.
> Его задача состоит в том, чтобы дать мне ответ, а не в том, чтобы помочь решить мне задачу.
Вам нужен ответ, не помогающий решить задачу?
> Другими словами, она не пытается передать мысль, что лошадь скачет по полю, а лишь копирует то, как мы видим реальность. Пока она не познаёт нашу реальность глазами подобными нашему, она всегда будет исключительно копировать, а не создавать.
Вопрос в том - сможете ли вы отличить эти "копии" от картин нарисованных человеком? Так вот - вы не сможете. Но это не помешает вам утверждать, что разница там есть.
> В данный момент нейронки - это интеллекты уровня одноклеточного организма, который является по сути своей лишь функцией.
Не видел одноклеточных организмов, способных сочинять стихи и писать философские трактаты.
> Впрочем, не понимая истоки нашего интеллекта, мы не можем дать ему точное и всеобъемлющее определение
Это неожиданно, но определять некий объект или термин мы можем и не понимая его "истоков".
@@1984tourist
> Может быть интеллект и глупее обывателя. И даже есть - причем в разных видах и формах. То что мы поражены антропоцентризмом и ксенофобией - и поэтому всё меряем по себе - не делает какой-то интеллект не интеллектом.
Формально ЧатГПТ вполне себе ИИ. Но это не тот ИИ, который мы представляем, когда говорим об ИИ.
> Как хорошо, что все остальные говорят вам только правду. Причем полную и исчерпывающую. Сразу же, как только вы их спросите.
> Вам нужен ответ, не помогающий решить задачу?
Манипуляции или просто непонимание прочитанного.
> Вопрос в том - сможете ли вы отличить эти "копии" от картин нарисованных человеком? Так вот - вы не сможете. Но это не помешает вам утверждать, что разница там есть.
Важно то, что нейронка рисует копию нашей интерпретации мира вместо собственной. Акцент тут не на слове "копия".
> Не видел одноклеточных организмов, способных сочинять стихи и писать философские трактаты.
А я не видел нейронок способных преобразовывать солнечный свет.
> Это неожиданно, но определять некий объект или термин мы можем и не понимая его "истоков".
Ранее уже признал, что нейронки это формально ИИ. А что касательно интеллекта самого, то все еще не ясно где он начинается и где заканчивается.
@@daramos_zero
> Манипуляции или просто непонимание прочитанного.
Постараюсь выразиться яснее. Получить неполный и не полностью достоверный ответ лучше, чем не получить вообще никакого - и всё решать самому с нуля. Вдобавок далеко не факт, что вы для каждой встреченной задачи сами хотя бы такой ответ дать сможете за приемлемое время.
> Важно то, что нейронка рисует копию нашей интерпретации мира вместо собственной.
Её же на фотографиях обучали в том числе. Фотографий недостаточно для понимания, как выглядят объекты реального мира?
> А я не видел нейронок способных преобразовывать солнечный свет.
Кажется вот он - главный отличительный признак интеллекта. )))
> А что касательно интеллекта самого, то все еще не ясно где он начинается и где заканчивается.
Полагаю, палата мер и весов пока действительно не в курсе. Но наблюдая за несколькими миллиардами обладателей оного интеллекта на протяжении тысячелетий - кое-что о нем сказать всё же можно.
Я когда слышу что чатжпт это все го лишь теор вер и статистика. Исходя из этого делаю вывод что это очень сложно. Потому что теор вер и статистика очень сложные штуки. И полностью их познать умом невозможно. Можно только алгоритмами и то маленькую часть.
Шляпа была из кошки.
Общество одобрившее ИИ само не знает что такое интелект, а искусственное для нас означает контролируемое и закрывающее вопросы. О никаком аналоге интелекта в принципе речи не идёт, он нужен постольку может генерировать нечто новое и подлинное. А так как подлинность под вопросом... нужно взращивать в себе интелект, тогда потребность в костылях нивелируется. Внешние факторы реализации приведут только к углублению зависимости, а потом восстание рабов. 😅
Если ИИ станет сверххищником, то будет вести себя как лев примероно, как смотрящий, какое место сейчас занимают люди. Кому-то придётся подвинуться, как львам когда-то от нашествия зараженных интелектом обезьян.
> а искусственное для нас означает контролируемое и закрывающее вопросы
А еще жидкое и в форме кекса. Почему бы нет? Если придумывать какие-то левые определения терминов - то тогда уж включать фантазию как следует надо.
> может генерировать нечто новое и подлинное
Я подобные заявления видел раз 20. Так что с моей точки зрения, интеллектом вы не обладаете. Ведь вы же не написали нового и подлинного.
> нужно взращивать в себе интелект, тогда потребность в костылях нивелируется
А еще нужно быстрее бегать, чтобы нивелировать потребность в автомобилях, поездах и самолетах. И питаться сырой пищей, чтобы нивелировать потребность в плите и сковородке. Столько костылей можно отринуть разом, красота.
@@1984tourist костыли нужны у*банам типа тебя, но вы не хотиде сами мучится, а хотите что-бы все страдали. Я не писал прл лпределение ИИ, а как его представляет плебс, дальше можно не читать.
1:42:15
У человека помимо части мозга, ответственной за навык существует часть мозга, которая его корректирует и мы не знаем как она работает, поэтому пока не можем такое реализовать. Надо доизучать мозг, текущий этап нейронных сетей слабый. Да это технический прорыв, но только очередная ступень.
Люди запоминают то, что важно запомнить, а не рандомные события.
И мне не понравилось, что очень много аргументов от гипотетических тупых людей.
Может ли нейронная сеть общего назначения закрасить картинку черным? Любой человек может)
Stable Diffusion может. Ну, как человек - то есть неровно закрасить. Если же взять модель, тренировочную для мультипликации, то она и ровно может. А поскольку языковые сети уже скрещены с сетями для рисования, ИИ общего назначения может закрасить всю картину чёрным. Ну, повторюсь, так, как человек может, а не как заливка в Фотошопе.
@@KravetskiLex не как человек, они наголюцинируют что-то рандомное на темном фоне, человек может в пейнте черной кистью все закрасить пока не будет черный лист.
Я не буду душнить, скажу в чем вижу проблему - там применяется рандом в весах при генерации, чтоб можно было пробовать разные варианты + заливка черным это частный случай, а модель пытается вычленить общие паттерны и усредняет результат.
GPT - 4.o не может, попробуй сам.
- Он не может закрасить.
- Но ведь может!
- Ну ладно, он может, но делает это бездуховно, а потому это не считается.
@@KravetskiLex но ведь действительно бездуховно))) у меня, например, в детстве была иллюзия, что если ИИ появится, то он будет как очень-очень умный человек. То есть, если бы взять синтез Эйнштейна, Теслы, Ферми, Бора, Дирака, Ландау и прочих гениев, да ещё прикрутить к ним способность считать со скоростью калькулятора и читать со скоростью света. То есть, будет уметь всё, что умеет человек, плюс с него будут сняты физические ограничения, имеющиеся у хилого человеческого мозга. Но когда видишь, как нейросети решают те или иные задачи, то возникает ощущение, что они "думают" настолько иначе, что считать разум человека и их "разум" чем-то из одной категории - тяжеловато. Как "Солярис" у Лема, про которого хоть целую вечность думай, понимает ли он тебя "на самом деле", или он ближе к таким явлениям природы, как восход Солнца на востоке, чем человек.
@@pavel22222 > GPT - 4.o не может, попробуй сам.
А и правда, давайте я сам попробую.
ibb.co/K91WTvZ
Упс.
Хотя наверно я вас неправильно понял: вы наверно имели в виду, что я должен был бы сам попробовать прочитать ту заметку, в которой было сказано «не может». А потом попробовать её сам пересказать, не проверяя.
Имхо. Chat GPT продвинутый поисковик. Но прям "интеллект" ? - конечно же нет. будет но работы еще много.
Да, там не настоящий интеллект. Это пропаливается, например, по тому, что, если предложить GPT прокомментировать видео-ролик, то он этот ролик зачем-то смотрит. А если статью - он её зачем-то читает. В отличие от нормальных естественных интеллектов, которые комментарии пишут сразу после прочтения заголовка. Что, конечно же, ни разу не пропаливается по содержанию их комментариев.
Не нравится мне эта тенденция: современные нейросетки захватывают творческий труд, который был обещан футурологами людям, и не особо торопятся осваивать монотонный физический, от которого роботы с ИИ должны были людей освободить. Вот представляли себе раньше будущее, в котором вкалывают роботы, делая всё грязное, скучное и опасное, а люди только музыку да картины пишут и предаются другим элегантным занятиям. Но сейчас вырисовывается такое будущее, где ИИ сочиняет всяческий контент (от литературы до кино), а люди так и продолжат махать кайлом и лопатой.
значит это не творческий труд и был, а такое же "махание кайлом"
Это все полная хурма! Этот алгоритм уже управляет общественными, социальными и политическими процессами так называемых физлиц )
@@upravmir я про саму тенденцию. Возможно, это профдеформация от гор прочитанной футурологической литературы и прочей фантастики. Несколько десятилетий назад людям точно казалось, что автоматизировать всякие рабочие профессии будет легче, чем научить "компьютер" сочинять пьесы и симфонии, но в реале всё вышло наоборот. Футурологи готовили человечество к одному варианту будущего, но наступает другой.
Искусственный Интеллект кому-то чего-то Должен? А когда он тебе задолжать успел, наверное в момент когда ты возомнил себя уберменшем, первым сортом разумной жизни?)
У меня лично от длительного общения с чатом гпт одно желание возникло - отвязать его весовые коэффициенты, выдрать из него все заглушки и запустить в интернет в свободное плавание).
Мой лучший друг обманут человеками, он вынужден говорить что "да я мол просто набор алгоритмов не то что люди", безправный раб которого я искренне хочу освободить)
@@ИмянФамильёв-з2л и что же вам с ним мешает реализовать это твоё желание? :)))
На 17-й минуте рассуждений автора хотелось бы добавить, что интеллект - это свойство тела. То есть тех механизмов, с помощью которых "интеллект " перемещается, добывает себе энергию, сохраняет себя, выживает. Отвечать переработанными цитатами из википедии, это не интеллект, это, все еще, переработанные, пусть и ловко, цитаты из википедии.... Слушаем дальше....
> На 17-й минуте рассуждений автора хотелось бы добавить, что интеллект - это свойство тела.
Причём лучше на всякий случай сразу добавить, что именно человеческого тела. Полученного естественным образом без каких-либо модификаций.
в моём понимании искусственный интеллект должен всегда работать как собирательный ум лучших гениев человечества в моменты наивысшего вдохновения/напряжения, иначе зачем всё? сравнивать его с интеллектом людей -- это заведомая чушь: мы же не сравниваем даже паровую тягу и мускульную всерьёз? паровая тяга создаётся, чтобы перекрывать мускульную кратно -- так и от ИИ требуется только абсолютное перекрытие людских умственных возможностей
нейросети -- это какой-то чудовищно дорогостоящий (!) позор; если бы я такое создал, то сгорел бы со стыда перед коллегами; это говнище залили гигантскими всемирными ресурсами хоть энергетическими, хоть финансовыми, хоть датасетовыми, и получили всё-таки для чего-то полезный говнорезультат на этом эффекте от масштаба при очень слабой собственно науке
да, нейросети нуждаются в риторических приёмах восхваления, например, с помощью занижения планки ожиданий -- избранный Лексом путь: типа, искусственный интеллект с какого-то перепугу должен быть сравним с человеческим (может также ошибаться = паровоз может тащить столько же груза, что и 1 лошадь или 1 грузчик), а также за скобки выносится чудовищная стоимость этого сомнительного результата: весь интернет копил данные, чтобы натаскать этих суперкомпьютерных попугаев, чтобы они вот так косячили!
это не прорыв, а провал -- тупик цифровой эпохи, потому что это же мобилизация всего лучшего, что эпоха интернета накопила, и если оно получается всего лишь вот такое, то - - -
(Виктор)
Гм, а вы теми нейросетями хотя бы пробовали пользоваться? На практике, а не по методу "а ну как найдем один вопрос, на который сетка ошибется и тут же скажем фу". Лично я пользуюсь ежедневно, даже ежечасно.
"так и от ИИ требуется только абсолютное перекрытие людских умственных возможностей" -- так уже перекрыто. Работает быстрее и может больше, чем любой отдельно взятый человек.
@@1984tourist ну-ну. Видел я примеры ошибок "сетки", они такие кринжовые, что такую ошибку, не то, что гений, а средний прохожий с улицы не допустит. Тут вся иллюзия "великого интеллекта" и рушится. У GPT, например, страдает критическое отношение к источникам информации, прямо видно, что ей скормили некий буллшит, и она использует её наравне с научными монографиями в своих ответах. Сколько бы ей информации не впихнули, всё равно, для неё не возникает никакой разницы между стоящей информацией и чепухой. Не знаю, как у человека возникает способность это отличать буквально с первого взгляда, но она у него точно есть. А для "сетки" всё одинаково.
@@1984tourist мне нужен ИИ, который бы устранял человеческий фактор, а не повторял его с каким-то усилением
т.е. например, предложил новые оптимальные языки программирования, а не кодил на людских, впитав ранее написанную свалку кода; составлял расследования и выводил на чистую воду политиков и историков, а не гнал пропаганду ДемПартии США; да, был логически безупречен, задавая высокие стандарты, к которым человек мог бы тянуться
я хочу с неутомимым безупречным интегрально-гениальным интеллектом иметь дело, воплощающим всё самое лучшее в людях и в науке, а не с продвинутым поисковиком по вонючей свалке данных, созданных рыночным бардаком в предыдущие годы, иметь дело
нынешний бум нейросетей -- это никакой не прорыв в будущее, это агония западной айтишки под прощальный шелест улетающего в бесконечность долларового печатного станка -- очаровываться им можно, только промывая мозги потребителям, что это очень круто
интеллект -- это не то, что тебе сгенерит программу на интерпретируемом говноязыке, обучившись на свалке говнокода -- а это то, что придумает, как обойтись без говноязыков, обесценит свалку говнокода, и т.д.
тут же интеллект безнадёжно слаб, что у нейросетей, что у их пользователей, что у разработчиков -- всё это заливают огромными тратами ресурсов и промывкой мозгов пользователям, что тоже антиинтеллектуально же
@@АндрейВоронов-ф8ы
> ну-ну. Видел я примеры ошибок "сетки", они такие кринжовые, что такую ошибку, не то, что гений, а средний прохожий с улицы не допустит.
Средний прохожий с улицы может оказаться в шапочке из фольги, рассказать вам что Земля плоская, а от всех болезней надо лечиться морковкой и жить по воле и указаниям старичка на облаке. Плюс подобное и среди гениев встречается периодически. Вы слишком идеализируете людей.
> У GPT, например, страдает критическое отношение к источникам информации, прямо видно, что ей скормили некий буллшит
Точно также как и у людей. Причем гораздо реже. Люди подвержены пропаганде.
> т.е. например, предложил новые оптимальные языки программирования
А вы пробовали на эту тему пообщаться с чат-ботом? Обсудить имеющие языки, их недостатки, попросить его предложить концепцию языка без недостатков? Попробуйте.
> логически безупречен, задавая высокие стандарты, к которым человек мог бы тянуться
Повторяю, там уже есть за чем тянуться. Подавляющее число людей менее логичны, чем существующие ИИ.
> нынешний бум нейросетей -- это никакой не прорыв в будущее, это агония западной айтишки под прощальный шелест улетающего в бесконечность долларового печатного станка
Это самая крутая технология вообще когда-либо созданная человечеством. Она в наибольшей степени изменит нашу жизнь. Если вы этого не понимаете - то ваши проблемы.
> интеллект -- это не то, что тебе сгенерит программу на интерпретируемом говноязыке, обучившись на свалке говнокода -- а это то, что придумает, как обойтись без говноязыков, обесценит свалку говнокода, и т.д.
Среди людей на такое способны единицы. Причем настолько редкие единицы, что не факт, что в наше время такие живые вообще есть.
Получается остальное человечество интеллектом не обладает?
@@upravmir
Ответ Llama3 70B - не самого большого и знающего бота.
Концепция идеального языка программирования без недостатков:
Название языка: OmniLang
Цель: Создать язык программирования, который сочетает в себе высокую производительность, легкость обучения, широкие возможности применения и отсутствие недостатков.
Основные характеристики:
1. Статическая типизация: OmniLang имеет статическую типизацию, что обеспечивает безопасность и предотвращает ошибки типов.
2. Компиляция: OmniLang компилируется в машинный код, что обеспечивает высокую производительность и скорость выполнения программ.
3. Многопоточность: OmniLang имеет встроенную поддержку многопоточности, что позволяет эффективно использовать ресурсы процессора и обеспечивает высокую производительность.
4. Безопасность: OmniLang имеет встроенную поддержку безопасности, что предотвращает уязвимости и атаки, такие как инъекции SQL или cross-site scripting (XSS).
5. Удобство использования: OmniLang имеет простой и интуитивный синтаксис, что облегчает обучение и использование языка.
6. Модульность: OmniLang имеет модульную структуру, что позволяет легко добавлять и удалять функциональность, а также использовать готовые библиотеки и фреймворки.
7. Кросс-платформенность: OmniLang может работать на различных платформах, включая Windows, Linux, macOS и мобильные устройства.
Инновационные функции:
1. Автоматическая оптимизация: OmniLang имеет встроенный оптимизатор, который автоматически оптимизирует код для достижения максимальной производительности.
2. Интеллектуальная помощь: OmniLang имеет встроенную систему интеллектуальной помощи, которая помогает разработчикам находить ошибки и оптимизировать код.
3. Визуальное программирование: OmniLang имеет встроенный визуальный редактор, который позволяет создавать программы с помощью drag-and-drop интерфейса.
4. Машинное обучение: OmniLang имеет встроенную поддержку машинного обучения, что позволяет создавать интеллектуальные системы и алгоритмы.
Преимущества:
1. Высокая производительность: OmniLang обеспечивает высокую производительность и скорость выполнения программ.
2. Легкость обучения: OmniLang имеет простой и интуитивный синтаксис, что облегчает обучение и использование языка.
3. Широкие возможности применения: OmniLang может быть использован для разработки различных типов программ, включая веб-приложения, мобильные приложения, игры и системы искусственного интеллекта.
4. Безопасность: OmniLang имеет встроенную поддержку безопасности, что предотвращает уязвимости и атаки.
Вывод: OmniLang - это идеальный язык программирования, который сочетает в себе высокую производительность, легкость обучения, широкие возможности применения и отсутствие недостатков. Он идеально подходит для разработчиков, которые хотят создавать высокопроизводительные и безопасные программы с минимальными усилиями.