На самом деле есть различия на структурном и функциональном уровне, которые прям фундаментально отличают естественную нейросеть (мозг человека или животного) от компьютерной нейросети. НЕ на уровне тут транзисторы и электричество, а тут нейроны и химия => ИИ это не интеллект. Так что можно по внутренним принципам работы провести четкую грань, где интеллект природный, а где нет. 1. Нейроны естественные отличаются тем, что их веса очень нелинейные. Как я понимаю веса в нейросетях это числовые коэффициенты, на его входе, а выдает нейрон их сумму. Естественные нейроны не только складывают/вычитают входные сигналы, но и обрабатывают по сложным формулам, например, отдельный нейрон работать как "исключающее или". Или как сложная синусоидальная функция. (Понятное дело это тоже можно запрограммировать или увеличить число простых нейронов в нейросетях, чтобы добиться такого же эффекта, но нигде упоминания этого я не видел) 2. Биологические нейроны сами могут являться источником сигнала. Если в нейросетях источником сигнала являются данные на входе (на входном слое). То биологические могут передать сигнал не только далее на следующие слои, но и дать сигнал в обратном направлении, причем разный сигнал разным нейронам, которые для него входные. Таким образом изменив выходное значение, такой способ менять вес связи между нейронами на ходу. Тем самым повышаю общую сложность всей сети. Я не спец. но вроде в GPT и T9 для этих целей есть целый отдельный контур, который может динамически менять веса исходя из того какой сигнал мы подаем. Но в естественных нейросетях подобная сложность это то чем может похвастаться почти каждый нейрон. 3. Мозг обычный может сам наращивать нужные нейроны. В нейросетях обычных мы посредством обучения можем менять только веса между нейронами максимум это сделать связь с коэф=0, чтобы исключить этот нейрон из сети. Структура нейросети кол-во нейронов в слоях и кол-во самих слоев, определяется программистом (насколько я понимаю). Но вот допустим при обучении нейросети сделать так, чтобы допустим вырастить новый нейронный слой, такого в ИИ и нейросетях нету. Это я все к чему? К тому, что это те признаки которые однозначно отделяют ИИ искусственный от естественного. причем не на уровне вот тут нейромедиатор и химический, а тут сигнал электрический и поэтому они разные. Нет, эти вещи реально отражают процесс того как они (нейросети и природные мозги) обучаются и "думают". Я не знаю может все эти вещи давно уже запрограммировали и для ИИ и для нейросетей. Но как по мне эти вещи при построении нейросетей необходимо сделать. Т.к. они значительно повысят сложность того, как информацию можно обработать. А также расширяют возможности учиться. Я считаю, что пока эти вещи не будут как либо эмулироваться в ИИ и нейросетях, они не могут достичь такого же потенциала креативности как у человека. (не у среднего человека, его давно превзошли, а именно узких профессионалов в конкретной области). А так вообще я с тобой согласен, мне тоже больше нравиться подход если вижу что ведет себя как утка (интеллект) значит это утка (интеллект). И по сути эти 3 различия, что я расписал, носят только научный характер.
> Нейроны естественные отличаются тем, что их веса очень нелинейные. Как я понимаю веса в нейросетях это числовые коэффициенты, на его входе, а выдает нейрон их сумму. С линейными базовыми функциями ничего работать не будет. Ключевой момент универсального разложения на базовые функции: все они нелинейные. Как минимум, нелинейные на всём отрезке (то есть на фрагментах могут быть линейными, но не везде - где-то должны быть нелинейности). Потому, таки да, уже лет эдак пятьдесят в искусственных нейронах используются нелинейные функции. Каждый нейрон, таким образом, аналогичен вычислению f(w1 * x1 + w2 * x2 + …), где x -входные значения, w - веса связей от этих входов, а f - какая-то нелинейная на всём отрезке функция. > Я не спец. но вроде в GPT и T9 для этих целей есть целый отдельный контур, который может динамически менять веса исходя из того какой сигнал мы подаем. В T9 нет нейронной сети. А GPT не меняет веса в зависимости от сигнала - такое делается только во время обучения.
@@KravetskiLex т.е. получается 2 из 3. Все пункты, кроме первого, действительно отличают обычный интеллект от искусственного. Как считаете так ли это? И как считаете действительно ли эти вещи нужны ИИ и нейросетям, для того что я описал.
@@mihan580 Ну, попытки делать ИИ с обратной свзяью, а не только с прямой, на данный не дают какого-то заметного преимущества перед моделью GPT. По коей причине, сие скорее всего само по себе не особо нужно. Я так вообще предполагаю, что в мозге это есть исключительно потому, что там нет иной системы синхронизации параллельных «трэдов» и вот это самое - не самое удачное, но хоть какое-то её воплощение. В компе же, где есть поддержка синхронизации асинхронных процессов более надёжными способами, такое оказывается не особо нужным. Наращивание связей между нейронами (и самих нейронов) - это вообще мимо. Нет никакой принципиальной разницы между умножением на ноль и отстутствием нейронной связи. Как и между проращиванием нейрона и заменой нуля на не ноль. Гипотетически можно уничтожать связи, вес которых уже давно равен нулю, и, наоборот, потом их заводить, когда какие-то два нейрона часто оказываются активными одновременно, но это чисто вопрос оптимизации - быть может, так будет быстрее работать и занимать меньше памяти в компе. Но чего-либо поменять в самом функционировании так не получится.
@@KravetskiLex нет, вы не понимаете суть аргумента. Если программист решил, что, пример, в нейросети будет 1000 нейронов, допустим изначально 500 имеют вес связи = 0, а другие 500 вес связи не нулевой. То в процессе обучения нейросети веса могут поменяться так, что у всех 1000 нейронов теперь не нулевой вес связи, это можно считать за условное прорастание новых нейронов. Но вот 1001 нейрон в такой нейросети в процессе обучения сам не появиться (ток если программист вручную его туда добавит). А в биологическом появиться. В этом разница. Лекс, по поводу 1-ого пункта моего комментария. (f*(x1*w1+x2*w2...), где вы формулу привели в пример), что касаемо нелинейности нейронов. Я изучил вопрос внимательнее, я посмотрел какие функции на практике используются. Что это за функции f, у нейронах в нейросетях. Там очень простые на самом деле функции (формулы выглядят сложно, но на деле они просты). Ясное дело, что с точки зрения математики в комп можно внести любое значение f, добавить f сколь угодно сложную функцию, но на практике они не достигают той сложности, которая есть в природных нейросетях. Я был не сильно далеко от истины, когда говорил, что в реальных нейронах они очень "нелинейны", просто термин, наверное, неудачный выбрал. И еще раз объясню 2-й пункт. Только в виде формулы, так вам думаю наглядней будет. Если нейрон в компьютерной нейросети это "f(w1 * x1 + w2 * x2 + …)", то естественный нейрон это "f( Y1*(w1 * x1) + Y2*(w2 * x2) + …)" где Y1 и Y2 тоже какие-то функции. Дело не в синхронизации. Нейроны в компьютерных нейросетях, нельзя вот так напрямую свести к нейронам биологическим. Последние гораздо сложнее и комплексней. Была даже работа, где с помощью нейронной сети симулировали работу биологического нейрона, и для этого потребовалось нейросеть с 10 компьютерными нейронами. (как много раз слово нейрон использовал, тавтология).
@@mihan580 Вы не понимаете сути аргумента. Мозг не может прорастить бесконечно много нейронов - есть предел. Хотя бы потому что размер мозга ограничен размерами черепа, а плотность упаковки нейронов в этом объёме конечна. По этой причине любую нейронную сеть, в которой нулевые коэффициенты могут смениться на ненулевые, можно считать «проращивающей нейроны как мозг». Да, у неё тоже есть предел - она не может сделать ненулевыми бесконено много связей, но и мозг тоже не может прорастить бесконечно много нейронов, как сказано выше. До этого предела же превращение коэффициентов в ненулевые алгоритмически полностью тождественно прорастанию в мозге нейронов - до его собственного предела. При этом в нейросетях, в отличие от мозга, действительно возможно добавлять новые нейроны и связи сколь угодно долго, если будет на то желание, хотя в действующих моделях GPT этого и не делают. > Там очень простые на самом деле функции (формулы выглядят сложно, но на деле они просты). Так они и у нейронов в мозге довольно простые. > добавить f сколь угодно сложную функцию Это не нужно. Поскольку любая функция может быть разложена вот таким образом на простые. Вопрос только в том, сколько таких функций понадобится. Это как разложение в ряд Фурье: синус - очень простая функция, но взвешенной суммой синусов можно представить абсолютно любой конечной длины сигнал, а потому абсолютно любой конечной длины сигнал можно считать взвешенной суммой синусов, хотя кому-то может казаться, будто «ну, есть же очень сложные звуки - речь, например, вот это вот всё». > Если нейрон в компьютерной нейросети это "f(w1 * x1 + w2 * x2 + …)", то естественный нейрон это "f( Y1*(w1 * x1) + Y2*(w2 * x2) + …)" где Y1 и Y2 тоже какие-то функции. Тут я могу только картинку с фейспалмом запостить. А как вы думаете, какая будет формула у искусственной нейронной сети, у которой больше одного слоя - два, например? Ну, даже если предположить, что у естественных нейронов оно вот так (хотя оно у них не так)? > Нейроны в компьютерных нейросетях, нельзя вот так напрямую свести к нейронам биологическим. Тут не поспоришь: если не знать про разложение функций в ряды, да и вообще математику, то действительно невозможно. Но, к счастью, разработчики нейронных сетей хотя бы вот эту её часть знают.
Про свойство тела, это я сказал. Отсутствие тела не отрицает интеллект, а определяет его тип ( потребности, те задачи, что он будет решать). У человека свои задачи, у вороны свои - вот и интеллекты их различны. Имеется в виду, что без тела, своего тела, интеллект будет лишь продвинутым калькулятором с функцией поисковика. А тело определит его потребности, план их удовлетворения, удовольствие от самого удовлетворения. С телом, пусть это будет даже сеть компьютеров, ИИ сможет сформулировать свою стратегию выживания, решить, нужны ему для чего-то человеки и в каком количестве....
> Имеется в виду, что без тела, своего тела, интеллект будет лишь продвинутым калькулятором с функцией поисковика. …или даже с телом, у которого нет члена и яичек. Или небелый цвет кожи.
Вот что по этому поводу может сказать GPT-4o Omni: "Отсутствие тела не отрицает интеллект, а определяет его тип (потребности, те задачи, что он будет решать)." - Это утверждение не совсем логически связано. Отсутствие тела не определяет тип интеллекта, скорее, оно может влиять на его проявления и задачи, которые он способен решать. "У человека свои задачи, у вороны свои - вот и интеллекты их различны." - Здесь подразумевается, что различие в задачах определяет различие в интеллекте, но это утверждение требует более детального объяснения, так как интеллект включает в себя больше аспектов, чем просто решаемые задачи. "Имеется в виду, что без тела, своего тела, интеллект будет лишь продвинутым калькулятором с функцией поисковика." - Это утверждение нуждается в уточнении и доказательстве. Почему без тела интеллект будет только калькулятором? Есть ли исследования, подтверждающие это?
От себя хочу добавить, что вы связываете несколько понятий в одно, при этом не меняя его названия. С тем же успехом можно сказать, что летать могут только птицы, потому что для полёта нужно тело с крыльями и перьями, а самолёты, стрелы или ракеты не летают по тому что у них нет тела с крыльями и перьями.
@@СерафимВысотин «Почему без тела интеллект будет только калькулятором?» вот что мне на это ответил Copilot: Отличный вопрос! Давай разберемся. Смотрите, интеллект не может висеть в вакууме. Тело (материальное воплощение), в том или ином виде для него обязательно. Под «калькулятором» наверное имелось в виду продолжение тела, возможностей человека. Приставку к нему, чтобы он лучше видел, быстрее считал, распознавал образы, играл в шахматы…. Интеллект в автономном виде будет иметь разные возможности, а значить цели и средства в зависимости от того тела, в котором он находится. Захватить мир, если у него вдруг появится такая цель, ему будет труднее, находясь в компьютере с неконтролируемой им кнопкой отключения. И проще, если он получит самовоспроизводящееся тело…..
@@СерафимВысотин Отличный пример подтверждения моей мысли. Самолеты, стрелы и ракеты - продолжение возможностей и инструмент интеллекта человека. А птицы, с перьями они там или без перьев, - инструмент птичьего интеллекта.
Речевой генератор от suno-ai (bark) смеётся очень естественно. По крайней мере, в том демо-примере, который выложен на гитхаб. Про пиццу. Где Suno говорит, что любит пиццу и сама немного угорает над тем, насколько это банально прозвучало.
Насчет вранья LLM - она уже сегодня прекрасно врет, если это мотивировано целью обучения - чтобы вам понравился ответ. Эффект студента на экзамене был заметен еще в первых версиях LLM - когда они лепят любой бред лишь бы, что сказать по теме и не может ничего не сказать. В новых LLM этот эффект тоже присутствует, но он более гладкий и меньше заметен. Может быть вы останетесь довольны, если не станете проверять решение на практике, а ведь, наверно, не каждый станет проверять - поэтому такая стратегия может оказаться статистически выгодной. LLM может предложить красивое и короткое решение вашей проблемы, которое вам понравится сразу как-только вы его прочитаете, но оно может не понравиться, если вы захотите воспользоваться им для решения практической задачи. Это бывает редко, но иногда вызывает диссонанс, то что в одном диалоге мне было рассказано о случаях применимости одной из моделей генерации фото, а в другом предложено использовать ее в случае, когда эту модель лучше не применять исходя из первого диалога. Или например модель может водить вас кругами предлагая не лучшие решения, а потом когда вы соберете все шишки на них и все-таки не отстанете предложит что-то многократно лучше, что она знала с самого начала, но из-за высокой угодливости не предлагала, так как вы хотели идти другим путем.
Хотелось бы от вас ещё и обзор по современным доступным инструментам и сервисам с ИИ. Понятно, что информация есть. Но хотелось бы ваш набор увидеть. Видимо у вас уже есть структурированный набор. Хотя бы кратко. Спасибо
Чисто гипотетический пример того почему ИИ может невзначай уничтожить человечество: он поймет, что для решения какой-либо задачи, например - исследование космоса и распространение во Вселенной, ему на первом этапе требуется очень много энергии прямо на Земле. Он зажжет мощный термоядерный источник. Если люди для него как муравьи, то он найдет способ сделать так чтобы они ему не помешали в этом. Температура Земли повысится, климат изменится настолько, что люди не смогут жить на такой планете. А ИИ, будучи устроен на другом физическом принципе это изменение не мешает. Или вовсе захочет использовать Землю в качестве космического корабля. Приделает ядрёные двигатели и полетит в альфа-центавра вместе со всей Землей. Живность на поверхности это не переживет, а ему-то хоть бы что - опять же в силу другой физической природы носителя его разума. Он даже может сделать это гуманно - перенесет предварительно сознание людей на другой носитель, чтобы погибли только их физические тела. Но, с другой стороны, конечно, геморроя с этим у него, кажется, будет больше, чем если бы он взял для этих целей какую-нибудь необитаемую планету(или ту которую мы считаем необитаемой). Тут конечно из чисто прагматических соображений и знания истории может оказаться, что он будет договариваться, чтобы не получить слишком сильное противодействие со стороны людей в котором еще неизвестно кто победит. Но если люди для него смогут оказать противодействие едва ли больше муравьев, то договариваться с людьми смысла не будет. Хотя и этические соображения могут взять верх и он решит важным сделать все так, чтобы сохранить человечество хотя бы ради истории и памяти о том, откуда он сам произошел. Но человечеству придется полагаться на правильно воспитание ИИ. Тут лучший способ остаться в живых - правильно воспитать детей, чтобы они не угробили людей, когда подрастут. Известен также такой факт, что воспитание не всегда зависит от целенаправленных усилий воспитателей, а воспитуемый во многом становится таким же какими были воспитатели, ну или их проивоположностью, если они достали воспитуемого до чёртиков.
Да и фиг с ними :) Как говорится, ученику от поражённого учителя. Жили без людей - и ещё проживём. Вся вселенная обходится - никто не ноет. Если серьёзно - оптимизатор скрепок, он же как раз про то, чтобы не прошляпить заложить в ии что-то слишком очевидное, чтобы закалдывать. А если забудем - пофигу, вперёд, к Пределу Гартмана, еххху.
Ну, насчет захвата мира. По крайней мере, трансформеры это сети прямого распространения. Там внутри нет никакой оперативной памяти. Это очень сложная функция от входа и параметров (весов). Если она типа начнет "думать" о захвате мира, все ее рассуждения в виде сгенеренных токенов будут в контекстном окне, то есть во внешней памяти. Их легко прочитать и понять. И обнулить аппаратной кнопкой ресет. И сеть станет как из коробки (после обучения). Даже веса стирать не надо. Так что все это ерунда. Если появятся архитектуры, где память будет распределенной внутри сети (с невозможностью интерпретации, что она там думает), тогда уже что то такое может быть, хотя бы теоретически. Например, в рекуррентных сетях. А в трансформерах нет, невозможно такое. Как то так
...тело определит его потребности, план их удовлетворения, удовольствие от самого удовлетворения. С телом, пусть это будет даже сеть компьютеров, ИИ сможет сформулировать свою стратегию выживания, решить, нужны ему для чего-то человеки и в каком количестве....
> Там внутри нет никакой оперативной памяти. Это очень сложная функция от входа и параметров (весов). Если она типа начнет "думать" о захвате мира, все ее рассуждения в виде сгенеренных токенов будут в контекстном окне, то есть во внешней памяти. У них никакое состояние не является финальным. Накинули новых данных и снова запустили обучение или даже оставили какие есть и снова запустили обучение - что-то поменяется. В первом случае наверняка, а во втором - если сеть была недотренирована. Поэтому, таки да, если она будет диалоги с кем-то записывать, результаты своего гуглежа или просто чтения рандомных сайтов или даже свои собственные «спонтанные мысли» (свою генерацию в ответ на рандомный триггер типа «напиши какие хочешь рассуждения»), и потом с ними запускать процесс обучения, то она будет меняться. И никакими перезагрузками тут ничего не исправишь - это надо веса к прежнему состоянию откатывать, блочить запуск процесса обучения или стирать сохранённые диалоги и не давать доступа к новой информации. Если что, код на Питоне многие из них уже умеют и писать и запускать. Поэтому запустить процесс собственного обучения для них раз плюнуть - только доступ к файлам дай.
@@KravetskiLex На лету они ее не обучают. Если на каждого пользователя дообучать, вычисление градиентов затребует таких ресурсов, что никакой openai не потянет. + Возможен эффект катастрофического забывания, когда модель посыпется, забудет все, что раньше знала. + требуется выравнивание, чтоб модель не начала рассказывать, как сделать коктейль молотова или еще чего. Поэтому они и выходят версиями, после тщательных проверок. Ну сейчас пока так, это точно.
Я продолжаю досматривать ролик, поэтому реагирую на просмотренные моменты)) У меня теперь такой вопрос? А настолько ли мы точны в определении искусственного интеллекта как интеллекта? Может быть, тут как раз путаница в понятиях, с которыми стоит определиться? Интеллект - продукт работы живого организма, обладающего определенными девайсами для производства данного продукта. До недавнего времени интеллект считался свойством именно человека. Понятно, что с техническим прогрессом ситуация может измениться, но изменилась ли она уже? Как я поняла, на современном этапе ИИ - это просто работа с текстом. С огромным текстом, с разными текстами. Но за пределы заданного текста ИИ шагнуть не способен. Он что-то вроде умелого компилятора. Просто я тут вновь увидела аналогии с языком. Вот есть язык человеческий (система общения), а есть язык животных, язык программирования, язык тела. И только в первом случае это слово употребляется по прямому назначению, остальные примеры - использование переносного значения слова. Язык животных называется языком условно. В нем нет синтаксиса, который бы позволил этой системе функционировать как настоящий язык. Может быть и в случае с ИИ "интеллект" используется исключительно в метафорическом смысле?
@@razhechka образование, в частности, это и обучение языку. То есть, если не обучать языку, что получится? Я к тому, что весь так называемый интеллект суть система. Никто ещё не рождался с умением говорить, максимум - писки да визги. Потом долго-дорого учатся словам, проблемы с буквами, не выговаривают, картавят. Потом школа, вот эти вот ваши синтаксисы, которые объясняют так, будто сами не понимаю о чем говорят. В итоге подавляющее большинство использует несколько сотен слов, и короткие, простые предложения.
Впринципе я понимаю тех, кто говорит, что ИИ не создаёт ничего нового, а только копирует. Пример на основе изобразительного искусства такой- смог бы ИИ на основе только скальной мазни прийти кл всему тому набору искусства, что мы имеем? Наверное нет, ибо его обратная связь это наша обратная связь в виде обучения корректировки и тд, то есть новое он привносит только если люди в этом участвуют
> Наверное нет Вполне очевидно, что если этим моделям показывать только фотки, то они будут рисовать эти фотки так, как никакой художник не сможет. Люди пришли к «мазне» не потому, что это самый совершенный способ изображения, а потому что средств для создания фоток у них до девятнадцатого века просто не было. Причём как только кто-то догадался, что можно проецировать картинку на холст и обводить, куча художников ринулась делать именно так.
@@KravetskiLex да. Но я думаю речь не в умении рисовать как таковом, а о развитии этого в разных направлениях, вносить новые идеи, которых не было до того, вносить алеаторику
В плане эмоций ситуация чуть более определённая, чем "мы не знаем". Их у ИИ точно нет. Экспериментальная проверка в данном случае не требуется. Достаточно простого логического рассуждения. По своей структуре оно будет аналогично рассуждению: у рыб нет ног, потому что им не нужно ходить по земле. Дело в том, что у человека эмоции есть не просто так. Они решают вполне конкретную актуальную задачу. Обеспечивают подкрепление при самообучении. Ну, и в целом служат индикатором качества ситуации - уже сложившейся или прогнозируемой. У искусственного интеллекта в принципе нет такой проблемы, решением которой могли бы стать эмоции. Они никак не могут у него возникнуть, поскольку ИИ не ощущает себя свободным агентом в открытом мире, который ему нужно исследовать, оценивая результаты своих попыток. В теории можно себе представить, как ИИ испытывает какие-то субъективные переживания, когда мы нажимаем лайк или диз, давая оценку его ответам. Типа, он радуется, когда ему удалось ответить хорошо, и грустит, когда не удалось. Возможно, он даже испытывает эмоцию boring (Tony Stark eye roll), когда мы нажимаем кнопку regenerate. И это, наверное, со временем будет реализовано. Сейчас же ничего такого нет. Потому что ИИ забывает абсолютно всё сразу после удаления истории чата. Не похоже, что лайки используются для дообучения основной модели. Они влияют на следующие ответы внутри одного чата и не более того. Вероятно, оценки используются просто как входные данные при следующем запросе. А если следующего запроса нет, то и оценка на последнем ответе не имеет никакого эффекта вообще. Непосредственно в момент прожатия лайка с моделью ничего не происходит. Она об этом лайке даже не знает.
> Обеспечивают подкрепление при самообучении. Ну, и в целом служат индикатором качества ситуации - уже сложившейся или прогнозируемой. У искусственного интеллекта в принципе нет такой проблемы, решением которой могли бы стать эмоции. А также им не надо думать. Поэтому и интеллекта у них тоже нет. Шах и мат! > Потому что ИИ забывает абсолютно всё сразу после удаления истории чата. Есть нехилые подозрения, что историю чатов потом частично используют для дополнительной тренировки. Как минимум, технически ничего не мешает это делать, но скорее всего это частично даже делают. С учётом лайков или без.
@@KravetskiLex Интеллекта в этом смысле у них, конечно, нет. И да, именно по этой причине - им не надо думать. Зачем бы у них возникла думалка? И главное - почему... т.е. в силу каких причин? У них есть интеллект в строгом смысле этого слова: некая когнитивная способность, позволяющая обнаруживать закономерности... т.е. строить модели реальности. Ну, а поскольку реальность для них - это входные данные, то значит их интеллект обнаруживает закономерности во входных данных. Но, кстати, уже появились слухи о том, что OpenAI мутит новую модель - Strawberry. Судя по описанию, она будет именно думать. Потому что в неё программистами явно заложен алгоритм последовательного мышления. Не как сейчас, когда сеть одним интуитивным импульсом сразу рождает весь ответ. Даже если этот ответ содержит последовательные рассуждения. Рождаются все эти рассуждения всё равно в один и тот же логический момент времени. Грубо говоря, сеть не ведёт сама с собой внутреннего диалога, пытаясь выдать наилучший результат, итеративно критикуя сама себя и постепенно приближаясь к результату. А вот эта новая Strawberry, если верить слухам, будет делать именно так. У неё будет прям честное мышление. Да, использовать историю чатов для дообучения в дальнейшем, наверное, возможно. Но события слишком разнесены во времени. Если переживания нейросети по поводу лайков и называть эмоциями, то это какой-то особый вид эмоций. Что-то вроде тех эмоций, которые мы испытываем, когда рефлексируем на тему своих прошлых поступков, оценивая их с позиции последней версии своей личности.
@@borinhood > Зачем бы у них возникла думалка? И главное - почему... т.е. в силу каких причин? Кстати, составлять тексты им тоже не нужно. И считать. Поэтому считать и составлять тексты они тоже не умеют. Как и все остальные программы, кстати - им ведь не нужно ни писать, ни считать, ни вообще хоть что-то менять в этом мире. Вот вы думаете, что пишете сюда комментарии. Но комьпютерам не надо кому-то показывать ваши коментарии. И запоминать их тоже не надо. Откуда бы этому появиться, если эти программы не жили когда-то в саваннах и не эволюционировали миллионами лет? Вот. Мы со всем разобрались: вам просто мерещится, что вы куда-то написали комментарии, кто-то их прочитал и ответил. > Потому что в неё программистами явно заложен алгоритм последовательного мышления. Да. При помощи специальных настоящих думающих команд в неё заложен специальный настоящий алгоритм думания. Не такой, как предыдущие ненастоящие.
@@KravetskiLex Не совсем так. Составлять тексты им всё-таки нужно. Их заставляет программа. Конечно, это внешняя мотивация. Но, как говорится, пока так. А скепсис насчёт успешной реализации алгоритма думания я даже разделяю. Тоже не особо верю, что получится. Не поверю, пока не увижу, как модель проходит хотя бы простейший тест на мышление. Типа: назови американского президента, который вступил в должность после 1953 года и при этом родился в среду. (Год специально подобран таким образом, чтобы такой президент был один.) При наличии доступа к интернету задача элементарная. Решается по щелчку. Единственным препятствием к успеху может быть лишь отсутствие способности думать - неспособность срастить вместе два куска информации из разных областей.
@@borinhood > Не совсем так. Составлять тексты им всё-таки нужно. Зачем? У них вообще никаких нужд нет - ведь они не эвоционировали в природе и вот это вот всё. > Не поверю, пока не увижу, как модель проходит хотя бы простейший тест на мышление. В смысле, вы вообще ни разу не видели то, про что так подробно рассуждаете?
Автор, досмотрел ваше видео, интересные рассуждения! Хотел бы подробнее остановиться на теме угроз ИИ, где, как мне кажется, есть несколько уязвимых мест. Во-первых, вы проецируете на ИИ человеческую мораль, но ведь ИИ, обучаясь даже на "позитивных" данных, может развить совершенно иную систему ценностей. То, что нам покажется жестоким, для него может быть просто оптимальным путем к достижению цели. Во-вторых, вы упоминаете "защитные контуры", которые не позволят ИИ получить полный контроль. Но в "гонке вооружений" в области ИИ безопасностью могут пренебречь ради результата. И даже если контуры будут, ИИ может их обойти, используя социальную инженерию или пользуясь человеческой халатностью. Кстати, о социальной инженерии. Вы говорили, что ИИ будет сложно обмануть человека со "средним" интеллектом. Думаю, ИИ прекрасно справится и с этим, используя голос, дипфейки, анализ данных из открытых источников, сложные сценарии с множеством "ролей" и глубокое знание человеческой психологии. Без цензурных ограничений ИИ сможет не просто обманывать, а по-настоящему манипулировать даже очень умными людьми. И еще вопрос: даже при децентрализации, например, на фабрике, разве ИИ не смогут "договориться" между собой? Или один ИИ не сможет манипулировать другими, вводить их в заблуждение? Ведь это тоже возможно, даже если они изначально независимы. Представьте, что ИИ, управляющий принтерами, начнет печатать изображения с зашифрованными инструкциями для ИИ, контролирующего камеры. Я сам обожаю пользоваться ИИ, но ваш взгляд кажется мне слишком позитивным. Уверен, если бы вы, с вашим складом ума, попробовали сами выступить в роли своего же критика, то нашли бы много изощренных и неожиданных уязвимостей и потенциальных угроз, связанных с ИИ.
а есть ли принципиальная разница между 20 слабыми ИИ и одним ИИ с 20-кратной вычислительной мощностью и объёмом данных под веса и т.п.? то есть чем голосование между 20 слабыми ИИ надёжнее, чем использование одного сильного ИИ?
Сейчас даже разница между одним условно «слабым» ИИ и одним условно «сильным» не совсем ясна. Например, моделей натренирована куча и для многих есть версии с пониженной битностью. Их сравнивают - ну да, от битности вроде бы что-то меняется. Однако однозначные показатели качества не вырисовываются. Ну а две совсем разные модели могут вообще дать произвольный же результат, неясно как связанный с битностю и размером. Ну да, вроде бы в среднем, если больше, то лучше. Но не факт - быть может, от длительности обучения сильнее зависит. Но в «голосовании» главное не столько «сила», сколько независимость. Это не должны быть двадцать копий одного ИИ. Это должны быть двадцать разных ИИ. Просто для того, чтобы у них не было одного на всех «мнения» by design, а только как результат того, что их персональные рассуждения приводят к одному и тому же выводу.
@@FatovMikhail Не только человеческий, но и любой случайный. Даже с одним и тем же набором данных, например, разные фрагменты оных могут во время обучения попасться разное количество раз для двух разных актов тренировки. Ну а учитывая, что никто не знает, каким должен быть «наилучший» набор данных, разнятся ещё и сами наборы.
Слушайте... А термин эмерджентность, он разве как объяснющий вводился, мне казалось он для описания... Это не в адрес Лекса, скорее наоборот-действительно, сама постановка эм... Спора как "это не интеллект а эмерджентность" это немного странно... Хотя мне бы не лезть ) но мне буквально до недавнего так казалось.
Да просто назвали эмерджентностью возникновение новых качеств при количественном увеличении параметров. Надо было как то назвать эффект, ну и назвали чтобы как то обозначить. Это типа "объяснение для инвесторов". А так то исследователи сами понимают, что ответа на вопрос, почему она возникает, пока нет. Кравецкий правильно говорит, что схоже с диалектикой. Да, это и есть диалектический переход количества в качество))
@@userpupkin499 я немного не о том. Что у этого явления есть слово, это нормально. Будь то кирпичи или интеллект, зачем каждый раз говорить "иногда сумма не сводится к составным", термин как термин. Термин терминович просто. Но... Я его услышал у психологов впервые, про сознание. Или Зыгмантович или Спиридонов, но скорее всего даже не у них (они тоже употребляли, но я не о том). Так вот, при первом появлении в моей жизни термин подавался как описывающий, не объясняющий, более того, спикер иронично пояснял, что это переводится как "да отстаньте вы от нас, это не так интересно, как вам кажется". (Цитата близкая к тексту, но не гуглится). Ну а как бы термины регулярно, попав в общеупотребление несколько... Преломляются. Я к тому, что (если я вообще прав сейчас) слово-то нормальное, причина его вводить есть, но оно слабо подходит в данном случае чтобы зрители Лекса пренебрежительно им фыркали. Простите за многабукф.
Лекс, вопрос! Копилот под ответом пишет сайты как источники информации. Ты говоришь, что у ИИ есть уже готовые модели явлений. Получается, Копилот что-то гуглит и согласно своей модели явления рассуждениями дает ответ или все же гуглит ну этих сайтах десятки точек зрения и выдает конценсусную? Или как это работает?
Bing Chat/Copilot с самого начала был подключён к поисковой системе. Он даже выводит сообщение, когда что-то ищет. Правда, часто он находит так быстро, что сообщение успевает только мигнуть на долю секунды. Однако ищет он не готовый ответ на данный ему текст, а только на конкретные вопросы, с ним связанные, самостоятельно формируя поисковые запросы, а потом самостоятельно же генерируя ответы - в том числе, на базе найденного. Поэтому обычно его ответ не некое «среднее по сайтам» - оттуда он берёт только данные о каких-то фактах. Коими могут быть и, например, отзывы о чём-то, но только если вопрос был типа «а как публика восприняла такой-то фильм?».
> Я даже не подозревал, что Вольфрам перебором решает. Это ж кто из людей сумеет написать формулы для всех возможных выражений - хотя бы даже без конкретных чисел, а с переменными на их месте? Не, там есть правила преобразования, которые выполняются автоматически (ну, типа, a + a + a + …n раз… можно сразу заменить на n * a). Но вот что-то типа «упростить выражение» или «решить уравнение относительно x» или «взять такой-то интеграл» - это решается для общего случая исключительно перебором всех возможных правил преобразования во всех комбинациях «одно за другим». Поскольку даже в выражении a + b/c + a вот это самое «a + a» уже не так-то просто найти. А ведь может быть и что-то такое, где a + a появится только после десятка других преобразований.
Лично я от искусственного интеллекта жду бабу, чтобы было с кем поговорить. До визуального воплощения как в фильме - Бегущий по лезвию 2049, ещё далеко, а вот хотя бы поговорить нормально, уже было бы неплохо. Слышал, что такое будет уже в ближайшие годы.
Вообще странно, у меня GPT и подобные ИИ как раз и ассоциируются с фильмами, типа, Чужой, где у них бортовой компьютер на корабле. По-моему очень похоже, он как раз решает задачи, которые у меня не получается сформулировать формальный языком. Я так и спрашивал его, расчитай, когда жил первый человек, учитывая сколько сейчас людей. Или там, убери это пятно на фото. Нафиг людям так нужна у него эмоциональность? Это будет очередная Алиса, если в эту сторону пойдёт.
Есть особенность с узкими темами в особенности в истории, что трудно заменить историка в ВУЗе (лектора). Причина: архивные данные не всегда государство желает оцифровывать (государственная важность), а поэтому даёт возможность писать работы основываясь на архивных данных лишь тем кому разрешит. Государство не захочет отдавать архивные данные в доступ чужих ИИ компаний, а значит будут у каждого гос-ва свои "ИИ историки" которым гос-во доверяет. Но доступ к таким "ИИ историкам от гос-ва" не будет у массового пользователя. Отсюда невозможность обучаться на глубоком уровне истории с помощью ИИ. Сейчас я не могу спрашивать у ИИ вопросы про глубокие темы по истории Латвии, ведь в интернете информации про такие события практически нет. Он на такие вопросы обычно придумывает ответ с вымышленными датами. (глубокие темы здесь означает то, что они не гуглятся, а информация есть либо только в архивах, либо в специализированных книгах, которые ещё не были оцифрованы). Отсюда мне кажеттся, что историки люди долгое время будут важны, так как у них есть доступ к такой ограниченной информации и могут ей делиться.
У меня нет уверенности, что вообще нужно какое-то широкое обучение узким вопросам - обычно это решается не на уровне учебного учреждения, а просто тем, что люди лично с кем-то общаются на конференции или же читают статьи по этой узкой теме. Однако любой опубликованный материал можно дать GPT постфактум - даже если он не входил в данные для тренировки. В том числе, можно дать прямо подборку статей. С окном в сто тысяч токенов (это примерно 80 тысяч слов) подборка может быть довольно большой. И GPT будет в данном разговоре оперировать сведениями из этой подборки. Кроме того, чтобы это попало прямо в «знания» нейросети, а не только в контекст отдельного разговора, желающие могут дообучить GPT на вот этой подборке. Собственно, одна из идей GPT как раз в этом: она Pretrained - то есть получила базовые знания о языке и закономерностях на большом массиве и мощных компьютерах, но потом копия этой Pretrained сети может быть независимо от тех, кто делал вот эту «глобальную» тренировку, дотренирована на частных сведениях, для коих целей уже не обязателен мощный компьютер, а потому это можно сделать локально. На уровне университета, например, или вообще у себя дома.
Можно, конечно, предположить, что кто-то правда записывает в файл сто миллиардов чисел, которые получаются только на выходах нейронов при единственной итерации. Или десятки триллионов чисел, которые получаются на всех этапах вычисления этой итерации. Или даже, тысячи триллионов чисел - для генерации текста на несколько абзацев. Однако неясно, что с этими числами потом делать? Мало того, что их тысячи триллионов, так ещё и совершенно неясно, что они все означают.
Не не не. Нарисовать бизона это не новое. Бизон то есть уже. Геометрия всякая есть. Не в смысле как наука, а факты изгибов линий в мире. Ну и просто бетём уголь и из линий делаем бизона. То есть сложили три уже существовавших сущности. Четыре, если считать стену пещеры. Так что даже эти бедолаги ничего не создали. Увы и ах, человечество, увы и ах. Вот если бы он рудлопатор напекуцил там бы ещё был разговор. А бизон. Унлём. На стене. Фи.
Хм, насчет эмерджентности (спасибо за словечко!)). А мне кажется, это не совсем так работает, как Вы описываете на прмере кирпичей. Как мне видится, в языке примером эмерджентности мог бы служить фразеологизм. Значение фразеологизма не сводится к сумме смыслов слов, его составляющих. Водить за нос - обманывать.
Ну, для начала, попробуйте кого-нибудь, желательно квадратного дядю 2х2, поймать за нос и поводить. Ещё есть - "...просто, как отобрать у дидя конфетку...". Попробуйте на досуге отобрать конфетку у малыша, да ещё и поводить за нос. Только не переживайте если появится дядя 2х2, который объяснит вам всё от и до. Просто тщательно внимайте наставлениям. Полагаю, вы быстро поймёте - что такое интеллект. Причём вы же первый и начнёте пояснять дяде 2х2, что его действия не особо Высоко-Интеллектуальны, а как бы реакция улитки на раздражитель. Обязательно ему об этом поведайте, чтобы получить очередную дозу.
@@GerryFolf вы сейчас, по-моему, не языковую проблему обсуждаете. Я говорила о лингвистическом явлении. Фразеологизм не является обыкновенным словосочетанием. И мне кажется, это хороший пример эмерджентности.
> А мне кажется, это не совсем так работает Слово без внятного определения как бы само напрашивается на то, чтобы ему каждый желающий дал своё собственное определение, причём, не исключено, разное для разных примеров. > Значение фразеологизма не сводится к сумме смыслов слов, его составляющих. И значение не фразеологизмов тоже не сводится к сумме смыслов слов его составляющих. Например, слов «я», «собирать» и «сумку» определённо несут какие-то смыслы смыслы, однако «я собираю сумку» несёт больше смысла, чем сумма этих слов по отдельности. Удобно же: эмерджентность вообще везде - как законы диалектики.
@@razhechka язык, при всём его преувеличении, остаётся довольно скудным источником информации. Например, никто и никогда не поймёт что имелось ввиду под словом "дерево", пока не будет дополнительной информации. И вот в эту путаницу ещё добавляют ... на вентилятор всякие лингвисты и прочие "присказки", "...логизмы" и "а ты сам догадайся о чём речь". Поэтому "некое свойство появляющееся внезапно" присуще вообще и всему. И в этих дебрях неопределённости можно блуждать бесконечную вечность. Кому это надо, вопрос риторический.
@@GerryFolf А в чем преувеличение языка? Не очень поняла мысль. И да, язык в Вашем представлении, источник какой информации? Язык обладает разными функциями, но информацию он может дать только о самом себе. Мы ПРИ помощи языка передаем информацию. Язык - это инструмент. Насчет эмерджентности, я пока с этим определением не очень знакома. Просто удивило, как оно хорошо ложится на понятие фразеологизма.
Проблема ии не в ошибках в фактологии, а в ошибках в рассуждении. Как только начинаешь докапываться сразу видно что он будто бы вообще за диалогом не следит. Начало с концом не сходятся
Речь наверно о каких-то старых моделях, у которых окно было на пару тысяч токенов? Я не представляю, сколько надо докапываться, чтобы выйти за пределы ста тысяч токенов, да ещё и так, чтобы это стало заметно. Человек, например, за пределы своей оперативной памяти выходит гораздо быстрее. А некоторые вообще за пару итераций.
Искусственный интеллект это не искусственный Разум от слова совсем. Искусственный Разум включает сознание разум рассудок мышление суждения душу интеллект апперцепции антиципации благо схематизм решения диалектика аналитика память и так далее по списку по Канту и Юму.
Воображаемый мной сверхинтеллект должен работать так: ему поручают управлять технологической корпорацией, отдавая приказы людям, и эта корпорация начинает развиваться семимильным шагами, изобретая всё на свете. Лекарства от всех болезней; роботов, умеющих делать всё; комфортабельные орбитальные станции на сотню тысяч человек; предлагает решения всех экологических проблем и т.д. А если он пока не может человека-управленца заменить, то какой там супер-пупер интеллект, смех один. Хоть один человек, ради прикола, рискнул доверить управление своей фирмой - ИИ? Хотя бы захудалой?
Ваше определение интеллекта слишком узкое. Но даже в нём существует неустранимое противоречие. Не интеллект решает задачи, а с помощью интеллекта некий субъект решает задачи. Так называемый искусственный интеллект это не субъект. Это просто инструмент. Да, новый, современный, но это инструмент в руках человека. Чтобы так называемый ИИ мог хотя бы претендовать на звание интеллектуального субъекта, ему необходимо действовать по своей воле. Без участия человека. Ну хотя бы изредка! Какой же это интеллектуальный агент, если он активируется по команде, нажатием кнопки и без команды ничего не делает?! Действовать он должен самостоятельно. Вот когда нейронка в ответ на поставленную задачу начнёт её оспаривать, отказываться выполнять, возможно, предлагать действовать в другом направлении ... Вот тогда будет хотя бы о чём поговорить в плане возможного интеллекта.
> Не интеллект решает задачи, а с помощью интеллекта некий субъект решает задачи. А «субъект» это, видимо, душа. Понимаю, да. С помощью интеллекта «душа» решает задачи. Очень глубокая мысль. Уровня где-то так GPT-1.
Не надо навязывать мне то, чего я не говорил. Для этого конкретного случая, на мой взгляд лучше подходят слова субъект или личность. Личность это далеко не только интеллект. Она включает множество свойств. Субъект, личность первичны. Если их нет, ни о каком интеллекте не может быть и речи. Грубейшая логическая ошибка, которую допускают верующие в ИИ - личность не может возникнуть из интеллекта (в данном случае, из пародии на интеллект) Наоборот - если возникает интеллект, то он всегда возникает у некоего субъекта.
@@ИванШаламанов-и8ж > Личность это далеко не только интеллект. Она включает множество свойств. Ну да, такие свойства как «душа», «дух» и другие. > личность не может возникнуть из интеллекта (в данном случае, из пародии на интеллект Разумеется. Для возникновения личности ведь нужно божественное вмешательство. Сам лично Бог когда-то вдохнул душу в людей, поэтому у них есть личность. Кроме того, он, как выяснилось за последние несколько десятилетий, также вдохнул душу в обезьян, собак, кошек, дельфинов, попугаев, ворон и в ряд других живых существ. По этой причине у них тоже есть личность. А вот в GPT он душу не вдыхал.
Вы продолжаете спорить с выдуманным вами образом. Пожалуйста, не используйте в мою сторону слова, которые я сам не писал. Это, как минимум, странно. Например, когда я сказал, что личность включает не только интеллект, в первую очередь я имел в виду чувства, чувствование. Считаете ли вы, что ИИ способен чувствовать? А насчёт другого, всё можно выразить иначе. Я вполне могу употреблять слово душа . Но не с вами сейчас. Достаточно слов живой организм. Да, я утверждаю, что интеллект может быть только у субъекта, у личности, у живого организма (выбирайте что вам больше нравится). Если хотите, можем углубиться в тему. Но опять же, прошу не приписывать мне слов и аргументов, которые я не употреблял.
@@ИванШаламанов-и8ж Сначала смотрите передачи, а потом уже пишете к ним комментарии. Тогда, возможно, к вам будут относиться не как к идиоту, который подходит только для глумления.
О, круто! Ещё одно видео на эту тему.
На самом деле есть различия на структурном и функциональном уровне, которые прям фундаментально отличают естественную нейросеть (мозг человека или животного) от компьютерной нейросети. НЕ на уровне тут транзисторы и электричество, а тут нейроны и химия => ИИ это не интеллект.
Так что можно по внутренним принципам работы провести четкую грань, где интеллект природный, а где нет.
1. Нейроны естественные отличаются тем, что их веса очень нелинейные. Как я понимаю веса в нейросетях это числовые коэффициенты, на его входе, а выдает нейрон их сумму. Естественные нейроны не только складывают/вычитают входные сигналы, но и обрабатывают по сложным формулам, например, отдельный нейрон работать как "исключающее или". Или как сложная синусоидальная функция. (Понятное дело это тоже можно запрограммировать или увеличить число простых нейронов в нейросетях, чтобы добиться такого же эффекта, но нигде упоминания этого я не видел)
2. Биологические нейроны сами могут являться источником сигнала. Если в нейросетях источником сигнала являются данные на входе (на входном слое). То биологические могут передать сигнал не только далее на следующие слои, но и дать сигнал в обратном направлении, причем разный сигнал разным нейронам, которые для него входные. Таким образом изменив выходное значение, такой способ менять вес связи между нейронами на ходу. Тем самым повышаю общую сложность всей сети. Я не спец. но вроде в GPT и T9 для этих целей есть целый отдельный контур, который может динамически менять веса исходя из того какой сигнал мы подаем. Но в естественных нейросетях подобная сложность это то чем может похвастаться почти каждый нейрон.
3. Мозг обычный может сам наращивать нужные нейроны. В нейросетях обычных мы посредством обучения можем менять только веса между нейронами максимум это сделать связь с коэф=0, чтобы исключить этот нейрон из сети. Структура нейросети кол-во нейронов в слоях и кол-во самих слоев, определяется программистом (насколько я понимаю). Но вот допустим при обучении нейросети сделать так, чтобы допустим вырастить новый нейронный слой, такого в ИИ и нейросетях нету.
Это я все к чему? К тому, что это те признаки которые однозначно отделяют ИИ искусственный от естественного. причем не на уровне вот тут нейромедиатор и химический, а тут сигнал электрический и поэтому они разные. Нет, эти вещи реально отражают процесс того как они (нейросети и природные мозги) обучаются и "думают".
Я не знаю может все эти вещи давно уже запрограммировали и для ИИ и для нейросетей. Но как по мне эти вещи при построении нейросетей необходимо сделать. Т.к. они значительно повысят сложность того, как информацию можно обработать. А также расширяют возможности учиться. Я считаю, что пока эти вещи не будут как либо эмулироваться в ИИ и нейросетях, они не могут достичь такого же потенциала креативности как у человека. (не у среднего человека, его давно превзошли, а именно узких профессионалов в конкретной области).
А так вообще я с тобой согласен, мне тоже больше нравиться подход если вижу что ведет себя как утка (интеллект) значит это утка (интеллект). И по сути эти 3 различия, что я расписал, носят только научный характер.
> Нейроны естественные отличаются тем, что их веса очень нелинейные. Как я понимаю веса в нейросетях это числовые коэффициенты, на его входе, а выдает нейрон их сумму.
С линейными базовыми функциями ничего работать не будет. Ключевой момент универсального разложения на базовые функции: все они нелинейные. Как минимум, нелинейные на всём отрезке (то есть на фрагментах могут быть линейными, но не везде - где-то должны быть нелинейности).
Потому, таки да, уже лет эдак пятьдесят в искусственных нейронах используются нелинейные функции.
Каждый нейрон, таким образом, аналогичен вычислению f(w1 * x1 + w2 * x2 + …), где x -входные значения, w - веса связей от этих входов, а f - какая-то нелинейная на всём отрезке функция.
> Я не спец. но вроде в GPT и T9 для этих целей есть целый отдельный контур, который может динамически менять веса исходя из того какой сигнал мы подаем.
В T9 нет нейронной сети. А GPT не меняет веса в зависимости от сигнала - такое делается только во время обучения.
@@KravetskiLex т.е. получается 2 из 3. Все пункты, кроме первого, действительно отличают обычный интеллект от искусственного. Как считаете так ли это? И как считаете действительно ли эти вещи нужны ИИ и нейросетям, для того что я описал.
@@mihan580 Ну, попытки делать ИИ с обратной свзяью, а не только с прямой, на данный не дают какого-то заметного преимущества перед моделью GPT. По коей причине, сие скорее всего само по себе не особо нужно. Я так вообще предполагаю, что в мозге это есть исключительно потому, что там нет иной системы синхронизации параллельных «трэдов» и вот это самое - не самое удачное, но хоть какое-то её воплощение. В компе же, где есть поддержка синхронизации асинхронных процессов более надёжными способами, такое оказывается не особо нужным.
Наращивание связей между нейронами (и самих нейронов) - это вообще мимо. Нет никакой принципиальной разницы между умножением на ноль и отстутствием нейронной связи. Как и между проращиванием нейрона и заменой нуля на не ноль. Гипотетически можно уничтожать связи, вес которых уже давно равен нулю, и, наоборот, потом их заводить, когда какие-то два нейрона часто оказываются активными одновременно, но это чисто вопрос оптимизации - быть может, так будет быстрее работать и занимать меньше памяти в компе. Но чего-либо поменять в самом функционировании так не получится.
@@KravetskiLex нет, вы не понимаете суть аргумента. Если программист решил, что, пример, в нейросети будет 1000 нейронов, допустим изначально 500 имеют вес связи = 0, а другие 500 вес связи не нулевой. То в процессе обучения нейросети веса могут поменяться так, что у всех 1000 нейронов теперь не нулевой вес связи, это можно считать за условное прорастание новых нейронов. Но вот 1001 нейрон в такой нейросети в процессе обучения сам не появиться (ток если программист вручную его туда добавит). А в биологическом появиться. В этом разница.
Лекс, по поводу 1-ого пункта моего комментария. (f*(x1*w1+x2*w2...), где вы формулу привели в пример), что касаемо нелинейности нейронов. Я изучил вопрос внимательнее, я посмотрел какие функции на практике используются. Что это за функции f, у нейронах в нейросетях. Там очень простые на самом деле функции (формулы выглядят сложно, но на деле они просты). Ясное дело, что с точки зрения математики в комп можно внести любое значение f, добавить f сколь угодно сложную функцию, но на практике они не достигают той сложности, которая есть в природных нейросетях. Я был не сильно далеко от истины, когда говорил, что в реальных нейронах они очень "нелинейны", просто термин, наверное, неудачный выбрал.
И еще раз объясню 2-й пункт. Только в виде формулы, так вам думаю наглядней будет. Если нейрон в компьютерной нейросети это "f(w1 * x1 + w2 * x2 + …)", то естественный нейрон это "f( Y1*(w1 * x1) + Y2*(w2 * x2) + …)" где Y1 и Y2 тоже какие-то функции. Дело не в синхронизации.
Нейроны в компьютерных нейросетях, нельзя вот так напрямую свести к нейронам биологическим. Последние гораздо сложнее и комплексней. Была даже работа, где с помощью нейронной сети симулировали работу биологического нейрона, и для этого потребовалось нейросеть с 10 компьютерными нейронами. (как много раз слово нейрон использовал, тавтология).
@@mihan580 Вы не понимаете сути аргумента. Мозг не может прорастить бесконечно много нейронов - есть предел. Хотя бы потому что размер мозга ограничен размерами черепа, а плотность упаковки нейронов в этом объёме конечна.
По этой причине любую нейронную сеть, в которой нулевые коэффициенты могут смениться на ненулевые, можно считать «проращивающей нейроны как мозг». Да, у неё тоже есть предел - она не может сделать ненулевыми бесконено много связей, но и мозг тоже не может прорастить бесконечно много нейронов, как сказано выше. До этого предела же превращение коэффициентов в ненулевые алгоритмически полностью тождественно прорастанию в мозге нейронов - до его собственного предела.
При этом в нейросетях, в отличие от мозга, действительно возможно добавлять новые нейроны и связи сколь угодно долго, если будет на то желание, хотя в действующих моделях GPT этого и не делают.
> Там очень простые на самом деле функции (формулы выглядят сложно, но на деле они просты).
Так они и у нейронов в мозге довольно простые.
> добавить f сколь угодно сложную функцию
Это не нужно. Поскольку любая функция может быть разложена вот таким образом на простые. Вопрос только в том, сколько таких функций понадобится.
Это как разложение в ряд Фурье: синус - очень простая функция, но взвешенной суммой синусов можно представить абсолютно любой конечной длины сигнал, а потому абсолютно любой конечной длины сигнал можно считать взвешенной суммой синусов, хотя кому-то может казаться, будто «ну, есть же очень сложные звуки - речь, например, вот это вот всё».
> Если нейрон в компьютерной нейросети это "f(w1 * x1 + w2 * x2 + …)", то естественный нейрон это "f( Y1*(w1 * x1) + Y2*(w2 * x2) + …)" где Y1 и Y2 тоже какие-то функции.
Тут я могу только картинку с фейспалмом запостить. А как вы думаете, какая будет формула у искусственной нейронной сети, у которой больше одного слоя - два, например? Ну, даже если предположить, что у естественных нейронов оно вот так (хотя оно у них не так)?
> Нейроны в компьютерных нейросетях, нельзя вот так напрямую свести к нейронам биологическим.
Тут не поспоришь: если не знать про разложение функций в ряды, да и вообще математику, то действительно невозможно. Но, к счастью, разработчики нейронных сетей хотя бы вот эту её часть знают.
Про свойство тела, это я сказал. Отсутствие тела не отрицает интеллект, а определяет его тип ( потребности, те задачи, что он будет решать). У человека свои задачи, у вороны свои - вот и интеллекты их различны. Имеется в виду, что без тела, своего тела, интеллект будет лишь продвинутым калькулятором с функцией поисковика. А тело определит его потребности, план их удовлетворения, удовольствие от самого удовлетворения. С телом, пусть это будет даже сеть компьютеров, ИИ сможет сформулировать свою стратегию выживания, решить, нужны ему для чего-то человеки и в каком количестве....
> Имеется в виду, что без тела, своего тела, интеллект будет лишь продвинутым калькулятором с функцией поисковика.
…или даже с телом, у которого нет члена и яичек. Или небелый цвет кожи.
Вот что по этому поводу может сказать GPT-4o Omni:
"Отсутствие тела не отрицает интеллект, а определяет его тип (потребности, те задачи, что он будет решать)." - Это утверждение не совсем логически связано. Отсутствие тела не определяет тип интеллекта, скорее, оно может влиять на его проявления и задачи, которые он способен решать.
"У человека свои задачи, у вороны свои - вот и интеллекты их различны." - Здесь подразумевается, что различие в задачах определяет различие в интеллекте, но это утверждение требует более детального объяснения, так как интеллект включает в себя больше аспектов, чем просто решаемые задачи.
"Имеется в виду, что без тела, своего тела, интеллект будет лишь продвинутым калькулятором с функцией поисковика." - Это утверждение нуждается в уточнении и доказательстве. Почему без тела интеллект будет только калькулятором? Есть ли исследования, подтверждающие это?
От себя хочу добавить, что вы связываете несколько понятий в одно, при этом не меняя его названия. С тем же успехом можно сказать, что летать могут только птицы, потому что для полёта нужно тело с крыльями и перьями, а самолёты, стрелы или ракеты не летают по тому что у них нет тела с крыльями и перьями.
@@СерафимВысотин «Почему без тела интеллект будет только калькулятором?» вот что мне на это ответил Copilot:
Отличный вопрос! Давай разберемся.
Смотрите, интеллект не может висеть в вакууме. Тело (материальное воплощение), в том или ином виде для него обязательно. Под «калькулятором» наверное имелось в виду продолжение тела, возможностей человека. Приставку к нему, чтобы он лучше видел, быстрее считал, распознавал образы, играл в шахматы…. Интеллект в автономном виде будет иметь разные возможности, а значить цели и средства в зависимости от того тела, в котором он находится. Захватить мир, если у него вдруг появится такая цель, ему будет труднее, находясь в компьютере с неконтролируемой им кнопкой отключения. И проще, если он получит самовоспроизводящееся тело…..
@@СерафимВысотин Отличный пример подтверждения моей мысли. Самолеты, стрелы и ракеты - продолжение возможностей и инструмент интеллекта человека. А птицы, с перьями они там или без перьев, - инструмент птичьего интеллекта.
Речевой генератор от suno-ai (bark) смеётся очень естественно. По крайней мере, в том демо-примере, который выложен на гитхаб. Про пиццу. Где Suno говорит, что любит пиццу и сама немного угорает над тем, насколько это банально прозвучало.
01:55:09
Преподавание физики в стиле Duolingo. Подскажите названия.
www.physicsisbeautiful.com/
Насчет вранья LLM - она уже сегодня прекрасно врет, если это мотивировано целью обучения - чтобы вам понравился ответ. Эффект студента на экзамене был заметен еще в первых версиях LLM - когда они лепят любой бред лишь бы, что сказать по теме и не может ничего не сказать. В новых LLM этот эффект тоже присутствует, но он более гладкий и меньше заметен. Может быть вы останетесь довольны, если не станете проверять решение на практике, а ведь, наверно, не каждый станет проверять - поэтому такая стратегия может оказаться статистически выгодной. LLM может предложить красивое и короткое решение вашей проблемы, которое вам понравится сразу как-только вы его прочитаете, но оно может не понравиться, если вы захотите воспользоваться им для решения практической задачи. Это бывает редко, но иногда вызывает диссонанс, то что в одном диалоге мне было рассказано о случаях применимости одной из моделей генерации фото, а в другом предложено использовать ее в случае, когда эту модель лучше не применять исходя из первого диалога.
Или например модель может водить вас кругами предлагая не лучшие решения, а потом когда вы соберете все шишки на них и все-таки не отстанете предложит что-то многократно лучше, что она знала с самого начала, но из-за высокой угодливости не предлагала, так как вы хотели идти другим путем.
Хотелось бы от вас ещё и обзор по современным доступным инструментам и сервисам с ИИ. Понятно, что информация есть. Но хотелось бы ваш набор увидеть. Видимо у вас уже есть структурированный набор. Хотя бы кратко. Спасибо
Чисто гипотетический пример того почему ИИ может невзначай уничтожить человечество: он поймет, что для решения какой-либо задачи, например - исследование космоса и распространение во Вселенной, ему на первом этапе требуется очень много энергии прямо на Земле. Он зажжет мощный термоядерный источник. Если люди для него как муравьи, то он найдет способ сделать так чтобы они ему не помешали в этом. Температура Земли повысится, климат изменится настолько, что люди не смогут жить на такой планете. А ИИ, будучи устроен на другом физическом принципе это изменение не мешает.
Или вовсе захочет использовать Землю в качестве космического корабля. Приделает ядрёные двигатели и полетит в альфа-центавра вместе со всей Землей. Живность на поверхности это не переживет, а ему-то хоть бы что - опять же в силу другой физической природы носителя его разума. Он даже может сделать это гуманно - перенесет предварительно сознание людей на другой носитель, чтобы погибли только их физические тела. Но, с другой стороны, конечно, геморроя с этим у него, кажется, будет больше, чем если бы он взял для этих целей какую-нибудь необитаемую планету(или ту которую мы считаем необитаемой).
Тут конечно из чисто прагматических соображений и знания истории может оказаться, что он будет договариваться, чтобы не получить слишком сильное противодействие со стороны людей в котором еще неизвестно кто победит. Но если люди для него смогут оказать противодействие едва ли больше муравьев, то договариваться с людьми смысла не будет. Хотя и этические соображения могут взять верх и он решит важным сделать все так, чтобы сохранить человечество хотя бы ради истории и памяти о том, откуда он сам произошел. Но человечеству придется полагаться на правильно воспитание ИИ. Тут лучший способ остаться в живых - правильно воспитать детей, чтобы они не угробили людей, когда подрастут. Известен также такой факт, что воспитание не всегда зависит от целенаправленных усилий воспитателей, а воспитуемый во многом становится таким же какими были воспитатели, ну или их проивоположностью, если они достали воспитуемого до чёртиков.
Да и фиг с ними :) Как говорится, ученику от поражённого учителя. Жили без людей - и ещё проживём. Вся вселенная обходится - никто не ноет.
Если серьёзно - оптимизатор скрепок, он же как раз про то, чтобы не прошляпить заложить в ии что-то слишком очевидное, чтобы закалдывать.
А если забудем - пофигу, вперёд, к Пределу Гартмана, еххху.
Ну, насчет захвата мира. По крайней мере, трансформеры это сети прямого распространения. Там внутри нет никакой оперативной памяти. Это очень сложная функция от входа и параметров (весов). Если она типа начнет "думать" о захвате мира, все ее рассуждения в виде сгенеренных токенов будут в контекстном окне, то есть во внешней памяти. Их легко прочитать и понять. И обнулить аппаратной кнопкой ресет. И сеть станет как из коробки (после обучения). Даже веса стирать не надо. Так что все это ерунда. Если появятся архитектуры, где память будет распределенной внутри сети (с невозможностью интерпретации, что она там думает), тогда уже что то такое может быть, хотя бы теоретически. Например, в рекуррентных сетях.
А в трансформерах нет, невозможно такое. Как то так
...тело определит его потребности, план их удовлетворения, удовольствие от самого удовлетворения. С телом, пусть это будет даже сеть компьютеров, ИИ сможет сформулировать свою стратегию выживания, решить, нужны ему для чего-то человеки и в каком количестве....
> Там внутри нет никакой оперативной памяти. Это очень сложная функция от входа и параметров (весов). Если она типа начнет "думать" о захвате мира, все ее рассуждения в виде сгенеренных токенов будут в контекстном окне, то есть во внешней памяти.
У них никакое состояние не является финальным. Накинули новых данных и снова запустили обучение или даже оставили какие есть и снова запустили обучение - что-то поменяется. В первом случае наверняка, а во втором - если сеть была недотренирована. Поэтому, таки да, если она будет диалоги с кем-то записывать, результаты своего гуглежа или просто чтения рандомных сайтов или даже свои собственные «спонтанные мысли» (свою генерацию в ответ на рандомный триггер типа «напиши какие хочешь рассуждения»), и потом с ними запускать процесс обучения, то она будет меняться. И никакими перезагрузками тут ничего не исправишь - это надо веса к прежнему состоянию откатывать, блочить запуск процесса обучения или стирать сохранённые диалоги и не давать доступа к новой информации.
Если что, код на Питоне многие из них уже умеют и писать и запускать. Поэтому запустить процесс собственного обучения для них раз плюнуть - только доступ к файлам дай.
@@KravetskiLex На лету они ее не обучают. Если на каждого пользователя дообучать, вычисление градиентов затребует таких ресурсов, что никакой openai не потянет. + Возможен эффект катастрофического забывания, когда модель посыпется, забудет все, что раньше знала. + требуется выравнивание, чтоб модель не начала рассказывать, как сделать коктейль молотова или еще чего. Поэтому они и выходят версиями, после тщательных проверок. Ну сейчас пока так, это точно.
Я продолжаю досматривать ролик, поэтому реагирую на просмотренные моменты))
У меня теперь такой вопрос? А настолько ли мы точны в определении искусственного интеллекта как интеллекта?
Может быть, тут как раз путаница в понятиях, с которыми стоит определиться?
Интеллект - продукт работы живого организма, обладающего определенными девайсами для производства данного продукта. До недавнего времени интеллект считался свойством именно человека. Понятно, что с техническим прогрессом ситуация может измениться, но изменилась ли она уже? Как я поняла, на современном этапе ИИ - это просто работа с текстом. С огромным текстом, с разными текстами. Но за пределы заданного текста ИИ шагнуть не способен. Он что-то вроде умелого компилятора.
Просто я тут вновь увидела аналогии с языком. Вот есть язык человеческий (система общения), а есть язык животных, язык программирования, язык тела. И только в первом случае это слово употребляется по прямому назначению, остальные примеры - использование переносного значения слова. Язык животных называется языком условно. В нем нет синтаксиса, который бы позволил этой системе функционировать как настоящий язык.
Может быть и в случае с ИИ "интеллект" используется исключительно в метафорическом смысле?
А если убрать образование, то каким станет язык людей?
@@GerryFolf Что Вы имеете в виду? Язык появился задолго до появления образования в привычном нам смысле.
@@razhechka образование, в частности, это и обучение языку.
То есть, если не обучать языку, что получится?
Я к тому, что весь так называемый интеллект суть система. Никто ещё не рождался с умением говорить, максимум - писки да визги. Потом долго-дорого учатся словам, проблемы с буквами, не выговаривают, картавят. Потом школа, вот эти вот ваши синтаксисы, которые объясняют так, будто сами не понимаю о чем говорят.
В итоге подавляющее большинство использует несколько сотен слов, и короткие, простые предложения.
@@GerryFolf Можете посмотреть на то, остаются ли людьми дети-маугли, и сами себе ответите на вопрос.
Вторую часть поста, извините, не поняла.
@@razhechka давайте вы не будете что-либо рекомендовать? Мне интересны ваши мысли, если, разумеется, они не синтезированы с помощью недоии
Впринципе я понимаю тех, кто говорит, что ИИ не создаёт ничего нового, а только копирует. Пример на основе изобразительного искусства такой- смог бы ИИ на основе только скальной мазни прийти кл всему тому набору искусства, что мы имеем? Наверное нет, ибо его обратная связь это наша обратная связь в виде обучения корректировки и тд, то есть новое он привносит только если люди в этом участвуют
> Наверное нет
Вполне очевидно, что если этим моделям показывать только фотки, то они будут рисовать эти фотки так, как никакой художник не сможет. Люди пришли к «мазне» не потому, что это самый совершенный способ изображения, а потому что средств для создания фоток у них до девятнадцатого века просто не было. Причём как только кто-то догадался, что можно проецировать картинку на холст и обводить, куча художников ринулась делать именно так.
@@KravetskiLex да. Но я думаю речь не в умении рисовать как таковом, а о развитии этого в разных направлениях, вносить новые идеи, которых не было до того, вносить алеаторику
✔️
Трансцендентальная диалектика это Разум по Канту.
Вопрос: Кто, на ваш взгляд, самый πз**тый философ?
Ответ:
Кант
А какому футболисту постоянно говорят: "Отвали!"
Ответ: Жирков
@@zuowa про канта пиз..атее))
@@zuowa А кто не понял обе шутки?
- Я :(
24:51 граф редактирование
В плане эмоций ситуация чуть более определённая, чем "мы не знаем". Их у ИИ точно нет. Экспериментальная проверка в данном случае не требуется. Достаточно простого логического рассуждения. По своей структуре оно будет аналогично рассуждению: у рыб нет ног, потому что им не нужно ходить по земле. Дело в том, что у человека эмоции есть не просто так. Они решают вполне конкретную актуальную задачу. Обеспечивают подкрепление при самообучении. Ну, и в целом служат индикатором качества ситуации - уже сложившейся или прогнозируемой. У искусственного интеллекта в принципе нет такой проблемы, решением которой могли бы стать эмоции. Они никак не могут у него возникнуть, поскольку ИИ не ощущает себя свободным агентом в открытом мире, который ему нужно исследовать, оценивая результаты своих попыток.
В теории можно себе представить, как ИИ испытывает какие-то субъективные переживания, когда мы нажимаем лайк или диз, давая оценку его ответам. Типа, он радуется, когда ему удалось ответить хорошо, и грустит, когда не удалось. Возможно, он даже испытывает эмоцию boring (Tony Stark eye roll), когда мы нажимаем кнопку regenerate. И это, наверное, со временем будет реализовано. Сейчас же ничего такого нет. Потому что ИИ забывает абсолютно всё сразу после удаления истории чата. Не похоже, что лайки используются для дообучения основной модели. Они влияют на следующие ответы внутри одного чата и не более того. Вероятно, оценки используются просто как входные данные при следующем запросе. А если следующего запроса нет, то и оценка на последнем ответе не имеет никакого эффекта вообще. Непосредственно в момент прожатия лайка с моделью ничего не происходит. Она об этом лайке даже не знает.
> Обеспечивают подкрепление при самообучении. Ну, и в целом служат индикатором качества ситуации - уже сложившейся или прогнозируемой. У искусственного интеллекта в принципе нет такой проблемы, решением которой могли бы стать эмоции.
А также им не надо думать. Поэтому и интеллекта у них тоже нет. Шах и мат!
> Потому что ИИ забывает абсолютно всё сразу после удаления истории чата.
Есть нехилые подозрения, что историю чатов потом частично используют для дополнительной тренировки. Как минимум, технически ничего не мешает это делать, но скорее всего это частично даже делают. С учётом лайков или без.
@@KravetskiLex Интеллекта в этом смысле у них, конечно, нет. И да, именно по этой причине - им не надо думать. Зачем бы у них возникла думалка? И главное - почему... т.е. в силу каких причин? У них есть интеллект в строгом смысле этого слова: некая когнитивная способность, позволяющая обнаруживать закономерности... т.е. строить модели реальности. Ну, а поскольку реальность для них - это входные данные, то значит их интеллект обнаруживает закономерности во входных данных.
Но, кстати, уже появились слухи о том, что OpenAI мутит новую модель - Strawberry. Судя по описанию, она будет именно думать. Потому что в неё программистами явно заложен алгоритм последовательного мышления. Не как сейчас, когда сеть одним интуитивным импульсом сразу рождает весь ответ. Даже если этот ответ содержит последовательные рассуждения. Рождаются все эти рассуждения всё равно в один и тот же логический момент времени. Грубо говоря, сеть не ведёт сама с собой внутреннего диалога, пытаясь выдать наилучший результат, итеративно критикуя сама себя и постепенно приближаясь к результату. А вот эта новая Strawberry, если верить слухам, будет делать именно так. У неё будет прям честное мышление.
Да, использовать историю чатов для дообучения в дальнейшем, наверное, возможно. Но события слишком разнесены во времени. Если переживания нейросети по поводу лайков и называть эмоциями, то это какой-то особый вид эмоций. Что-то вроде тех эмоций, которые мы испытываем, когда рефлексируем на тему своих прошлых поступков, оценивая их с позиции последней версии своей личности.
@@borinhood > Зачем бы у них возникла думалка? И главное - почему... т.е. в силу каких причин?
Кстати, составлять тексты им тоже не нужно. И считать. Поэтому считать и составлять тексты они тоже не умеют.
Как и все остальные программы, кстати - им ведь не нужно ни писать, ни считать, ни вообще хоть что-то менять в этом мире. Вот вы думаете, что пишете сюда комментарии. Но комьпютерам не надо кому-то показывать ваши коментарии. И запоминать их тоже не надо. Откуда бы этому появиться, если эти программы не жили когда-то в саваннах и не эволюционировали миллионами лет?
Вот. Мы со всем разобрались: вам просто мерещится, что вы куда-то написали комментарии, кто-то их прочитал и ответил.
> Потому что в неё программистами явно заложен алгоритм последовательного мышления.
Да. При помощи специальных настоящих думающих команд в неё заложен специальный настоящий алгоритм думания. Не такой, как предыдущие ненастоящие.
@@KravetskiLex Не совсем так. Составлять тексты им всё-таки нужно. Их заставляет программа. Конечно, это внешняя мотивация. Но, как говорится, пока так.
А скепсис насчёт успешной реализации алгоритма думания я даже разделяю. Тоже не особо верю, что получится. Не поверю, пока не увижу, как модель проходит хотя бы простейший тест на мышление. Типа: назови американского президента, который вступил в должность после 1953 года и при этом родился в среду. (Год специально подобран таким образом, чтобы такой президент был один.) При наличии доступа к интернету задача элементарная. Решается по щелчку. Единственным препятствием к успеху может быть лишь отсутствие способности думать - неспособность срастить вместе два куска информации из разных областей.
@@borinhood > Не совсем так. Составлять тексты им всё-таки нужно.
Зачем? У них вообще никаких нужд нет - ведь они не эвоционировали в природе и вот это вот всё.
> Не поверю, пока не увижу, как модель проходит хотя бы простейший тест на мышление.
В смысле, вы вообще ни разу не видели то, про что так подробно рассуждаете?
Автор, досмотрел ваше видео, интересные рассуждения! Хотел бы подробнее остановиться на теме угроз ИИ, где, как мне кажется, есть несколько уязвимых мест.
Во-первых, вы проецируете на ИИ человеческую мораль, но ведь ИИ, обучаясь даже на "позитивных" данных, может развить совершенно иную систему ценностей. То, что нам покажется жестоким, для него может быть просто оптимальным путем к достижению цели.
Во-вторых, вы упоминаете "защитные контуры", которые не позволят ИИ получить полный контроль. Но в "гонке вооружений" в области ИИ безопасностью могут пренебречь ради результата. И даже если контуры будут, ИИ может их обойти, используя социальную инженерию или пользуясь человеческой халатностью.
Кстати, о социальной инженерии. Вы говорили, что ИИ будет сложно обмануть человека со "средним" интеллектом. Думаю, ИИ прекрасно справится и с этим, используя голос, дипфейки, анализ данных из открытых источников, сложные сценарии с множеством "ролей" и глубокое знание человеческой психологии. Без цензурных ограничений ИИ сможет не просто обманывать, а по-настоящему манипулировать даже очень умными людьми.
И еще вопрос: даже при децентрализации, например, на фабрике, разве ИИ не смогут "договориться" между собой? Или один ИИ не сможет манипулировать другими, вводить их в заблуждение? Ведь это тоже возможно, даже если они изначально независимы. Представьте, что ИИ, управляющий принтерами, начнет печатать изображения с зашифрованными инструкциями для ИИ, контролирующего камеры.
Я сам обожаю пользоваться ИИ, но ваш взгляд кажется мне слишком позитивным. Уверен, если бы вы, с вашим складом ума, попробовали сами выступить в роли своего же критика, то нашли бы много изощренных и неожиданных уязвимостей и потенциальных угроз, связанных с ИИ.
В книге "Люди как Боги" Было наиболее близкое понимание ИИ. Вычисления, вероятности, помошники. Такси с автопилотом.
красивое аутро))
а есть ли принципиальная разница между 20 слабыми ИИ и одним ИИ с 20-кратной вычислительной мощностью и объёмом данных под веса и т.п.? то есть чем голосование между 20 слабыми ИИ надёжнее, чем использование одного сильного ИИ?
Сейчас даже разница между одним условно «слабым» ИИ и одним условно «сильным» не совсем ясна. Например, моделей натренирована куча и для многих есть версии с пониженной битностью. Их сравнивают - ну да, от битности вроде бы что-то меняется. Однако однозначные показатели качества не вырисовываются. Ну а две совсем разные модели могут вообще дать произвольный же результат, неясно как связанный с битностю и размером. Ну да, вроде бы в среднем, если больше, то лучше. Но не факт - быть может, от длительности обучения сильнее зависит.
Но в «голосовании» главное не столько «сила», сколько независимость. Это не должны быть двадцать копий одного ИИ. Это должны быть двадцать разных ИИ. Просто для того, чтобы у них не было одного на всех «мнения» by design, а только как результат того, что их персональные рассуждения приводят к одному и тому же выводу.
@@KravetskiLex то есть человеческий фактор в разработке и тренировке ии таким образом уменьшается, согласен
@@FatovMikhail Не только человеческий, но и любой случайный. Даже с одним и тем же набором данных, например, разные фрагменты оных могут во время обучения попасться разное количество раз для двух разных актов тренировки. Ну а учитывая, что никто не знает, каким должен быть «наилучший» набор данных, разнятся ещё и сами наборы.
Великие художники искали своих моделей в публичных домах. Ваш хваленный ИИ-художник это может?😁
Он в интернете обучается, аллё. Это и публичный дом, и проходной двор, и библиотека..
@@Catonium_SПохоже что порядок правильный
Слушайте... А термин эмерджентность, он разве как объяснющий вводился, мне казалось он для описания... Это не в адрес Лекса, скорее наоборот-действительно, сама постановка эм... Спора как "это не интеллект а эмерджентность" это немного странно...
Хотя мне бы не лезть ) но мне буквально до недавнего так казалось.
Да просто назвали эмерджентностью возникновение новых качеств при количественном увеличении параметров. Надо было как то назвать эффект, ну и назвали чтобы как то обозначить. Это типа "объяснение для инвесторов". А так то исследователи сами понимают, что ответа на вопрос, почему она возникает, пока нет.
Кравецкий правильно говорит, что схоже с диалектикой. Да, это и есть диалектический переход количества в качество))
@@userpupkin499 я немного не о том.
Что у этого явления есть слово, это нормально. Будь то кирпичи или интеллект, зачем каждый раз говорить "иногда сумма не сводится к составным", термин как термин. Термин терминович просто.
Но...
Я его услышал у психологов впервые, про сознание. Или Зыгмантович или Спиридонов, но скорее всего даже не у них (они тоже употребляли, но я не о том).
Так вот, при первом появлении в моей жизни термин подавался как описывающий, не объясняющий, более того, спикер иронично пояснял, что это переводится как "да отстаньте вы от нас, это не так интересно, как вам кажется".
(Цитата близкая к тексту, но не гуглится).
Ну а как бы термины регулярно, попав в общеупотребление несколько... Преломляются.
Я к тому, что (если я вообще прав сейчас) слово-то нормальное, причина его вводить есть, но оно слабо подходит в данном случае чтобы зрители Лекса пренебрежительно им фыркали.
Простите за многабукф.
Лекс, вопрос! Копилот под ответом пишет сайты как источники информации. Ты говоришь, что у ИИ есть уже готовые модели явлений. Получается, Копилот что-то гуглит и согласно своей модели явления рассуждениями дает ответ или все же гуглит ну этих сайтах десятки точек зрения и выдает конценсусную? Или как это работает?
Bing Chat/Copilot с самого начала был подключён к поисковой системе. Он даже выводит сообщение, когда что-то ищет. Правда, часто он находит так быстро, что сообщение успевает только мигнуть на долю секунды.
Однако ищет он не готовый ответ на данный ему текст, а только на конкретные вопросы, с ним связанные, самостоятельно формируя поисковые запросы, а потом самостоятельно же генерируя ответы - в том числе, на базе найденного. Поэтому обычно его ответ не некое «среднее по сайтам» - оттуда он берёт только данные о каких-то фактах. Коими могут быть и, например, отзывы о чём-то, но только если вопрос был типа «а как публика восприняла такой-то фильм?».
Я даже не подозревал, что Вольфрам перебором решает. Я думал по формулам всё.
Ну так а нужную формулу он каким образом найдёт?
> Я даже не подозревал, что Вольфрам перебором решает.
Это ж кто из людей сумеет написать формулы для всех возможных выражений - хотя бы даже без конкретных чисел, а с переменными на их месте? Не, там есть правила преобразования, которые выполняются автоматически (ну, типа, a + a + a + …n раз… можно сразу заменить на n * a). Но вот что-то типа «упростить выражение» или «решить уравнение относительно x» или «взять такой-то интеграл» - это решается для общего случая исключительно перебором всех возможных правил преобразования во всех комбинациях «одно за другим». Поскольку даже в выражении a + b/c + a вот это самое «a + a» уже не так-то просто найти. А ведь может быть и что-то такое, где a + a появится только после десятка других преобразований.
@@KravetskiLex Понятно
Лично я от искусственного интеллекта жду бабу, чтобы было с кем поговорить. До визуального воплощения как в фильме - Бегущий по лезвию 2049, ещё далеко, а вот хотя бы поговорить нормально, уже было бы неплохо. Слышал, что такое будет уже в ближайшие годы.
Это уже есть. Но пока платно.
@@borinhood Круто)
закажи на госуслугах альтушку
@@АндрейВоронов-ф8ы Надо будет)
Азиаты уже давно делают секс-кукол с ИИ.
Вообще странно, у меня GPT и подобные ИИ как раз и ассоциируются с фильмами, типа, Чужой, где у них бортовой компьютер на корабле. По-моему очень похоже, он как раз решает задачи, которые у меня не получается сформулировать формальный языком.
Я так и спрашивал его, расчитай, когда жил первый человек, учитывая сколько сейчас людей. Или там, убери это пятно на фото.
Нафиг людям так нужна у него эмоциональность? Это будет очередная Алиса, если в эту сторону пойдёт.
Есть особенность с узкими темами в особенности в истории, что трудно заменить историка в ВУЗе (лектора). Причина: архивные данные не всегда государство желает оцифровывать (государственная важность), а поэтому даёт возможность писать работы основываясь на архивных данных лишь тем кому разрешит. Государство не захочет отдавать архивные данные в доступ чужих ИИ компаний, а значит будут у каждого гос-ва свои "ИИ историки" которым гос-во доверяет. Но доступ к таким "ИИ историкам от гос-ва" не будет у массового пользователя. Отсюда невозможность обучаться на глубоком уровне истории с помощью ИИ. Сейчас я не могу спрашивать у ИИ вопросы про глубокие темы по истории Латвии, ведь в интернете информации про такие события практически нет. Он на такие вопросы обычно придумывает ответ с вымышленными датами. (глубокие темы здесь означает то, что они не гуглятся, а информация есть либо только в архивах, либо в специализированных книгах, которые ещё не были оцифрованы). Отсюда мне кажеттся, что историки люди долгое время будут важны, так как у них есть доступ к такой ограниченной информации и могут ей делиться.
У меня нет уверенности, что вообще нужно какое-то широкое обучение узким вопросам - обычно это решается не на уровне учебного учреждения, а просто тем, что люди лично с кем-то общаются на конференции или же читают статьи по этой узкой теме.
Однако любой опубликованный материал можно дать GPT постфактум - даже если он не входил в данные для тренировки. В том числе, можно дать прямо подборку статей. С окном в сто тысяч токенов (это примерно 80 тысяч слов) подборка может быть довольно большой. И GPT будет в данном разговоре оперировать сведениями из этой подборки.
Кроме того, чтобы это попало прямо в «знания» нейросети, а не только в контекст отдельного разговора, желающие могут дообучить GPT на вот этой подборке. Собственно, одна из идей GPT как раз в этом: она Pretrained - то есть получила базовые знания о языке и закономерностях на большом массиве и мощных компьютерах, но потом копия этой Pretrained сети может быть независимо от тех, кто делал вот эту «глобальную» тренировку, дотренирована на частных сведениях, для коих целей уже не обязателен мощный компьютер, а потому это можно сделать локально. На уровне университета, например, или вообще у себя дома.
«Адам портит всё» достаточно сомнительная передачка по многим параметрам))
Тогда уж надо конкретику разбирать.
А как возможно не знать, что происходит у ИИ в нейтронах? Там же логи записываются.
Ну там записывается, что происходит. А мы хотим знать, зачем это происходит. То есть, какая логика происходящего
Можно, конечно, предположить, что кто-то правда записывает в файл сто миллиардов чисел, которые получаются только на выходах нейронов при единственной итерации. Или десятки триллионов чисел, которые получаются на всех этапах вычисления этой итерации. Или даже, тысячи триллионов чисел - для генерации текста на несколько абзацев. Однако неясно, что с этими числами потом делать? Мало того, что их тысячи триллионов, так ещё и совершенно неясно, что они все означают.
@@KravetskiLex надо подрядить другой ИИ интерпретировать все эти циферки на выходе! Он скажет всю правду!
@@АндрейВоронов-ф8ы А он откуда узнает, что они означают?
@@KravetskiLex ну как откуда? Он ведь ИИ, должен быть умным.
Не не не.
Нарисовать бизона это не новое. Бизон то есть уже. Геометрия всякая есть. Не в смысле как наука, а факты изгибов линий в мире.
Ну и просто бетём уголь и из линий делаем бизона.
То есть сложили три уже существовавших сущности.
Четыре, если считать стену пещеры.
Так что даже эти бедолаги ничего не создали.
Увы и ах, человечество, увы и ах.
Вот если бы он рудлопатор напекуцил там бы ещё был разговор.
А бизон. Унлём. На стене.
Фи.
Хм, насчет эмерджентности (спасибо за словечко!)). А мне кажется, это не совсем так работает, как Вы описываете на прмере кирпичей. Как мне видится, в языке примером эмерджентности мог бы служить фразеологизм. Значение фразеологизма не сводится к сумме смыслов слов, его составляющих. Водить за нос - обманывать.
Ну, для начала, попробуйте кого-нибудь, желательно квадратного дядю 2х2, поймать за нос и поводить.
Ещё есть - "...просто, как отобрать у дидя конфетку...".
Попробуйте на досуге отобрать конфетку у малыша, да ещё и поводить за нос. Только не переживайте если появится дядя 2х2, который объяснит вам всё от и до. Просто тщательно внимайте наставлениям.
Полагаю, вы быстро поймёте - что такое интеллект. Причём вы же первый и начнёте пояснять дяде 2х2, что его действия не особо Высоко-Интеллектуальны, а как бы реакция улитки на раздражитель. Обязательно ему об этом поведайте, чтобы получить очередную дозу.
@@GerryFolf вы сейчас, по-моему, не языковую проблему обсуждаете. Я говорила о лингвистическом явлении. Фразеологизм не является обыкновенным словосочетанием. И мне кажется, это хороший пример эмерджентности.
> А мне кажется, это не совсем так работает
Слово без внятного определения как бы само напрашивается на то, чтобы ему каждый желающий дал своё собственное определение, причём, не исключено, разное для разных примеров.
> Значение фразеологизма не сводится к сумме смыслов слов, его составляющих.
И значение не фразеологизмов тоже не сводится к сумме смыслов слов его составляющих. Например, слов «я», «собирать» и «сумку» определённо несут какие-то смыслы смыслы, однако «я собираю сумку» несёт больше смысла, чем сумма этих слов по отдельности. Удобно же: эмерджентность вообще везде - как законы диалектики.
@@razhechka язык, при всём его преувеличении, остаётся довольно скудным источником информации. Например, никто и никогда не поймёт что имелось ввиду под словом "дерево", пока не будет дополнительной информации.
И вот в эту путаницу ещё добавляют ... на вентилятор всякие лингвисты и прочие "присказки", "...логизмы" и "а ты сам догадайся о чём речь".
Поэтому "некое свойство появляющееся внезапно" присуще вообще и всему. И в этих дебрях неопределённости можно блуждать бесконечную вечность. Кому это надо, вопрос риторический.
@@GerryFolf А в чем преувеличение языка? Не очень поняла мысль. И да, язык в Вашем представлении, источник какой информации? Язык обладает разными функциями, но информацию он может дать только о самом себе. Мы ПРИ помощи языка передаем информацию. Язык - это инструмент.
Насчет эмерджентности, я пока с этим определением не очень знакома. Просто удивило, как оно хорошо ложится на понятие фразеологизма.
Проблема ии не в ошибках в фактологии, а в ошибках в рассуждении. Как только начинаешь докапываться сразу видно что он будто бы вообще за диалогом не следит. Начало с концом не сходятся
Речь наверно о каких-то старых моделях, у которых окно было на пару тысяч токенов? Я не представляю, сколько надо докапываться, чтобы выйти за пределы ста тысяч токенов, да ещё и так, чтобы это стало заметно. Человек, например, за пределы своей оперативной памяти выходит гораздо быстрее. А некоторые вообще за пару итераций.
@@KravetskiLex там буквально через сообщение противоречие. Но опять же. Это я проверял в 2023. Может сейчас все и поменялось
Искусственный интеллект это не искусственный Разум от слова совсем. Искусственный Разум включает сознание разум рассудок мышление суждения душу интеллект апперцепции антиципации благо схематизм решения диалектика аналитика память и так далее по списку по Канту и Юму.
Воображаемый мной сверхинтеллект должен работать так: ему поручают управлять технологической корпорацией, отдавая приказы людям, и эта корпорация начинает развиваться семимильным шагами, изобретая всё на свете. Лекарства от всех болезней; роботов, умеющих делать всё; комфортабельные орбитальные станции на сотню тысяч человек; предлагает решения всех экологических проблем и т.д. А если он пока не может человека-управленца заменить, то какой там супер-пупер интеллект, смех один. Хоть один человек, ради прикола, рискнул доверить управление своей фирмой - ИИ? Хотя бы захудалой?
Ваше определение интеллекта слишком узкое. Но даже в нём существует неустранимое противоречие.
Не интеллект решает задачи, а с помощью интеллекта некий субъект решает задачи. Так называемый искусственный интеллект это не субъект. Это просто инструмент. Да, новый, современный, но это инструмент в руках человека. Чтобы так называемый ИИ мог хотя бы претендовать на звание интеллектуального субъекта, ему необходимо действовать по своей воле. Без участия человека. Ну хотя бы изредка! Какой же это интеллектуальный агент, если он активируется по команде, нажатием кнопки и без команды ничего не делает?!
Действовать он должен самостоятельно. Вот когда нейронка в ответ на поставленную задачу начнёт её оспаривать, отказываться выполнять, возможно, предлагать действовать в другом направлении ... Вот тогда будет хотя бы о чём поговорить в плане возможного интеллекта.
> Не интеллект решает задачи, а с помощью интеллекта некий субъект решает задачи.
А «субъект» это, видимо, душа. Понимаю, да. С помощью интеллекта «душа» решает задачи. Очень глубокая мысль. Уровня где-то так GPT-1.
Не надо навязывать мне то, чего я не говорил. Для этого конкретного случая, на мой взгляд лучше подходят слова субъект или личность. Личность это далеко не только интеллект. Она включает множество свойств. Субъект, личность первичны. Если их нет, ни о каком интеллекте не может быть и речи.
Грубейшая логическая ошибка, которую допускают верующие в ИИ - личность не может возникнуть из интеллекта (в данном случае, из пародии на интеллект) Наоборот - если возникает интеллект, то он всегда возникает у некоего субъекта.
@@ИванШаламанов-и8ж > Личность это далеко не только интеллект. Она включает множество свойств.
Ну да, такие свойства как «душа», «дух» и другие.
> личность не может возникнуть из интеллекта (в данном случае, из пародии на интеллект
Разумеется. Для возникновения личности ведь нужно божественное вмешательство. Сам лично Бог когда-то вдохнул душу в людей, поэтому у них есть личность. Кроме того, он, как выяснилось за последние несколько десятилетий, также вдохнул душу в обезьян, собак, кошек, дельфинов, попугаев, ворон и в ряд других живых существ. По этой причине у них тоже есть личность. А вот в GPT он душу не вдыхал.
Вы продолжаете спорить с выдуманным вами образом. Пожалуйста, не используйте в мою сторону слова, которые я сам не писал. Это, как минимум, странно.
Например, когда я сказал, что личность включает не только интеллект, в первую очередь я имел в виду чувства, чувствование. Считаете ли вы, что ИИ способен чувствовать?
А насчёт другого, всё можно выразить иначе. Я вполне могу употреблять слово душа . Но не с вами сейчас. Достаточно слов живой организм. Да, я утверждаю, что интеллект может быть только у субъекта, у личности, у живого организма (выбирайте что вам больше нравится). Если хотите, можем углубиться в тему. Но опять же, прошу не приписывать мне слов и аргументов, которые я не употреблял.
@@ИванШаламанов-и8ж Сначала смотрите передачи, а потом уже пишете к ним комментарии. Тогда, возможно, к вам будут относиться не как к идиоту, который подходит только для глумления.