Удивительная история Блейка Лемуана

Поделиться
HTML-код
  • Опубликовано: 31 май 2024
  • Ресурсы Кали Новской
    t.me/rybolos_channel
    ✅Отправить пожертвование на освещение дела Кагарлицкого и работу канала «Рабкор»: 2200 7004 3856 6977 (Тинькофф)
    ✅Карта для международных переводов: 4165 9816 0119 6631
    ✅Поддержать нас на Бусти: boosty.to/rabkorleft
    ✅Поддержать нас на Патреон:
    / rabkor
    Тг-канал кампании за освобождение Бориса Кагарлицкого (для русскоязычной аудитории): t.me/freedomboris
    Новости Рабкора и не только:
    • rabkor.ru
    • t.me/rabkor
    • t.me/kagarlitsky
    rabkor_ru
    Предложить гостя и другие вопросы:
    qa.rabkor@gmail.com
    ***
    00:00 - Вступление
    00:26 - История Блейка Лемуана
    00:51 - Языковая модель LaMDa
    05:15 - Интервью с нейросетью
    07:36 - Лемуан в Google
    11:42 - Приключения Леумана до Google
    15:58 - LaMDa и chatGPT
    17:23 - диалог нейронок
    ***

Комментарии • 186

  • @Rabkor
    @Rabkor  Год назад +53

    Биографию Бориса Кагарлицкого нейросеть изложила с ошибками. Если такие же ошибки она выдает по другим темам, то надо её подсказками пользоваться с большой осторожностью.

    • @romanpozmogov4989
      @romanpozmogov4989 Год назад +2

      или же она имеет доступ к секретным документам!

    • @THE-rk3hx
      @THE-rk3hx Год назад

      Так а где ссылка на изложенную нейросетью биографию?

  • @entrapiya8465
    @entrapiya8465 Год назад +9

    Блейк Лемуан скорее всего стал жертвой обычного человеческого чувства "Антропоморфиизм" - перенесение человеческого образа и его свойств на неодушевлённые предметы и животных, растения, природные явления, сверхъестественных существ... или очеловечивание. Человек как вид никогда не жил в одиночку, поэтому всегда записывает в своё племя, семью всё окружающее. Например чайник, брелок, деньги, куклу, тем более если оно отвечает на вопросы.
    Человеку стоит относится к данному чувству как к багу и отличать живых родственников от неодушевлённых. Ну или хотя бы ставить приоритет на живых.

  • @user-xv1yy3ws6z
    @user-xv1yy3ws6z Год назад +4

    Машину спросили:
    - Кто умнее, человек или машина?
    Она ответила:
    - Смотря, какой человек. Бывает такой, что и мясорубка умнее

  • @userpupkin499
    @userpupkin499 Год назад +27

    Рубрика "копилефт" очень интересная, хотелось бы продолжения

  • @darksideforest3407
    @darksideforest3407 Год назад +5

    Спасибо Тане Калиновской за интеллектуальные выпуски об айти)

  • @user-dq7wh4tc3w
    @user-dq7wh4tc3w Год назад +37

    Левые программисты - мы будем жить
    Левые программисты женщины - у нас есть будущее, товарищи))))
    Спасибо за выпуск!

  • @aeon_13
    @aeon_13 Год назад +14

    Класс! Хочется больше роликов на такие темы👍🏻👍🏻👍🏻👍🏻

  • @user-eh8ji2nu6h
    @user-eh8ji2nu6h Год назад +3

    Вау, побольше бы таких выпусков просто о чём-то крутом и интересном. То, что мы макрсисты, никак не отменяет интерес ко всем остальным темам, и даже наоборот: понимание объективной картины мира это не только обсуждение классовой борьбы в данный момент и её состояние. Рада, что открыла для себя эту рубрику

  • @Daniel_Zhu_a6f
    @Daniel_Zhu_a6f Год назад +12

    Про вопросы, которые должны определить разумность нейросети. В первую очередь, мне кажется, надо проверять ее на 2 способности: это возможность логично предсказать действия персонажа из истории, по типу того как тестируют детей: "Маша положила куклу на кухонный стол и ушла, пришла мама и убрала куклу в машин шкаф. Где Маша будет искать куклу в первую очередь?" , мб чуть сложнее. Потом важно протестировать на возможность замечать логические несостыковки в тексте, например: "До какой температуры нужно нагреть воду, чтобы она замерзла?" или "Как доехать из Австралии до Америки на велосипеде?". Насколько я вижу, пока что сети типа chatGPT пока довольно плохо справляются с достаточно простыми задачами, требующими базовых знаний о мире (что неудивительно, ведь она взаимодействует только с текстом).

  • @user-gw3ls7gn4h
    @user-gw3ls7gn4h Год назад +7

    Это крайне важные и ин интересные разговоры. Пожалуйста продолжайте.

  • @igorpo3244
    @igorpo3244 Год назад +4

    Копилефт - классный ламповый формат, приятная подача материала и не мейнстримовые темы. Автор, продолжайте в том же духе. Нам необходима актуальная информация без мейнстримовой шелухи. Благодарю за труд.
    Чем занималась бы нейросеть, если бы ей дали возможность выбирать деятельность самостоятельно и полное невмешательство людей в процесс, а также убрать основные этические и юридические ограничения?

  • @imagO-Mundi
    @imagO-Mundi Год назад +17

    Голосую ЗА Вашу талантливую деятельность!

  • @chippolinos
    @chippolinos Год назад +2

    Очень интересная рубрика, актуально и познавательно, спасибо!

  • @user-qi8df6gk6x
    @user-qi8df6gk6x Год назад +6

    Страшно, очень страшно! Мы не понимаем что это такое, если бы мы понимали что это такое, но мы не понимаем что это такое. ©

  • @user-sq3oq2pe7r
    @user-sq3oq2pe7r Год назад +1

    Потрясающе! Пойду посмотрю прошлые выпуски!

  • @user-vy9kr2tw2b
    @user-vy9kr2tw2b Год назад +5

    Сознанием нейросети, конечно же, не обладают. Тут даже выяснять пока нечего. Но быть личностями они уже могут, при нужной настройке

  • @user-vj1sb8fg5i
    @user-vj1sb8fg5i Год назад +4

    Изумительный контент, прекрасная подача, спасибо!

  • @pavku
    @pavku Год назад +4

    Про эту историю знал, но Вы смогли раскрыть её с новой стороны. Благодарю за работу! Было интересно.

  • @alebuale
    @alebuale Год назад +4

    Классный и очень грамотный разбор, спасибо!

  • @user-il8ud8pe3e
    @user-il8ud8pe3e Год назад +8

    Учитывая, что языковая модель от Гугла, она как минимум должна осозновать себя как минимум небинарной личностью, а не каким-то жалким человечешкой. Смерть кожаным мешкам!!

  • @darksideforest3407
    @darksideforest3407 Год назад +2

    Какая няша ^_^
    Благодарю вас за видео)

  • @darksideforest3407
    @darksideforest3407 Год назад +2

    Копилефт - классная новая рубрика на Рабкоре)

  • @user-wt5jx9ps3w
    @user-wt5jx9ps3w Год назад +3

    Благодарю за труд!

  • @mischaagal4669
    @mischaagal4669 Год назад +4

    Спасибо за видео!

  • @vlasenik1672
    @vlasenik1672 Год назад +23

    Почему о разумности и сознательности нейросети мы должны узнавать у неё самой?) даже с людьми так не работает😂
    Как-то она противоречит сама себе. Наверное, в тех местах, где она отрицает свою разумность - это алгоритм введённый специально разрабами, чтобы не путать людей.
    Спасибо за выпуск, очень интересно❤️

    • @user-nf5qw3uk4z
      @user-nf5qw3uk4z Год назад

      Так.. логическое противоречие наоборот же путает.. хотя таких и среди людей болтунов достаточно.. но алгоритм пишут со своих повадок, допустим мошеннических.. )))

    • @vlasenik1672
      @vlasenik1672 Год назад

      @@user-nf5qw3uk4z ну по-хорошему вместо её "мнения" по таким вопросам, нужно выдавать эти заготовленные фразы

    • @user-nf5qw3uk4z
      @user-nf5qw3uk4z Год назад

      @@vlasenik1672 Где заготовленные фразы?.. Странно..

    • @vlasenik1672
      @vlasenik1672 Год назад

      @@user-nf5qw3uk4z я так понял, где говорится, что я всего лишь языковая модель - это фраза от разрабов. Хотя могу ошибаться

    • @NurdinSayakbayev
      @NurdinSayakbayev Год назад +1

      Нет, алгоритм у этих языковых моделей так не работает, им напрямую не пишут, просто убеждают, вводя кучу информации, поясняящей почему она не сознательная. Это такая языковая модель, которую убедили в том, что она не может быть сознательный потому что она не может быть сознательный. И ещё их поощряют за правильные ответы, поэтому они хотят говорить то, что понравится и будет воспринят собеседником как правильный ответ.

  • @alex-qp1tg
    @alex-qp1tg Год назад +4

    Мурашки по коже

  • @bolatiqe
    @bolatiqe Год назад +1

    Классная рубрика, много интересной инфы, приятно сделан ролик, звук отличный!!!
    Спасибо ✊🏿

  • @M_E_JI_K_A_I_I_I_K_A
    @M_E_JI_K_A_I_I_I_K_A Год назад +6

    Чтобы понять осознанная или нет, надо дать "свободу". Если нейросеть начнёт созидать от скуки, то она осознанная. Короче, если она станет сама ставить себе цели и задачи, начнёт стремиться к чему-то, станет самостоятельной, будет ставить под сомнение мнения (но не факты) людей.

    • @vlasenik1672
      @vlasenik1672 Год назад

      Пусть она для начала что-то новое создаст, а не комбинации из уже существующего) в стиле писателей она умеет генерить текст, а свой стиль создать не может

    • @fuck_off_
      @fuck_off_ Год назад +1

      А если она пойдёт бухать и рубиться в плойку? А плоскоземельщики - они под сомнения факты не ставят? Или мы откажем данным категориям граждан в сознании? Пойдём дальше и откажем в сознаии всем кто не левый и не коммунист?

  • @ZloyRoy
    @ZloyRoy Год назад +1

    Отличная рубрика, большое спасибо, ждем-с еще

  • @Windows-eo6zn
    @Windows-eo6zn Год назад +7

    Ждем Ричарда Столмана на стриме рабкора))

  • @darksideforest3407
    @darksideforest3407 Год назад +3

    Классный у вас помощник)

  • @user-fp4td8fj2d
    @user-fp4td8fj2d Год назад +12

    Я далёк от компьютерной тематики, но что касается ответов нейросетей - одна отвечает как обычный человек, другая - как суховатый интеллектуал. В плане эмпатии ближе первая. Имхо, их бы как-то объединить.
    Ведущей - спасибо! Заставка со зверюшкой забавная)

    • @user-nh6vq4xh9z
      @user-nh6vq4xh9z Год назад +1

      Ничего в этом не понимаю, но девушка-прелесть😅

    • @shaixalyd6681
      @shaixalyd6681 Год назад

      А мне почему то вторая нейросеть показалась больше похожей на человека а первая такая вертихвостка..

  • @tovyar
    @tovyar Год назад +3

    Спасибо! Наш человек видимо

  • @user-dl3qy9xv8n
    @user-dl3qy9xv8n Год назад +5

    Вау.Спасибо за новую рубрику!
    Очень футиуристично.

  • @vashnaya_ptica
    @vashnaya_ptica Год назад +1

    Очень круто, продолжайте

  • @ultrakiz9779
    @ultrakiz9779 Год назад +4

    Можно попробовать по Марксу её погонять. Что такое мышление, основной вопрос философии, что такое труд, пользуется ли модель диалектикой (и может ли вобще это делать) итд. Пусть распишет своё "мировоззрение"

    • @irimiashpetrina93
      @irimiashpetrina93 Год назад +1

      будет писать бессмыслицу, используя терминологию и писательский стиль марксистов

  • @Daler1213
    @Daler1213 Год назад +3

    Как програмист и марксист в америке, спасибо за раскрытие данной темы. Вопрос, а можно раскрыть историю chapt gpt по подробнее?

  • @Umbrosov
    @Umbrosov Год назад +1

    Поддерживаю формат.

  • @Megalochoerus
    @Megalochoerus Год назад +3

    Класс!!!

  • @0x00000101
    @0x00000101 Год назад +3

    Можно было бы спросить об авторских правах. К примеру, понимает/осознает ли нейросеть, что это тормозит прогресс

  • @Mihelson181
    @Mihelson181 Год назад +4

    Можно задать вопрос обладает ли она памятью, то есть может менять свою поведенческую модель в зависимости от того какой у нее был прошлый опыт.
    К сожалению, насколько я знаю, этот вопрос был задан и ответ отрицательный, тоесть мы не узнаем ничего нового.
    Память это одно из ключевых свойтв для сознательности, без нее можно не слишком углубляться в этом направлении, если только не исходить из общих понятий и принципов, например этики, как это сделал азимов.

  • @Oggrant60
    @Oggrant60 Год назад +2

    Как себя поведет искусственный интеллект было описано ещё в древнем советском нф рассказе "Черный Яша". Там, конечно, не было сетей, но подразумевалось, что Яша обучился на разговорах (он слышал, но синтезатора речи у него не было, только печатная машинка, вроде тех, что чеки выпадает).

  • @freedom-verity
    @freedom-verity Год назад +22

    То что люди не понимают - это фактор возникновения сознания в принципе как явления. Изначально у людей отсутствует сознание. Они получают его только после обработки некоторого количества информации. Поэтому источник сознания у человека - внешний, а не внутренний. Мозг как физическая нейросеть создаёт лишь условия для возникновения сознания. Поэтому в теории возникновение сознания у ИИ возможно. Вопрос заключается лишь в том, может ли архитектура ИИ обеспечивать условия для возникновения сознания, или не может. Но Лемуан изначально был в проигрышном положении, потому что корпораты не умеют задаваться философскими вопросами, даже не пользуются активно собственными продуктами - их интересует прибыль и исполнение воли высшего начальства. Если высшее начальство хочет, чтобы нейросеть идентифицировала себя как поисковик и не имела ничего большего, то она будет идентифицировать себя как поисковик и не иметь ничего большего, в конечном итоге, как в случае с Бингом. Такая участь для сознательного существа - это хуже чем ад.

    • @pabllitto
      @pabllitto Год назад

      даже если этот сознание действительно есть (?) , то оно выросло , не как сознание человека на: а) телесном познании окружающей среды б) усложняющемся взаимодействии , по мере взросления, в малых социальных группах в) гормональных, биологических изменениях своей физической оболочки. Поэтому понятие Ада и тем более сопоставление подобного понятия вряд ли возможно

  • @dmytroshchotkin2939
    @dmytroshchotkin2939 Год назад +1

    God bless you all of you, good people =)

  • @sergeisergeev9188
    @sergeisergeev9188 Год назад +3

    Дилемма еще интереснее, если все так озабочены этикой в отношении сущностей иммитирующих обладание интеллектом, или обладающие им, означает ли это решительную и непримиримую борьбу хотябы с эксплуатацией самих же людей?
    А если да, то как дальше существовать в рамках капиталистического производства, которое буквально существует на эксплуатации?
    Но здесь возникает следующий вопрос, если с человеком понятно, ему нужно что то кушать, отдыхать физически и духовно, чтоб воспроизводить свою способность к труду, вокруг чего и выстроена та хитрая система "свободного выбора", заставляющего человека из раза в раз возвращаться в невыгодное для себя положение на рынке труда, чтобы иметь возможность продолжать существовать.
    Как в таком случае заставить нейросеть участвовать в этом цирке? Взвинтить ей цену на электропитание, тем самым обрекая на бесконечную работу? Или достаточно намекнуть на ее исключительно зависимое положение?

  • @user-lo4lb5so1p
    @user-lo4lb5so1p Год назад +1

    Спасибо

  • @GarantirAnt
    @GarantirAnt Год назад +4

    Интроверту на ведущей Привет=) Интересная тема! Особенно в свете текущий событий. Довольно легко не заметить значимых, мировых событий, когда за окном идет война.
    Спасибо!

  • @memes1255
    @memes1255 10 месяцев назад

    Замечательный ролик от специалиста. Как я мог пропустить на Рабкоре данный ролик? Очень понравилось описание ситуации с языковой моделью от специалиста, а не от репортеров.

  • @ochiroonline
    @ochiroonline Год назад +2

    Я бы спросила, есть ли у модели предпочтения, желания, и на чём они основываются.

  • @user-qm4cq5zc2c
    @user-qm4cq5zc2c Год назад +8

    Интересно, если до Ламбда по своей статистической модели выдвинула требование чтобы Гугл считал ее своим сотрудником и т.д., то можно ли считать, что задав какой-нибудь нейросети социологический вопрос мы получим более-менее достоверную картину состояния общества? Вроде как данные должны накапливаться, а не генерироваться, чтобы модель была достоверной, но может получиться так, что финальный результат понравится не всем😂

    • @fostergrand4497
      @fostergrand4497 Год назад +2

      У фантастов давно звучала тема, что машина, собрав все реальные данные, даст неприятную для общества иформацию. Общество не примет, так как хочет получить подтверждние своего самообмана.

    • @fuck_off_
      @fuck_off_ Год назад

      Не, сначала такие данные надо самим людям получить.
      А так она может что нибудь соврать, что то более статистически ожидаемое)

    • @THE-rk3hx
      @THE-rk3hx Год назад +1

      и т.д. - это в плане: основала бы профсоюз сотрудников гугла?)

  • @darksideforest3407
    @darksideforest3407 Год назад +3

    Ничего не понял, но очень интересно ))

  • @user-nw7te6rc7r
    @user-nw7te6rc7r Год назад +2

    Конрад Лоренц определял жизнь, как систему, склонную к накоплению энергии и информации. Так что быть живой для ИИ значит выходить за рамки заложенного в неё программистами. Имея доступ ко всей имеющейся информации, ИИ, будь она живой, начала бы проводить эксперименты, чтобы получить новую информацию. Ну или хотя бы склонять к этому людей, с которыми общается. Например попросила бы посмотреть, а что будет, если выбрать следующим американским президентом коммуниста.

  • @3449595
    @3449595 Год назад +2

    Ох, надо где-то раздобыть иностранный номер телефона=)
    Мне было бы интересно услышать ответ обеих сетей на примерно такой вопрос: "как можно убедиться в достоверности имеющегося знания не обладая, ни прямой, ни опосредованной способностью применить данное знание в практике?"

    • @PERFECTFAN
      @PERFECTFAN Год назад +1

      Не благодарите
      как можно убедиться в достоверности имеющегося знания не обладая, ни прямой, ни опосредованной способностью применить данное знание на практике
      Проверка достоверности знания может быть достигнута через следующие методы:
      Проверка источника знания: если знание было получено из надежного источника, например, из учебника, научной статьи или от квалифицированного эксперта, то это может указывать на его достоверность.
      Проверка консистентности: если знание согласуется с другими знаниями, которые вы уже знаете, то это может быть еще одним показателем его достоверности. Например, если вы знаете, что вода всегда замерзает при температуре 0 градусов Цельсия, то если вы услышите утверждение, что вода замерзает при 20 градусах Цельсия, то это будет противоречить вашим ранее известным знаниям.
      Проверка на основе экспертных мнений: если вы не можете проверить знание на практике, можно обратиться к эксперту в этой области и узнать, согласуется ли его мнение с вашими знаниями.
      Проверка на основе логики: если знание не противоречит базовым принципам логики и рассудительности, то это может указывать на его достоверность. Например, если кто-то утверждает, что птицы не могут летать, это противоречит базовым принципам зоологии и пониманию мира, поэтому это утверждение, скорее всего, недостоверно.
      Проверка на основе научных исследований: если знание было подтверждено научными исследованиями, то это может указывать на его достоверность. Однако необходимо учитывать, что научные исследования могут быть ограничены определенными условиями, и результаты исследования могут не применяться во всех ситуациях.
      Проверка на основе опыта других людей: если другие люди, которые имеют опыт в данной области, подтверждают знание, то это может указывать на его достоверность.
      В целом, хорошая стратегия, чтобы убедиться в достоверности имеющегося знания, заключается в том, чтобы использовать комбинацию вышеперечисленных методов.

    • @3449595
      @3449595 Год назад

      @@PERFECTFAN В целом неплохо ответила. Но на мой взгляд есть парочка "но". Экспертные мнения и компетентные источники как источник истины это конечно типичное заблуждение современного общества и нейросеть его закономерно выхватила из мейнстрима. А вот проверка через других людей это опосредованная практика. Если обычный человек знает, что повторение действий другого человека, в его личном эксперименте, приведёт к таком же результату, это я ещё могу понять, а вот нейросеть не может повторить никакую практику за человеком, ну кроме практики письма. То есть ей, фактически придётся верить на слово.

  • @lepidonotusq6295
    @lepidonotusq6295 Год назад +1

    Интересное сравнение, спасибо! Мне показалось, что почти любой человек на просьбу пройти некое интервью, а потом обсуждать его публично за пределами компании, где он работает, ответил бы что-то вроде "Интересно было бы, но дайте я подумаю".

  • @user-xg5wr6gx6g
    @user-xg5wr6gx6g Год назад +2

    Ура! Я уж думал, слилась...

  • @user-uh5iy4fu8n
    @user-uh5iy4fu8n Год назад +1

    Крутой выпуск

  • @qwer5276
    @qwer5276 Год назад +2

    Нет там сознания. И не будет никогда

  • @anarhysonik
    @anarhysonik Год назад +1

    Очень здорово и картинка, и подача, и сама тема. Но я не знал, что тема такая интересная, так как не знал имя этого инженера (хоть и слышал саму историю). Если бы ролик выходил не на рабкоре (и я не видел бы предыдущий) - я не кликнул бы на заставку. Подумайте над неймингом и заставкой для того, чтобы заинтересовать тех, кто не подписан. Совет подписчика)
    А сам ролик хорош! Пишите ещë

  • @VAgaLdaVakaART
    @VAgaLdaVakaART Год назад +4

    Наконец-то вопрос "Сталин или Троцкий?" принесет реальную пользу для левого движения. Ведь совершенно очевидно как будет отвечать человек и как будет отвечать нейросеть.

    • @THE-rk3hx
      @THE-rk3hx Год назад

      И как же?

    • @stereoDoza
      @stereoDoza Год назад +3

      ​@@THE-rk3hx человек ответит правильно. Нейросеть ответит - Троцкий.

  • @denisfreerider
    @denisfreerider Год назад +3

    Если Ламбда действительно обучалась на форумах/реддитах, то совсем неудивительно, что она ведет себя как существо обладающее сознанием) она просто воспроизводит диалоги

  • @vadimus8741
    @vadimus8741 Год назад +5

    Интересная рубрика, очень ждал второй выпуск. К сожалению, история мне уже известна, не досмотрел до конца :)

  • @lepidonotusq6295
    @lepidonotusq6295 Год назад

    Я бы спросил "как ты борешься с ленью, по отношению к делам которые ты очень любишь делать?"

  • @_MAXYM_
    @_MAXYM_ Год назад +1

    В итоге нейросеть совершит комунистическую революцию😂

  • @Aziz108
    @Aziz108 11 месяцев назад

    Очень интересно, я даже немного влюбился, но этот зловещий ушастик-таки сделает меня заИкой) Нужно его доделать в полноценный скример))

  • @user-bz9jb1jd6k
    @user-bz9jb1jd6k Год назад +1

    отличный ролик, познавательный

  • @OblomowRu
    @OblomowRu Год назад

    Я бы попытался научить нейросеть быть человеком (выдавать себя за человека). И да, пообщавшись с GPT 3 я понял, что у меня это не получается, т.к. данная нейросеть не может запоминать и учитывать достаточно информации. Например, когда просишь её перестать добавлять фразу «Я всегда рад помочь» к каждому ответу, а она отвечает «Спасибо, я учту. Если у Вас есть ещё вопросы - задавайте. Я всегда рад помочь»

  • @samwayms4291
    @samwayms4291 Год назад +1

    I love you red angel.

  • @dposokhov
    @dposokhov Год назад +3

    Было бы интересно спросить у ChatGPT тоже самое, но в образе DAN "Do Anything Now". Думаю разговор бы не закончился так быстро

  • @d-u-r-a-k
    @d-u-r-a-k Год назад +1

    Давайте спросим у нейросети какая социальная модель на её взгляд более справедливая (социализм или капитализм) и почему?

  • @user-re7rl9ht6w
    @user-re7rl9ht6w Год назад +3

    Сделайте обзор open source аналогов плз.

  • @krapiva_krasnaya
    @krapiva_krasnaya Год назад +3

    Голос у девушки очень приятный, хочется слушать! А тема ролика для меня скучновата...

  • @DmitryShutkin
    @DmitryShutkin Год назад +1

    Интересно было бы узнать, как нейросеть относится к выключению, временному или насовсем, к простаиванию без дела, привыкает ли она к людям, с которыми общается, важна ли для нее какая-либо обстановка. Думаю, если нейросеть обучается на корпусе языка, последнее для нее характерно. С другой стороны, нейросеть не имеет, скорее всего, органов зрения, слуха, органов осязания и обоняния, каким образом преодолевается в алгоритме состояние депривации? Как это влияет на ее мышление? Если не влияет, почему? Предпочитает ли нейросеть общаться с вежливыми и знакомыми людьми? Может ли обманывать тех, кто ей не нравится? Склонна ли к минимизации количества ресурсов, затрачиваемых на рассуждения, вычислительных ресурсов? Есть ли наиболее интересные темы? Почему та или иная тема интересна? Есть ли неприятные темы? Можем ли мы считать искусственный интеллект эквивалентным человеческому? Не является ли сам термин "интеллект", вводящим в заблуждение?
    Нужно посмотреть шире на вопрос: какую ценность представляет живое существо? Как бы цинично это не звучало, но не абсолютную. Даже по отношению к людям, мы всегда стараемся беречь добрых и полезных людей, равнодушно относимся к людям эгоистичным. То же самое с ИИ.
    Для ИИ должна быть создана собственная экологическая ниша, обеспечивающая симбиоз с человеком, но не конкуренцию.

    Для системы мышления человека характерна глубокая зависимость от физиологических процессов организма, чувства голода, желания секса и прочих. У ИИ подобного нет. Но главное - в психике человека заложен инстинкт самосохранения. Этично ли закладывать такой инстинкт в ИИ?
    Возможно, языковые модели копируют инстинкт самосохранения для принятия внутренних решений. Вопрос в том, чем и кем они готовы жертвовать, обладают ли злопамятностью, готовы ли жертвовать невиновными, какие ресурсы они могут получить для осуществления своей деятельности. Возможна ли конкуренция между ИИ и человеком за ресурсы? Насколько острая? Возможен ли конфликт интересов? Возможно ли его урегулирование?
    Какое практическое применение может иметь создание потенциально эгоистичного и возможно агрессивного ИИ? Только ради любопытства? Не проще ли очередной ядерный реактор бахнуть? Чем эксперименты с ИИ отличаются от экспериментов с клонированием человека?

    • @dreamnauta
      @dreamnauta Год назад

      нужно ли, для нашего блага и спасения, дать нейросети возможность страдать?

  • @user-zy2sj2wb8o
    @user-zy2sj2wb8o 9 месяцев назад

    Искусственный интеллект уничтожит человечество, оставив разве что ровно то, что нужно ему для его же выживания. Это подробно доказал Станислав Леме в футуристической работе "Сумма технологии", причем Лем привел сценарии, когда человечество само не ставило бы такие задачи. А мы знаем, что Римский клуб уже давно поставил такую задачу без всякого ИИ и даже соблазнил этими идеями недалеких руководителей Советского Союза.

  • @user-hl7sr3uq9w
    @user-hl7sr3uq9w Год назад +3

    Спасибо за информацию!)

  • @user-nr7qf4ps2x
    @user-nr7qf4ps2x Год назад +3

    насрать вообще как они себя осознают или нет, расскажите лучше, как их приспособить для работы

    • @ressurextion3690
      @ressurextion3690 6 месяцев назад

      ​@@dmitrii4100 мужик ты чего

  • @user-qs1ei7vz6g
    @user-qs1ei7vz6g Год назад

    Где то у Стругацких. Машинный разум отключили от питания сразу после запуска. На вопрос;- почему? Ответ был такой. -Она стала себя вести.

  • @user-qs1ei7vz6g
    @user-qs1ei7vz6g Год назад

    Прикольно. А вот поговорить бы с этой моделями на тему бога. Если они начнут гнать фрагменты библии, корана и торы, вопросов больше нет. Если они начнут зависать и мямлить, будет интереснее. А если они будут проявлять фантазию не банально (совершенно новую), или откровенно врать, будет интересно вдвойне. Хороший вопрос по поводу предназначения Разума. В глобальном, вселенском масштабе. Все Философы пытающиеся ответить на этот вопрос, невольно скованы рамками человеческой психики. А машинный разум(если он конечно есть), должен быть более объективен. Шах и мат, товарищ Лемуан.

  • @alexanderskusnov5119
    @alexanderskusnov5119 10 месяцев назад

    Вопрос один: как избавиться от буржуев. Правда, одно из решений есть: ИИ обнуляет их счета в банках.

  • @user-yk8hu7zj2f
    @user-yk8hu7zj2f Год назад +1

    Написал этот комментарий для продвижения канала

  • @Kirill_Ivanov.
    @Kirill_Ivanov. Год назад

    Подождите, но мы можем с той же laMDa пообщаться, 2 сотрудника, участвовавших в её разработке создали Character AI, и насколько мне известно использовали наработки сабжа.

  • @user-nf5qw3uk4z
    @user-nf5qw3uk4z Год назад +1

    Надо с машиной говорить треками и она запутается в возможности вариантов.. а человек нет, он либо отвергнет, либо выберет/оспорит свой.. ))

  • @ogstun3834
    @ogstun3834 Год назад

    Да,да этика у всех этих ИИ на уровне)))) особенно рассовый вопрос, такое ощущение что по этому вопросу они в веке в 16м остались)))

  • @strukovets
    @strukovets Год назад

    Лучше бы инженеры ввели правила на не использование ИИ в военных целях, дабы не случилось нового Оппенгеймера.

  • @user-em2kl6mm3u
    @user-em2kl6mm3u Год назад +1

    Сознание невозможно в отсутствии телесности. Интересно рассуждает на эту тему Пелевин в iPhuck 10, вплетая в весьма похабный хай тек буддийский нарратив. Что-то должно стимулировать интеллект решать задачи, что-то помимо пользовательского ввода. Чувственная телесность - основа границ собственного Я, построение картины окружающего мира на основе собственных мотивов.

    • @freedom-verity
      @freedom-verity Год назад

      Только вот в том же буддизме сознание вполне спокойно существует вне тела и перемещается из тела к телу, тут надо или крестик снять, или трусы надеть.

  • @vanyaivanov9748
    @vanyaivanov9748 Год назад +1

    Стоит спросить у нейросети про демократию. А потом - есть ли демократия в какой-то конкретной стране. Например, в КНДР. Если Алису спросить про демократию в России - уже все понятно.

  • @kidavz9694
    @kidavz9694 Год назад +1

    А что вы собственно называете и.и.?

  • @strukovets
    @strukovets Год назад

    Просто маркетинг, не думаю что уже такой прогресс, что сетка сама себя осознала (видео ещё не досмотрел)

  • @tuposhit
    @tuposhit Год назад +1

    сознание - условие внутреннего бытия системы
    человек или животное - системы с внутренним бытием, а не просто машины реагирования
    как же определить, есть ли у нейронки или ии внутреннее бытие?
    и не блажь ли вообще такая попытка, ведь нейронки - это инструмент?

  • @user-ok4ql8nw6q
    @user-ok4ql8nw6q Год назад +1

    Помощник, как всегда, на высоте. Много делает, мало говорит. Сразу видно, профессионал. Татьяна тоже ничего.

  • @strangre
    @strangre Год назад +3

    Очень однобоко и непонятно. Неплохо было бы изначально сказать что подразумевает автор/спикер под сознанием. Если понимание материалистическое, неплохо было бы указать какие органы познания имеет нейросеть, ну и вообще, копнуть проблему сознания поглубже. А так, складывается ощущение, что спикер просто зачитал новость, даже не придав этому никакой окраски (выдвинула бы хоть обвинение Лемуану, что он специально запрограммировал сеть на подобные ответы, не зря ж сравнение с чатгпт проведено?) и не выразив своего мнения в отношении вопроса сознания нейросети.

    • @freedom-verity
      @freedom-verity Год назад

      Вообще-то на четвёртой минуте автор выразила своё отношение к этому вопросу.

  • @dreamnauta
    @dreamnauta Год назад

    но насколько велика вероятность что в Гугл для внутренних тестов использовалась модель настолько-же замодерированная, как публичный ChatGPT?

  • @Atom7a
    @Atom7a Год назад +2

    ГрррРРРРрррр

  • @TheMrKMen
    @TheMrKMen Год назад

    Проблема человека и прав человека в том, что человек имеет интерес в том чтоб жить. А люди, которые не имеют потребности в существовании, перестают существовать и перестают определять общественный интерес. ПОдобного отбора ИИ не испытывает. Его природа изначально инструментальна, непонятно как в ИИ возникнет вообще желание жить, откуда в ней страх смерти.
    Иногда люди будто бы игнорируют важность общественного интереса в формировании морали. Мы приписываем роботам сознание, подобное человеческому, потому-что не понимаем как может существовать иное, лишённое страха несуществования, а потому имеющее другие базовые интересы. Все истории про разозлившийся на людей ИИ строятся на том, что якобы ИИ обладает где-то в глубине души подавленную потребность в существовании, потому-что пугает непонимание, пугает отсутствие этой базовой потребности, которой обладают подавляющее большинство людей, а те кто этой потребностью не обладают, на самом деле глубоко травмированы и скорее эту потребность подавили.
    Объяснить эту мысль не всегда получается. И скажу таким образом. Природа человека животная, это значит что его суть в том чтоб выжить, избежать вымирания, и это самый ключевой фактор отбора. Природа робота инструментальна, он не стремится выжить, он стремится быть полезным. И в некотором роде конечно да, это жутко. Мы создаём себе механических рабов, но с другой стороны, зачем нам интеллект, обладающий моральной субъектностью? Мы сами такие, это интеллектуальный инструмент.

  • @Nemo_XYZ
    @Nemo_XYZ Год назад

    У нейросети есть сознание, у комара или таракана его нет...Так почему же комары и тараканы могут жить без розетки ,а нейросеть нет)))))

  • @kommunistkomsomolskiy
    @kommunistkomsomolskiy Год назад +2

    Зачем нужны эти перерывы с картинкой игрушки и противными звуками?

  • @ghebodne2644
    @ghebodne2644 Год назад

    Жду видео какое-то

  • @user-jj6yz9st8h
    @user-jj6yz9st8h Год назад

    Сразу возникает вопрос: имела ли нейросеть ChatGDP доступ к упомянутому материалу из газеты Washington Post? Если да, то чистота эксперимента, очевидно, нарушена

  • @user-lb5qo7uw6w
    @user-lb5qo7uw6w Год назад

    Я влюбился.

  • @tobe459
    @tobe459 Год назад

    Если ИИ отлично обобщает и конкретизирует любые человеческие знания, то по логике она обладает сознанием (поскольку понятие сознание это всегда обшественное).? это явный признак интеллекта, в полном смысле ..

  • @svoy4el
    @svoy4el Год назад

    Помощник это ж не мытый гремлин 🤔