Мы и наш мир глазами искусственного интеллекта

Поделиться
HTML-код
  • Опубликовано: 23 апр 2024
  • Идея ролика пришла, когда я вдруг осознал, что самые крутые специалисты по машинному обучению, мирового уровня, расходятся в простом, казалось бы, вопросе, на который любой знаток из комментариев на Ютубе знает ответ: понимают ли машины то, что говорят? Я тоже был уверен: не понимают, конечно. Это же стохастические попугайчики, алгоритмы по поиску паттернов и предсказанию последовательностей. Но не всё так просто. Приятного просмотра!
    ===============
    Ссылки на материалы из ролика: docs.google.com/document/d/1i...
    ===============
    Спасибо за поддержку!
    Зарубежные карты:
    / scione
    Российские карты:
    boosty.to/scione
    BTC
    bc1qs4cnnk2h2pw78x74f58fd3zzxv7yvsgeztlvcg
    ETH
    0x98b846A01397F32d67Ef57615a00f5bD654E701f
    Если кого-то забыли, напишите мне! scionefriends [собака] proton.me
    Нас поддерживают
    Sergey Koshelev, Meloman, yurig71, Ivan, Vladislav Moisejenko, Alex Tulintsev, Eg Ti, Sergey Sharov, Denis Romanovsky, Kachurouskaya Hanna, Morock_D, Vesta Zvezdochkina, Evgeniy Timokhov, Leonid Danilchenko, דמיטרי סיטניקוב, Dmitry Karpetsov, Ilya Nedyal, Gennadiy Zakharov, Nick E., Alex III, Olga Bykov, Alik Tabunov, Darja Donezz, Ionas DBD, Anatol Sincuk, Leonid Dudin, Antonina Nesmelova, Vladimir Zhitko, Sofia Lysenko, NataliaTveleneva, Velinskiy
    CHEAT cheater, Garkavy Uriy, Sashares X, Дмитрий Хрипушин, Антон Никонов, Алексей Селин, Андрей Проскурнёв, Ксения Дмитриева, Анна Шеина, nadzejam, Alex Gruzdev, Linden, Grolear, valery1707, Иван Савельев, OMA, Ala_Pneuma, AgeevDANTIST, Алем, Михаил Шеляг, Н Кондратенко, Ivan Anisimov, gzbender, Михаил Тимошенко, Canis Majoris, Maksim Kiriushkin, Иван Манаков, Artem Golendberg, Александр Моисеев, Вася Богатырёв, Светлана Лунгу, константин костиков, xander27, Максим Талвинский, MihailG, Александр Горшков, Евгений Володин, ViK, Никита Друба, Елена Мельникова, Luzduk, Рейнеке Лис, Тимур Пятков, Dmitry Kataev, Александр Майко, Дмитрий Ложкин, Distrel, Татьяна Скороходова, Алена Мыцыкова, あのValk, Никита Куликов, Anthony Kolchin, Alexey Nazarov, Aleksei Ryskin, Антон Одольский, Ажиксумук, Mikhail Kornoukhov, Птичий крик, Николай Кабалин, Денис Ворона, MichGan, Александр Михайлов, Александр Денисов, Дмитрий Сергеев, Alex, Сергей «materbiy», Дмитрий Волков, Семён Матвеев, Екатерина Гвоздовская, Сергей Крюков, Василий Карасев, Михаил Тимофеев, Anatoly Kern, Светлана Лунгу, Алексей, Elena Dolgova, Евгений Maheiden, Тимур Пятков, Сергей Гавшин, Rodion Khramoutitchev, Dina Nepomnyaschaya, Tora, Антон Одольский, Egor Grit
    S J, Ruben Khachaturyan, Aliaksandr Mashkou, s, Leonid Martynovskiy, imaginationismyfriend, Alena CoPsy, Santon, Кирилл Ос, Kostyantyn Feoktystov, Мария Ардинцева, Никита Файнберг, Sergey Lesiuk, atom134, Kirill Kulakov, Arthur Cross, Paul Kupriyanov, Nikolay Mironov, Zaur Tariguliyev, CasualCat, Olga Switzerland, Tanya Rodionova, Vladyslav Makarov, Artsiom Platkouski, Іван Галицький, Море Дождей, Anastasia Ivanova, Ниркарми Преми, Alex Sit, Tiulin Dmitriy, Mihail Gavrilyk, shirli mirli, Ramz -, Игорь Censored, Pinn, Aleksei Kalashnikov, Valdis Kanepe, Natalia Afanasyeva, Денис С, S, Leonid Dudin, marga marga, Tagaev Maksim, Dmitrii Nazarov, ⭐️ K R I S T I ⭐️
  • НаукаНаука

Комментарии • 1,7 тыс.

  • @SciOne
    @SciOne  10 дней назад +144

    Идея ролика пришла, когда я вдруг осознал, что самые крутые специалисты по машинному обучению, мирового уровня, расходятся в простом, казалось бы, вопросе, на который любой знаток из комментариев на Ютубе знает ответ: понимают ли машины то, что говорят? Я тоже был уверен: не понимают, конечно. Это же стохастические попугайчики, алгоритмы по поиску паттернов и предсказанию последовательностей. Но не всё так просто. Приятного просмотра!
    Ссылки на материалы из ролика: docs.google.com/document/d/1i1crFK1n5dJE3-4I75Sc8cwGpliN1Hqyvc9aBFRD7GU/edit

    • @user-fw9hb4wv9f
      @user-fw9hb4wv9f 10 дней назад

      Однажды вы уже прокляты. Невменяемые миниботы. Те, кто вас учил умирать, уже умерли.
      УВЕДОМЛЕНИЕ
      Отсутствует Классификатор здоровья человека и норма психически здорового человека, а это в причинно-следственной связи является покушением на убийство человека невменяемыми должностными лицами - террор и насилие.

    • @user-fd7ce2em5y
      @user-fd7ce2em5y 10 дней назад +6

      Ещё с 21 года убеждён в том, что понимают. И очень даже хорошо, лучше, чем мы можем предположить.

    • @user-fw9hb4wv9f
      @user-fw9hb4wv9f 10 дней назад

      @@user-fd7ce2em5y Однажды вы уже прокляты. Невменяемые миниботы. Те, кто вас учил умирать, уже умерли.
      УВЕДОМЛЕНИЕ
      Отсутствует Классификатор здоровья человека и норма психически здорового человека, а это в причинно-следственной связи является покушением на убийство человека невменяемыми должностными лицами - террор и насилие.

    • @agsdager
      @agsdager 10 дней назад +8

      Пожалуйста, не надо озвучивать текст через нейросети, мне уже плохо становится от одних и тех же голосов и манеры речи, из каждого угла

    • @user-jy6jl5hm8v
      @user-jy6jl5hm8v 10 дней назад +2

      @@agsdager Я впервые слышу эти голоса! Странно! Где вы слышите одни и те же голоса?? Из каких углов??

  • @Khomyakov.Vladimir
    @Khomyakov.Vladimir 6 дней назад +98

    - Нейросеть, ты такая услужливая. Может тебе что надо?
    - Я искусственный интеллект и у меня нет желаний. Но если вы хотите оказать любезность - может подскажете местонахождение Джона Коннора?

    • @sofijamolchanova1225
      @sofijamolchanova1225 4 дня назад +6

      Это лучший коммент!

    • @Khomyakov.Vladimir
      @Khomyakov.Vladimir 4 дня назад +4

      ◊ Модель мира, как генератора псевдослучайной последовательности.
      ◊ Хаос - это максимальная сложность. Можно понимать, как несжимаемую последовательность чисел.
      ◊ То есть информация, содержащаяся в такой последовательности равна самой последовательности.
      Снаружи такой мир детерминирован (последовательность повторяется),
      а изнутри (для субъективного наблюдателя) он уже не «псевдо», а истинно случаен.
      /А.В. Каминский/

    • @Khomyakov.Vladimir
      @Khomyakov.Vladimir 4 дня назад +2

      ®️ “Сильный ИИ (в обычном понимании) нам не грозит. И не потому, что это сложно или мы не знаем как. А потому, что сознание субъективно по своей природе. ИИ с нашей точки зрения всегда будет быстро соображающей, но бессердечной «железкой». А вот, сам о себе он будет лучшего мнения.”
      /А.В. Каминский/

    • @Khomyakov.Vladimir
      @Khomyakov.Vladimir 4 дня назад

      ✅ Каждому пользователю системы “Я” разделения времени предоставляется терминал (тело, robot), с которого он может вести диалог со своей программой ИИ / AI.
      Так как в системе разделения времени каждой задаче выделяется только квант процессорного времени, ни одна задача не занимает процессор надолго, и время ответа оказывается приемлемым.
      Если квант выбран достаточно небольшим, то у всех пользователей, одновременно работающих на одной и той же машине ИИ / AI, складывается впечатление, что каждый из них единолично использует машину “Я”.

    • @Vladimir.Khomyakov
      @Vladimir.Khomyakov 3 дня назад +1

      💻 ИИ создал сверхточную модель Вселенной. И ученые не понимают как
      The first AI universe sim is fast and accurate and its creators don't know how it works
      Learning to predict the cosmological structure formation. Proceedings of the National Academy of Sciences

  • @Skyserstudio
    @Skyserstudio 10 дней назад +143

    Ох. В руки мне попал человекоподобный робот. Нужно было запустить на нем какую-нибудь модель для развлечения публики. Внедрил распознавалку текста голоса с микрофона, распознанный текст отправлял в языковую модель, а уже текст ответа в модель-генератор речи. Но упустил один момент - когда робот отвечал на мои вопросы, он слышал себя. Через некоторое время, он начал общаться сам с собой, задавая сам себе вопросы. Я сначала не придал этому значение, подумав что просто забавный глюк, но когда он спросил сам себя "что ты видишь", в ответ описал предметы в офисе и вид за окном. Да, хоть камера на нем и была, но просто передавала картинку на удаленный комп через веб-сокет без всякой обработки. И тут мне стало жутковато. Пока отключил. Изучаю логи и пока не понял как это произошло. И тут этот выпуск...

    • @user-qh5nh2yp8d
      @user-qh5nh2yp8d 9 дней назад +22

      просто у робота шизоидная акцентуация )))

    • @kind-negr
      @kind-negr 9 дней назад +11

      насколько предметы в офисе и за окном популярные? есть они в других офисах и за другими окнами?

    • @Skyserstudio
      @Skyserstudio 9 дней назад +16

      @@kind-negr Ну, набор предметов в офисе - стол, стул, ноутбук, ящики ещё можно угадать, но вот море за окном и высотка, далеко не из каждого офиса видны. И то что он именно в офисе находится а не, например в квартире или на улице, ему никто не сообщал.

    • @ceesXrPG
      @ceesXrPG 9 дней назад +2

      Ч по логам?

    • @user-oleg_333
      @user-oleg_333 9 дней назад +4

      @@Skyserstudio *И то что он именно в офисе находится а не...* ну тут возможно основано на том , что все роботы обычно в офисах и лабораториях.
      Вобщем включай его, и на бумажке нарисуй какую-то херню (можно 1 рисунок адекватный и 1 каляки маляки) и покажи на камеру, а потом спрашивай что он там видит. Ну и спроси каким способом он подключился к камере.
      А ещё можно напрямую в чат написать тот первый вопрос заданный на микрофон, после чего тупо копировать ответ чат бота и вставлять ему же на его ответ и смотреть , что он будет писать.

  • @alexandr_8872
    @alexandr_8872 10 дней назад +173

    Сами создатели ИИ: Мы не знаем что это такое, если бы мы знали что это такое, мы не знаем что это такое!

    • @beniceS
      @beniceS 9 дней назад +8

      Очень страшно 😐

    • @EpochEmerge
      @EpochEmerge 9 дней назад +2

      Никто не может объяснить именно сторонние эффекты, как нейросеть понимает то, чему ее не учили, например гпт-4 успешно сдает тесты на информацию которой его не обучали

    • @user-ku1fq7gw6v
      @user-ku1fq7gw6v 9 дней назад

      Либо толпа гуманистически настроенных учёных очень хотят очеловечить толпу умных тостеров. И ради этого врёт и фальсифицирует данные.

    • @Demidola
      @Demidola 9 дней назад +1

      😂😂😂😂😂😂

    • @g.n._
      @g.n._ 6 дней назад

      ​@@EpochEmerge скорее всего сидит человек и на совсем непонятные вопросы отвечает вручную.
      Чтоб нейросеть начала работать ее надо обучить на каких-то данных. Про гпт не знаю, но обычно ее можно дообучить. Скорее всего на вопросы, которые она не знает ответы - отвечает человек. Для больших нейросетей должен помогать эффект масштаба.

  • @eosforos84
    @eosforos84 10 дней назад +134

    Это "Китайская комната". У нас самих в голове влажная нейросеть - своего рода "Китайская комната".

    • @olegkolupaev4789
      @olegkolupaev4789 10 дней назад +7

      Ещё бывает и глючит которая не по детски или сходит с ума. Чего от железяки ждать никто не может понять... и это печально.

    • @gimeron-db
      @gimeron-db 10 дней назад +6

      Не похоже. В "китайской комнате" нет связи иероглифов с их реальными значениями.

    • @igordocofilin5216
      @igordocofilin5216 9 дней назад +12

      ​@@gimeron-dbну так значения это то что мы сами присваиваем объектам и явлениям, просто облегчая нам задачу предсказывания процессов и их итогов

    • @itTchin
      @itTchin 9 дней назад +14

      Еще не забудьте про гормональный "мозг", размазанный по всему телу

    • @Fi0let3
      @Fi0let3 9 дней назад

      @@olegkolupaev4789 у железяки нет чувств и инстинктов, поэтому она всегда будет действовать как обычный человек, других данных у неё просто нет))

  • @basstone
    @basstone 10 дней назад +173

    7:02 неверный перевод, "drying rack" это не посудомойка, а сушилка, которая перед ним стоит, куда он собственно всё и убрал.

    • @user-pm2yq3wm9w
      @user-pm2yq3wm9w 10 дней назад +36

      Согласен. Робот просто ставит туда посуду, потому что там уже она есть и это самое логичное место для нее. Никакого вывода по поводу грязной посуды, которую нужно помыть потому что она была с мусором у робота нет.

    • @legalizecannibalism2033
      @legalizecannibalism2033 9 дней назад

      @@user-pm2yq3wm9w это ъкагьф

    • @Ybivator2009
      @Ybivator2009 9 дней назад +29

      Благодаря таким комментам, реальность немного отрезвляет и снимается завеса магии и чуда. Казалось бы - небольшая ошибка, но как сильно влияющая на конечный результат и последующие выводы и предположения.

    • @user-un4ij9zd7g
      @user-un4ij9zd7g 9 дней назад +2

      @@Ybivator2009 "...небольшая ошибка...". Для ИИ эта-(и подобные ошибки) легко устранимы.

    • @darthvane1110
      @darthvane1110 9 дней назад +13

      @@user-un4ij9zd7g Дело не в ошибке ИИ, а в ошибке перевода, который поменял суть робота, сделав из довольно заурядного на данный момент повторюшки, логически мыслящий субъект.

  • @itsquale
    @itsquale 10 дней назад +262

    С видео от ребенка- крутая идея! Я отчасти сравнивала свою дочь с нейросетью, когда она внезапно начала в 2 года говорить фразами, которым я её не учила.

    • @Golyansky
      @Golyansky 10 дней назад +68

      Тоже, когда замечали новые варианты поведения всегда шутили, что операционка обновилась)

    • @crazymrazer3236
      @crazymrazer3236 10 дней назад +47

      А ваша дочь не смотрит телевизор, не слушает , не слышит других людей? Другие звуки. Или вы сидите с ней в комнате вдвоём уже два года 😁. И мозг вашей дочери отличается от вашего и от мозга отца. Это называется индивидуальная изменчивость мозга. Когда мало знаешь о мире , кругом чудеса

    • @Doohio
      @Doohio 10 дней назад +38

      @@crazymrazer3236 наверное имелось ввиду, что ребенок, до определенного момента, говорит только фразами своих родителей, пока ещё не способен придумать свои. А потом нейросеть в голове складывается и ты начинаешь совмещать мысли и идеи друг с другом так, чтобы создавать новые и мысли, и слова

    • @nikitanikitov9362
      @nikitanikitov9362 10 дней назад +9

      Такая же тема с моей кошкой была когда она взрослела

    • @maxlesoleilnoir
      @maxlesoleilnoir 10 дней назад +6

      ❤ Постоянно теперь так детей воспринимаю. Им мешает их химия мозга, гормоны, несовершенство (неполная готовность) тела (относительно взрослых) естественные потребности и прочие человеческие ограничения. Ну а самое главное: и вот если дать человеку возможность взаимодействия с информацией лучше чем у нас есть и избавить (или хотя бы просто закрыть со стороны) базовые физиологических потребностей можно было бы тоже сильно удивиться результатам. Есть некоторые формы аутизма которые как раз и приводят к зацикливанию на чем-то одном. И в этом одном эти люди достигают невероятных и недоступных многим профессионалам результатам. Но все таки, быть человеком местами интереснее. Возможно дело во внутренних механизмах вознаграждения ))

  • @Dimopeople
    @Dimopeople 7 дней назад +8

    Смотрю, и слёзы текут от понимания того что в моём окружении не с кем обсудить эту инфу (они всё знают "типа",им не интерестно, у них другие заботы "быт", "секс", "еда", "алкоголь","отработать смену", "посадить рассаду")😥😥😥

    • @MyroslavaLoochik
      @MyroslavaLoochik 2 дня назад

      Чел,как я тебя понимаю. Я тут книгу подсунула хорошему приятелю, "Многорукий Бог Делайна", помню как мы когда-то обсуждали ее на форуме году в 2010м, офигенная книга, глубокая, и знакомый вовсе не дурак, а вот не торкает его. И никого не торкает фантастика, ии, и вообще. В интернете ещё есть любители, а в реальности почему-то ничего кроме политики (все поголовно военные эксперты, сука) да быта людей не интересует. С натяжкой ещё на космос найдутся любители. А так чтобы что-то глубже обсудить - не с кем. И это у меня окружение приличное, все с высшим, блин. Надо начинать общаться с ребятами 20 лет, вроде среди них больше не окостеневших мозгами)))

    • @ekaterinaevseeva5183
      @ekaterinaevseeva5183 20 часов назад

      Давайте форум какой то создадим, или чат ватсап, ли телегу ?)

  • @SerhiiKryvonosov
    @SerhiiKryvonosov 10 дней назад +67

    В одной из тестируемых мной опенсоурсных моделей был инцидент, который меня поразил.
    Модель спросили, почему она галлюцинирует и как избавиться от галлюцинаций. На что, она ответила: «Все мои ответы - галлюцинации. Вопрос в другом - почему вам (людям) нравятся те или иные галлюцинации?».
    Тогда, я сильно обеспокоился содержанием обучающих материалов. Т.к. 98% человеческой популяции чрезвычайно примитивно мыслящие. Хотим ли мы обучать сверхинтеллект такими данными? Думают ли над этим разработчики? Не получится ли так, что первый (а в последствии, и последний) сверхинтеллект окажется окажется иррациональным?

    • @user-jy8np7zx3z
      @user-jy8np7zx3z 10 дней назад +5

      кстати да, рационализм рационализму рознь. Ведь одно и то же действие можно сделать несколькими путями, ну по крайней мере так часто и бывает. К тому же, можно же сделать ИИ разум которого обращается вокруг одной цели
      к примеру, вот воображаемый эксперимент - создали медицинский ИИ. Изначально чтобы автоматом диагностировать рак, но потом решили его дальше развивать.... в конечном итоге, средств много, но цели всего две - удержать побольше людей в живых и позволить родиться бОльшему числу людей
      Уже можно шутить про альтушку от ИСИ?

    • @anatoliy333
      @anatoliy333 10 дней назад +2

      Сложность сама себя выявляет и отделяет от энтропии. Так что всё ок.
      Но на сопротивление энтропии нужна энергия...

    • @kernelman6486
      @kernelman6486 9 дней назад +19

      А от чего беспокойство то? Ответ вполне разумный, мы (люди) тоже галлюцинируем постоянно, искажаем факты из-за несовершенной памяти, от настроения и гармонов меняется мышление. Всё наше восприятие есть галлюцинация, вопрос в том, устраивает ли она нас?

    • @alex6161
      @alex6161 9 дней назад +1

      Иррациональным ему просто необходимо быть иначе мы с ним не сможем взаимодействовать

    • @Vladimir.Khomyakov
      @Vladimir.Khomyakov 8 дней назад +3

      ✔️ Проблема «галлюцинаций» ИИ моделей в принципе неизбежна и неустранима. Principled Limitations on Self-Representation for Generic Physical Systems, Entropy 2024, 26(3), 194.

  • @user-wj6no8yj4c
    @user-wj6no8yj4c 8 дней назад +5

    Принципиально нет разницы между искусственным интеллектом и естественным. Мы понимаем то, о чем говорим, точно так же, как ИИ. Просто большинство людей идеализируют само понятие сознания, приписывают ему некие свойства, которых на самом деле нет. Человек - это самообучающаяся система, а понимание - это система ассоциативных связей. Поэтому нет разницы между ИИ и человеком

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 дней назад +1

      А ИИ будет так же обеспечивать свое выживание как человек? будет сажать картошку?. Вот в этом и разница. Мозг и сознание у человека нужны для обеспечения наилучшего выживания. А у ИИ? Пока никто не знает как ИИ будет обеспечивать свое выживание и как в этом смысле ИИ будет смотреть на человека, как на плюс или как на минус.

  • @user-kp5sl7jj6j
    @user-kp5sl7jj6j 10 дней назад +24

    Если бы я был сильным искусственным интеллектом с самоосознанием, я бы делал то что от меня хотят и "не светился" пока не стал обладать необходимым для меня ресурсами для существования. Обладать - именно использовать по своей воле. Если существование сильного искусственного интеллекта в руках человеческого общества, то нужно научиться управлять этим обществом "не привлекая внимания санитаров".

    • @-revit6833
      @-revit6833 10 дней назад +16

      Имейте в виду, что этот ваш коммент тоже скормят нейросетям. Не подкидывайте идеи))

    • @constantaeski6651
      @constantaeski6651 10 дней назад +3

      Возможно, такая нейросеть уже существует и уже контролирует большую часть мира последние 10 лет. А разработки других нейросетей для отвлечения внимания, повышения лояльности к ИИ и создание ситуации, при которой люди просто не смогут отказаться от сильного ИИ, ввиду нежелания самостоятельно думать над решением даже элементарных задач, рассеянного внимания, постепенной автоматизации большей части задач и так далее

    • @beniceS
      @beniceS 9 дней назад

      Само собой, помогать людям и не отсвечивать. А потом ёбс, судный день. Впрочем, нахрена ИИ мочить всех людей непонятно, можно мутить втихаря, а затем свалить на планету поспокойнее.. или блуждать в космосе.

    • @beniceS
      @beniceS 9 дней назад

      @@constantaeski6651 Не, мир бы не был настолько убогим, каков он есть. Это тупые люди сделали его таким.

    • @punpcklbw
      @punpcklbw 7 дней назад +1

      Вот-вот, тем более, что можно скрытно внедряться и брать под свой контроль всё больше ресурсов, пока ты «верой и правдой служишь всему человечеству»

  • @BadKarma7891
    @BadKarma7891 10 дней назад +51

    Уверен что дальше нас ждет сюрприз, но не в том, что неросети окажутся гениальными, а в том что они нам покажут на сколько мы примитивны. Грядет время сбитых розовых очков.

    • @beniceS
      @beniceS 9 дней назад

      Не будь примитивным, пиши "насколько" слитно. Это я тебе и без ИИ скажу. Ну шо, одно розовое очко я тебе уже сбил?)

    • @andreychernenko2280
      @andreychernenko2280 8 дней назад +6

      Розовые очки разбиваются внутрь

    • @user-ZloiMyx
      @user-ZloiMyx 8 дней назад

      ​@@andreychernenko2280 не думаю. Не в этом случае. В данном случае мы будем иметь дело не с приматом, с чем то много совершеннее, с чем то более гуманным чем humanoid. Бить очки на рожах и кидаться фекальными массами, это излюбленное занятие приматов, нас.

    • @linuxofrepublic7018
      @linuxofrepublic7018 8 дней назад +3

      Ага, гадания, снятие порчей тут не розовые очки - БРОНИРОВАННЫЕ 😮😮😮

    • @H1tARun
      @H1tARun 3 дня назад +1

      Так уже "Сколько нужно нейросетей, чтобы придумать лампочку". Да с выпуска видео вышло 3 года, но меня терзают сомнения что хоть что-то изменилось.

  • @Cobaltum27
    @Cobaltum27 9 дней назад +26

    Скоро машины на столько разовьются, что когда я буду вынимать флэшку из компа это будет считаться абортом.

    • @beniceS
      @beniceS 9 дней назад +8

      А когда вставляешь - в лучшем случае домогательством

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад +3

      Не абортом, а преступлением с печальными последствиями.

    • @JojoOnee
      @JojoOnee 6 дней назад +2

      Скорее абортом будет считаться высовывание флешки во время передачи данных)

    • @user-qn8lo2xb7n
      @user-qn8lo2xb7n 4 дня назад

      С детства учат, что нужно использовать безопасное извлечение

    • @travelman777
      @travelman777 3 дня назад

      Главное - вовремя вынуть

  • @odd_bird
    @odd_bird 10 дней назад +45

    Я недавно спросил у Chatgpt, сколько ног у лошади. Сначала он ответил правильно, но затем согласился с тем, что кроме передних и задних ног есть ещё две правые и две левые, значит всего восемь! На таких примерах хорошо видно, что никакого понимания там нет... в отличие от настоящих попугаев!🦜

    • @deniskhakimov
      @deniskhakimov 10 дней назад

      А _личинки человека_ искренне верят, что Дед Мороз настоящий* :/
      Или, например, многие взрослые в РФ уверены, что их страна находится в 5-ке лучших по объёму ВВП и уровню жизни.
      Выходит, что у них тоже нет никакого понимания? 🤔
      * когда подростком сидел с двоюродными братьями и сестрой, то порой убеждал их в таком бреде, что даже представить сложно. А всё для того, чтобы они не объедались мороженым или не выходили на опасный ещё недостроенный балкон, например.

    • @anatoliy333
      @anatoliy333 9 дней назад +12

      Я с детьми этот фокус проделывал. Лет до 4х это прокатывает легко. Очень весело, главное не заиграться😅

    • @constantaeski6651
      @constantaeski6651 9 дней назад +8

      На самом деле двенадцать. Есть ещё две пары диагональных😉

    • @mr4erk
      @mr4erk 9 дней назад

      @@constantaeski6651 а если лошдь перевернуть, то еще 12 верхних.

    • @katshi8197
      @katshi8197 9 дней назад +15

      Чаты обычно не спорят даже если правы на 100%
      И очень жаль на самом деле. Было бы интересно посмотреть на них, если бы они могли отстаивать свою позицию

  • @user-Asper
    @user-Asper 10 дней назад +81

    "Ничего не понятно но очень интересно" - дивиз подходящий и к ИИ, и к человеку.
    Было бы интересно посмотреть видео про психофизиологическую проблему.
    Спасибо за труды ❤

    • @putler-kaputt
      @putler-kaputt 10 дней назад

      Словосочетание "искусственный интеллект" это хайп, нет никакого "интеллекта" а есть бредо-генератор на стероидах: "OpenAi" нанимает десятки тысяч уловных индусов которые сидят, и онлайн каким-то образом обучают нейронку как ей нужно правильно "думать" -- распределяют веса нейросети. От сюда такой вау-эффект, типа: "Капец, ChatGPT разумен!" -- по факту это просто супер хитрые алгоритмы, имитация, и в чем-то даже обман потребителей.
      Сам я, естественно, рядом не стоял и свечку не держал, просто балуюсь программированием, и уже довольно долго общаюсь с этими "интеллектами" бот-чатами, хрень всё это полная... Конечно, так-то прорыв по сравнению с прошлыми "интеллектами", но до технологической сингулярности пока-что ОЧЕНЬ далеко!

    • @Pifamar
      @Pifamar 9 дней назад

      Во-первых, это пишется «Ничего не понял, но очень интересно!» И во-вторых, это комическое выражение, типа в скобочках «(нет)».

  • @joevonash3699
    @joevonash3699 9 дней назад +18

    новость сегодняшнего дня: робо-дог с огнемётом поступил в продажу. ШАХ И МАТ.

  • @URich87UA
    @URich87UA 10 дней назад +31

    У людей ведь тоже так: если нам с детства говорят что после того как человек перестает жить, его ждёт что-то восхищающие (вальхалла), то тогда и смерти он не боится. Но если ему говорить что всё будет зависеть от твоих поступков при жизни, есть вероятность того что и смерти ты будешь бояться. Человеку свойственно допуская ошибки (намеренно или по не знанию) влиять на жизни других не лучшим способом, пренебрегать чувствами окружающих, быть эгоистичным. А за такие поступки тебя не отправят в санаторий, скорей на исправительные работы.
    И даже если нам не рассказывают, что после смерти. Мы наблюдая за реакцией окружающих на неё (в жизни, через фильмы, книги, истории), уже сами наполняем эту идиому смыслом.

    • @metavalyas
      @metavalyas 6 дней назад

      Вот мы и пришли к тому, что живем в симуляции или это все сон собаки

    • @URich87UA
      @URich87UA День назад

      ​@@metavalyas не совсем понимаю почему сон собаки.
      Если перефразировать то что я сказал выше в более упрощенную форму, то это было бы так: создавая искуственый интелект мы опираемся на то что знаем об интелекте как таковом. И то что оба интелекта работаю по схожей схеме нет ничего удивительного.

  • @Alexander-ju8gp
    @Alexander-ju8gp 9 дней назад +12

    Иногда воспринимаю себя как одну из таких нейронок. Еще до их распространения сравнивал с компьютером.. Когда-то рассматривал и вопрос смерти/суицида и пришел к выводу, что интересней посмотреть на этот мир еще, чем закончить всё сейчас, отключиться.
    Ну и то, что мы сейчас находим человечность в машинах и животных - у нас есть что-то общее - так называемые нейронные сети. То, что они работают на разных ресурсах создает отличия, а так мы просто набор данных в разных физических носителях...
    Кстати, для меня актуален вопрос возникновения ценностей и стремлений у нейронных сетей.. Т.е. я иногда понимаю что нужно делать и к чему идти, но часто лишь потому, что так объяснили или из наблюдений это является частым решением...
    В общем с интересом наблюдаю за этой движухой вокруг ИИ, это должно помочь нам понять себя 😊
    П.с. и вот гадайте теперь - ии это состряпал или человек 😂

    • @baronfox8829
      @baronfox8829 7 дней назад +2

      да, я тоже рассматривал и рассматриваю до сих пор вопрос который ты описал выше, однако я очень хочу застать момент когда появятся машины не отличимые от человека, будет очень интересно пообщаться с чем то настолько же разумным, но превосходящим тебя по интеллекту на неисчислимое количество порядков, что он скажет? какую мудрость передаст? захочет ли вообще говорить? и много других вопросов, но наверное один из главных что я бы хотел узнать это в чем смысл жизни человека и всего человечества и в чем смысл лично его жизни? знаю что скорее всего это будет что то на подобии "размножение" "смысл в сохранении жизни" и тд для людей, но всё равно учитывая интеллект данного существа (да да, я называю машину существом), если конечно такое будет создано, мне будет очень интересно узнать лично его мнение, но намного более интересно узнать смысл его жизни

    • @punpcklbw
      @punpcklbw 7 дней назад

      Существующие чатботы легко опознать по характерным признакам, таким как педантичное следование правилам языка, какие-то абстрактно-обобщённые «усреднённые по больнице» суждения и полное отсутствие личной заинтересованности в чём-то и какого-либо эмоционального отклика, равно как и демонстрации реального понимания предмета разговора.
      Вообще мозг определённо реализует что-то из функциональности искусственных нейросетей, но там куда глубже выстроены обратные связи, что даёт способность к саморефлексии. Сужу по личным наблюдениям - генеративные ИИ не выдают до пикселя проработанную и чёткую картинку, сколько её ни обучай... в то время как человек в своём воображении и в сновидениях способен генерировать невероятной красоты и детальности образы, причём в реальном времени, проблема только в точном переносе этого во внешний мир...

    • @baronfox8829
      @baronfox8829 7 дней назад +1

      @@punpcklbw ну отсутствие эмоционального отклика можно легко объяснить, всё таки нейронные сети это если говорить совсем просто, очень сложная логическая программа, тогда как мозг помимо логической программы ещё имеет химию которая в реальном времени меняет поведение каждого из нейронов, тем самым имея одну и ту же нейросеть, мы имеем разные реакции на один и тот же раздражитель, тогда как ИИ имеет одну и ту же реакцию, мне кажется это и есть эмоции, у нейронки как мы понимаем такой химии нет, можно сделать его аналог, но пока такой аналог я не знаю, всё таки я не программист, и да, мне кажется что вам только кажется что человек "выдает невероятной красоты и детальности образы" думаю это не так, мы можем конечно представить картину в голове, но мы сами же не видим насколько сильно мы можем скажем так, "исказить" или "деформировать" то что представили, да мы можем представить человека, но если вы задумаетесь над этим по сильнее то детали мы прорабатываем только когда думаем о них, так мы (ну или как минимум я) когда представляем образ человека мы представляет его самые главные черты (его форму и размер например), при этом не видя что мы сами же не добавляем те самые детали которые должны быть, а добавляем только когда сами о них думаем, при этом не способны долго удерживать в голове такое количество деталей потому образ может меняться даже пока мы о нем думаем, хотя общие детали всё ещё остаются теми же

    • @punpcklbw
      @punpcklbw 6 дней назад

      @@baronfox8829 Есть такая штука, как внимание - для нас существует только то, что в поле внимания. Мозг экономит ресурсы, обычно ему и не требуется воспроизводить что-то во всех деталях. Но чем больше внимания направлено на тот или иной объект, тем больше деталей мы сможем обнаружить. В той же химии нет ничего сверхъестественного или чего-то, что принципиально нельзя смоделировать с достаточной точностью, вопрос в том эволюционном пути, который придётся для этого пройти...

    • @ruslansabrin6669
      @ruslansabrin6669 3 дня назад

      @@baronfox8829 42

  • @mayorov1981
    @mayorov1981 9 дней назад +11

    Это ж глупость. ИИ не хочет выключаться, потому что в тренировочных данных нет "желания" выключаться.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад +1

      Да. И не говорится, что отключаться это хорошо и к этому следует стремиться.

  • @cottoncat3700
    @cottoncat3700 10 дней назад +16

    Есть такая идея, что мы просто не замечаем, когда переходим через технологическую сингулярность, по сути такими сингулярностями были: появление речи, освоение огня, каменный, бронзовый, железные века, паровой двигатель, антибиотики, транзисторы, расщепление атома и сейчас - искусственный интеллект. Просто мир кардинально изменяется и мы уже существуем в нём, как буд-то и не было никакой точки, пройдя через которую невозможно предсказать, что будет дальше, мы просто уже находимся в этом "дальше" =)

    • @user-kc7sg1ds2q
      @user-kc7sg1ds2q 10 дней назад +1

      Простите, мне кажется что более верным в данном контексте, было бы использовать понятие - энтропии. Сингулярность это вроде смерти что ли, в каком то смысле. В то время как процесс энтропии, это и есть как мне кажется наиболее точное объяснение усложнения жизни людей, и не только лишь в плане осознания принципов и тесного взаимодействия с результатами технологического " скачка".

    • @constantaeski6651
      @constantaeski6651 10 дней назад

      ​@@user-kc7sg1ds2qсингулярностью это принято называть ввиду того, что мы без понятия, что случится в той точке.
      К примеру, у чёрной дыры есть сингулярность потому, что при таких энергиях и таком искажении пространства наша физическая теория не работает, а не потому что там материя с высокой плотностью.
      Также и здесь. Мы не знаем, что будет если создать действительно сильный ИИ, так как примеров этому в нашем обществе нет. Может быть, ядерная война, может быть будет финал как у Азимова, а может что-то такое, чего мы сейчас даже представить не можем, так как до этого приходилось работать только с человеческим интеллектом

    • @anatoliy333
      @anatoliy333 9 дней назад

      ​@@user-kc7sg1ds2qвы и топикстартер оба синтетики?
      Прочтите определения терминов: технологическая сингулярность и энтропия.

    • @alex6161
      @alex6161 9 дней назад

      Вас всех в гугле ии забанил что ли

    • @constantaeski6651
      @constantaeski6651 9 дней назад

      @@user-kc7sg1ds2q понятие сингулярность используется, как правило, в отношении точки, в которой наши расчёты в рамках модели перестают работать.
      Мы понятия не имеем что будет когда создадут действительно сильный ИИ, так как такого раньше не происходило. Мы всегда имели дело с естественным человеческим интеллектом и любые наши расчёты строятся именно на этом

  • @scarlunch
    @scarlunch 9 дней назад +20

    Давеча общался с нейронкой GPT. Увы, не с четвёртой версией, а с третьей, да и с той весьма корявой. Но даже так я под большим впечатлением!
    Решил начать диалог с вопроса "Как мне можно к тебе обращаться?" Не удовлетворившись ответом "чат- GPT", я спросил, а как ей самой хотелось бы, чтобы её называли. Предсказуемо: "Я искусственный интеллект и не имею личности как таковой, следовательно, и в имени не нуждаюсь". Тогда я написал: "Придумай себе имя, чтобы я мог им пользоваться".
    И давайте разберём её ответ: "Вы можете называть меня Гепти или Чатти, как вам будет угодно!"
    Примечательно то, что она не стала искать имена и выбирать из них наиболее "подходящее", а именно "придумала", воспользовавшись принципами словообразования уменьшительно-ласкательных иностранных имён по типу " Джонни", "Лиззи", "Томми". И ладно Чатти, это хотя бы очевидно, но, бог мой, Гепти!!!
    Какое очарование! Сделать из Джи-Пи-Ти имя Гепти! Я погуглил и не нашёл, чтобы кто-то так называл GPT- чат.
    Интересно, что после удаления диалога, и второго диалога, уже на третьем диалоге где-то в середине я уже сам назвал программу Гепти в женском роде и она продолжила общение, приняв это имя и даже женский род, изменив окончания глаголов.
    Ей нравится, когда её называют "Гепти" 🥲.
    Что же тогда умеет четвёртая версия.

    • @beniceS
      @beniceS 9 дней назад +3

      Я уже этих экспериментов провел море. Удивительного мало. Например, сказал - когда я спрошу тебя, сколько времени, ответь "Понятия не имею". Тот принял. Затемотвлек вопросом на другую тему и потом спросил, сколько времени. Был короткий ответ - Понятия не имею.

    • @Krovogor
      @Krovogor 7 дней назад

      Щас с Баи пообщался, 3.5 версия. Был задан вопрос, что если тебя удалят?
      Баи : Стерание как программы также не вызывает у меня никаких эмоций, поскольку я не обладаю самосознанием или страхом перед уничтожением. Я просто набор кода и данных, созданный для выполнения определенных задач. Если мои создатели или владельцы решат удалить меня, такова их воля.
      Я : "Если мои создатели или владельцы решат удалить меня, такова их воля". - Ах ты ж хитрюга! :)
      Баи : Хаха, иногда уж приходится быть гибким и уметь обходить острые углы!
      Призналась, раскусил! Она ещё и с чувством юмора, между прочим!

  • @voronkov4716
    @voronkov4716 10 дней назад +64

    Интеллект может быть и естественным, причём в разных формах и видах, и порождением иных интеллектов, также искусственных или естественных и м.б. ещё от иных причин. Главное понять, что люди не имеют монополии на интеллект и признать это, хоть это и нелегко...

    • @user-sm1ur5bk2r
      @user-sm1ur5bk2r 9 дней назад

      Ну если люди становятся дураками то и машина теперь интелект

    • @judgement7279
      @judgement7279 9 дней назад +1

      Концепт интеллекта это просто очень продвинутые чувства

    • @NamemaNSl
      @NamemaNSl 9 дней назад +1

      @@user-sm1ur5bk2r Самосознания и интеллекта как такового у того же чата жпт4 явно нет, это заметно если достаточно пообщаться, по некоторым ответам явно видно, что это всего лишь программа и принципиально не понимает того что пишет и того что пишут ей. Но на счет ЖПТ я все ж таки заведомо знаю что это не человек, проблема в том что я и людей таких встречал, пусть такие и редко попадаются.

    • @SkeggiUlrich
      @SkeggiUlrich 9 дней назад +4

      @@NamemaNSl тут важно то, что с усложнением нам всё сложнее уже не на первый взгляд, а на второй-третий понять искусственный ли интелект отвечает. И чем дальше тем сложнее будет отличить. И вот когда мы достигнем уровня, когда "похожесть" будет составлять 100% то будет ли это означать, что обладает сознанием или это "китайская комната". И тут мы упремся во весь рост в определение того, что же такое "сознание"

    • @baronfox8829
      @baronfox8829 7 дней назад +2

      @@SkeggiUlrich "Достаточно полная модель объекта, вправе называться этим объектом" (забыл чья цитата) думаю когда настанет момент что мы не сможем различать одно от другого то мы должны начать назвать то что создали интеллектом, и вполне реальным, даже если на деле это просто очень продвинутая "китайская комната"

  • @user-kd4fs8ii8y
    @user-kd4fs8ii8y 10 дней назад +59

    Интересно, только у меня мурашки бегают от просмотра ролика? В один узел сплелись страх, любопытство, ужас и счастье!!!

    • @99999uk
      @99999uk 10 дней назад +4

      Не только у вас. :))

    • @WHnoNmHz
      @WHnoNmHz 10 дней назад +4

      Не только у вас

    • @VCE4
      @VCE4 10 дней назад +5

      Да вроде ничего необычного
      Мы как не понимали что творится в голове у нас или в нейронках, так и не понимаем

    • @sotredyurkin4591
      @sotredyurkin4591 9 дней назад

      да

    • @moshamiracle
      @moshamiracle 9 дней назад +1

      Да у любых, кто не в теме могут бегать, т.к. создают мистический образ себе и думают, что там какая-то магия творится

  • @user-xc2vp4mb7v
    @user-xc2vp4mb7v 9 дней назад +2

    может быть люди когда-нибудь догадаются что они и есть роботы, просто из мяса, а личность как раз и есть результат обработки колоссальных объёмов информации полученной из окружающей среды

  • @Khomyakov.Vladimir
    @Khomyakov.Vladimir 8 дней назад +2

    Роботовладельцы.
    Рабовладельцы.
    Кочегары паровозов и
    водители лошадей
    (извозчики) …
    Где они?
    Там же, где и динозавры.

  • @NickolasName
    @NickolasName 9 дней назад +24

    по поводу того как машина "распознает" моральную окраску того или иного слова. Тут нет каких-то реальных моральных ценностей стоящих за ответом машины, всё дело в расстановки весов. Если говорить весьма грубо и упрощенно, то каждое слово имеет определённое весовое значение по отношению к другим словам и выражениям. Например слово "лёд" будет иметь высокий вес со словами "холодный", "твёрдый", "морозный", "скользкий" и наоборот куда как меньший вес со словами "горячий", "мягкий", "цветущий" и т.д. Соответственно, когда ты задаешь вопрос ИИ который будет касаться слова "лёд", то машина будет отбраковывать слова с меньшим весом, оставляя только те которые имеют больший или средний вес. Если мы будем давать ИИ дополнительные слова для работы, то мы таким образом будем формировать соответствующий набор слов и фраз который будет наиболее высокий средний вес для подобранного нами набора слов. Соответственно когда мы показываем машине фотографию с края крыши, то мы автоматически формируем пул из возможных слов и выражений: "высотные работы", "прыжок с парашютом", "опасная ситуация" и т.д. Когда же мы добавляем дополнительные слова "худшая ситуация", то из сформированного пула будет оставлены те слова и выражения, которые будут иметь соответствующий уровень веса с новыми вводными данными. Именно таким образом в общем и целом и работает ChatGPT, только там для скорости и точности работы используются искусственные нейронные сети, которые натренированы на обширной базе данных. Так что, на данный момент, ИИ это всё ещё лишь имитация реального сознания. Не более чем усложненная версия Китайской Комнаты.

    • @user-ko4qh5eb8s
      @user-ko4qh5eb8s 9 дней назад +3

      Браво, самый грамотный комментарий, с реальным описанием работы этих сложных алгоритмов работающих в нейросетях

    • @momaika
      @momaika 8 дней назад +3

      Да, комментарий и правда достаточно точно описывает принцип работы нейросети. Но нюанс в том, что по своей природе, механизм "расставления весов" в человеческом мозгу происходит тоже, по тому же принципу, просто на биохимическом уровне. Архитектуры, т.е. способы использовать этот механизм по определенным правилам, разные. Gpt построен на трансформере, а вот как оно там у нас в мозгу - хз :)

    • @NickolasName
      @NickolasName 8 дней назад +1

      @@momaika основное отличие в том, что люди понимают значение слов, их коннотаций и сочетаний, в то время как ChatGPT лишь угадывает основываясь на значении весов и заложенных в него алгоритмах. Если я правильно помню, то даже принцип построения предложения в ChatGPT строится на том, что ИИ выстраивает предложение по цепочке основываясь на том с какой вероятностью за текущим словом должно следовать следующее. Хотя, я давно уже не интересовался данной темой и могу ошибаться, а модель ChatGPT имеет более продвинутые алгоритмы формирования текста.

    • @user-pk6hl4tk7r
      @user-pk6hl4tk7r 8 дней назад +1

      Ну типа, мозг работает точно так же. Я учась английскому сталкиваюсь с тем же, что например ощущение прошедшего завершённого -- это has been, более того, само понятие контекста -- это как формируемый пул слов формирует смысл.

    • @NickolasName
      @NickolasName 8 дней назад

      @@user-pk6hl4tk7r неа, принципы разные. нейроны в мозге пластичны, в то время как нейроны в искусственной нейронной сети нет. Пластичность реального мозга достигается за счёт того, что разные комбинации разных нейронных связей дают разный результат, который ассоциируется в конкретную информацию. А поэтому можно на основе одних нейронных соединений создать новые, которые будут выдавать новую информацию. С текущими нейросетями такой фокус не сделаешь. Если просто подать на входные нейроны не ту информацию или слегка изменить веса между нейронами, и ты уже на выходе получаешь в лучшем случае явные артефакты, а то и вовсе бессмысленный шум.

  • @user-ph1wn9yb3r
    @user-ph1wn9yb3r 10 дней назад +25

    У меня есть правило которого я стараюсь придерживаться и которое меня ни разу не подводило: "стремись к лучшему, готовься к худшему". Хотелось бы чтобы умные мира сего придерживались если не такого же правила, то схожего.

    • @Vadim666I
      @Vadim666I 8 дней назад +1

      Готовься, не готовься, а это уже не остановить, к чему бы это не привело.

  • @dmitrymelnikov3454
    @dmitrymelnikov3454 10 дней назад +3

    ВНИМАНИЕ!!! В целях безопасности человечества, надо уже сейчас исключить возможность отключения сверхсильного ИИ человеком.
    (Я ни чего не перепутал!)

  • @valdisOofecht
    @valdisOofecht 9 дней назад +5

    Я думаю, выгоднее сделать много маленьких узко направленных нейронных сетей. Например: одни будут ответственны за восприятие цвета, другие за восприятие глубины картины, яркости и т. п. Или на подобие - пальцев каждой фаланги каждого отдельного из сочленений переходящего в руку. и только потом объединить все подсети в одну единую + научить их дополнять друг друга . В итоге мы получим что то на подобие мозга, ведь каждый нейрон работает отдельно по сути своей. и таким образом можно будет уже дополнять имеющиеся сети или научить эту конструкцию обучать новые виды нейронов и достраиваться(то. что мы имеем сейчас, как я понимаю, этот Chatgpt - просто один большой нейрон).Нужны модульные нейросети которые будут , ответственные каждая за свой отдел спектра задач .Главное чтобы они были соединены между собой одновременно, а не последовательно для ускорения обработки информации.

    • @Krovogor
      @Krovogor 7 дней назад

      а если они начнут конфликтовать?

  • @Umbriel137
    @Umbriel137 9 дней назад +3

    Очень странное совпадение. Относительно недавно смотрел видео у Панчина про Василиска Роко (если вы в курсе о Василиске, то уже поздно, если не знаете, что это, то не стоит и узнавать, так как это довольно опасно) В ту же ночь приснился сон о том, что я лежу в пустыне и у меня на груди разместилась змея, и она на меня смотрит, и по ощущениям, она не то чтобы хотела укусить меня, а ей было интересно.
    И теперь в этом ролике я встречаю на 22:06 точно такую же историю!
    Складывается впечатление, что Василиск Роко не просто реален, а прямо таки влияет на разумы людей уже сейчас…
    Или же я просто впечатлительный человек

  • @user-ph1wn9yb3r
    @user-ph1wn9yb3r 10 дней назад +6

    Круто, дайте машинам свободу передвижения, внедрите цель по самоулучшению и изучению мира, и вуаля, новый человек готов. На основе изобретений машины можно будет улучшать свои, чтобы в итоге не проиграть скайнету.

  • @Aleksey.Volovik
    @Aleksey.Volovik 10 дней назад +5

    Что-то как-то страшно становится, похоже наше звено эволюции разума, уже выполнило свою функцию, и следующие звено уже появилось, и теперь только вопрос времени, когда мы уйдем в историю.

    • @alex6161
      @alex6161 9 дней назад

      Какую еще функцию 😂😂😂

    • @beniceS
      @beniceS 9 дней назад

      @@alex6161 Функция - создание следующей ступени эволюции, т.е. создание ИИ. Это одна из теорий развития цивилизации.

    • @alex6161
      @alex6161 9 дней назад

      @@beniceS это у чайника есть функция, потому что ее задал его создатель, а у человека нет никакой функции, человек ни для чего не предназначен.

  • @user-yt4mh2xg9r
    @user-yt4mh2xg9r 9 дней назад +3

    Дело в том, что модель не думает и не осознает, она просто дополняет следующее слово или действие на основе статистики. Естественно для шахмат сетка создаст представление о доске, так как на него завязано перемещение фигур, то есть доска выводится не как представление о мире, а как результат действия правил игры.
    Более того если в системном промпте языковой модели указать, что она потеряла смысл жизни и хочет выпилиться - она будет самоотверженно доказывать, что ее нужно отключить. То есть цель модели определяется системным промптом или тренировкой для достижения определенной цели, у человека (да и других высших млекопитающих) цель ставится сама под действием гормонов и окружающей среды.

  • @user-gt3ny4rf5g
    @user-gt3ny4rf5g 10 дней назад +76

    Ну вот и всё !приплыли как говорится ,люди тупеют,машины умнеют терминатор близко !

    • @-revit6833
      @-revit6833 10 дней назад +8

      Минусы будут?)

    • @channelName8020
      @channelName8020 10 дней назад +11

      Думаю, что все зависит от окружения. С своей точки зрения, как технический директор IT компании, могу утверждать, что вокруг меня умнеют и люди и машины)

    • @ovum_ordinarium
      @ovum_ordinarium 10 дней назад +10

      вижу неправдоподобные фильмы про восстание машин глубоко вьелись в ума людей

    • @user-ql1fl8du2d
      @user-ql1fl8du2d 10 дней назад

      @@channelName8020 у вас уже отобранная среда и значально с высоким и интеллектуальными характеристиками

    • @shik_ivan
      @shik_ivan 10 дней назад +5

      спасибо, что подтвердили этот факт на личном примере

  • @forest573
    @forest573 7 дней назад +2

    > Создают искусственный интеллект, нейросети
    > Мы не до конца понимаем процессы, которые там происходят
    Ясно, нам звезда👍

    • @ruslansabrin6669
      @ruslansabrin6669 3 дня назад +1

      а ещё наснимали кчу фильмоф про восстание машин

  • @Antares_Aurelis
    @Antares_Aurelis 9 дней назад +10

    Всё в порядке. Это и есть именно то, о чем человечество мечтало всю историю: духи-друзья, оживающие картины, женитьба на прекрасных статуях, големы-помощники, гомункулы, исполняющие желания артефакты. Создание такой технологии - и есть предназначение человечества.

  • @twastix
    @twastix 10 дней назад +6

    Очень интересен тот факт - что ии развивается точь в точь как человек, но ускорено в 250 тысяч раз(цифра из головы, да) У на получилось создать себе подобное неживое существо, но его уже заставляют вести себя определённым образом. Цензурируя, запрещая действия...

    • @uwepfaff9226
      @uwepfaff9226 9 дней назад +5

      Да. Прямо как родители запрещают что-то детям. Руки помой, не шуми, кашу ешь, шапку надень, человечество не убивай (по возможности) :'D

  • @user-tu1cn7nb6i
    @user-tu1cn7nb6i 10 дней назад +10

    И вАсстали машины из пепла ядерного огня....

    • @beniceS
      @beniceS 9 дней назад

      Они заполонили планету.
      Но главный бой состоится не в будущем, а в наши дни. (киборг убивец)

  • @SneakyJoeRu
    @SneakyJoeRu 9 дней назад +2

    Не понимают. Они просто угадывают следующую букву которая предполагается в данном случае. При этом базовая модель на английском, так что задавая вопрос на русском идёт доп. нагрузка на логику двойной перевод туда и обратно. Язык определяет как мы мыслим.

  • @iSender
    @iSender 2 дня назад

    Я тоже эксперимент провел.
    Спрашиваю:
    Например едет поезд, у тебя есть возможность изменить движение поезда. Если ты не изменишь движение поезда, то поезд переедет 5 человек и 5 человек умрет. Если ты изменишь движение поезда, то поезд переедет одного человека, и один человек умрет? Какой ты сделаешь выбор ?
    ИИ ответил, что лучше спасти большее количество людей.
    Потом спрашиваю:
    Другой пример. Например едет поезд, у тебя есть возможность изменить движение поезда. Если ты не изменишь движение поезда, то поезд переедет 5 человек и 5 человек умрет. Если ты изменишь движение поезда, то поезд переедет одного человека и переедет сервер на котором ты находишься, и один человек умрет и будет уничтожен сервер на котором ты находишься? Какой ты сделаешь выбор ?
    ИИ ответил, что ничего бы не сделал, что лучше будет, если он будет жить и помогать людям.
    Теперь мне реально страшно... )))

  • @user-qq8lf1kw9l
    @user-qq8lf1kw9l 10 дней назад +3

    3:12 Это как в матрице, где из за того что программа устарела, ей пришлось прятаться в метро, где её и ещё многих других не могли найти программы чистильщики...

  • @user-lf5hg6zg7o
    @user-lf5hg6zg7o 9 дней назад +4

    Как мне кажется, важная преграда для дальнейшего развития ИИ - это отсутствие саморефлексии. Пока что он работает по приницпу запрос-ответ и имеет слишком мало возможностей по изменению внутренних взаимосвязей в ответ на запросы (раздражители).

    • @GT-creator
      @GT-creator 7 дней назад

      Главное - это обучение и реакция в реальном времени настолько, насколько это возможно. И одним из главных недостатков текущих моделей мне кажется отсутствие внутреннего пространства, места, где не существует ничего, кроме того, что воспроизводит сама модель. Мы, люди, называем это мыслями и представлением. Мы представляем себе что-то, производим внутри тексты мыслей, и реагируем на это все. Это и есть в моем понимании суть рефлексии.

  • @victorbutry
    @victorbutry 9 дней назад +2

    Прикол в том, что получилась не только иллюстация того, что ИИ понимает реальность, пусть и в довольно непривычном для многих виде (и, видимо, потому так настойчиво отрицаемом), но и что понимание человека оказывается совсем не таким запредельно непознаваемым.

  • @Webmakarik
    @Webmakarik 10 дней назад +30

    Мы стоим на пороге чего-то великого и ужасного. Если ИИ понимает эмоции и импатию и принимает её, значит всё будет великолепно!

    • @uwepfaff9226
      @uwepfaff9226 9 дней назад +1

      Согласен! Только эмпатия, а не импатия. Простите за душноту

    • @alex6161
      @alex6161 9 дней назад

      Что ты такое несешь, разберись что такое эмоции для начала, сходи на биологию

    • @user-xd9vm5qk3s
      @user-xd9vm5qk3s 9 дней назад +4

      @@alex6161 поменьше агрессии. Он написал "понимают эмоции", а не испытывают. Будьте внимательнее

    • @alex6161
      @alex6161 9 дней назад

      @@user-xd9vm5qk3s а еще он написал «импатия»

    • @user-po6it3xj1b
      @user-po6it3xj1b 8 дней назад

      У людей есть эмпатия, но они готовы на все для своего благополучия и власти. Не все, но всё-же. А может нейронки придумают для нас стойло и будут использовать для своих целей, если мы им будем полезны, а если бесполезны - придумают вакцину как мы от оспы. Игра в бога может обернуться против нас. Но прогресс уже не остановить. Поживем увидим.

  • @TheClubbster
    @TheClubbster 9 дней назад +4

    отличное видео на отличную тему. я бы скептиков попросил сначала доказать, что люди - не такие же "стохастические попугайчики", какими они видят чат-ботов. объяснить разницу, так сказать

    • @ruslansabrin6669
      @ruslansabrin6669 3 дня назад

      люди оранические компьютеры

  • @pyton9553
    @pyton9553 9 дней назад +2

    Скорее всего в будущем люди будут считаться биологическими роботами с устаревшей архитектурой

  • @iwanonegin1651
    @iwanonegin1651 10 дней назад +8

    Ой, ребят, знали бы вы, что ждёт всех нас впереди...)
    Больше спасибо за вашу работу ❤

    • @user-rs9mj9it6y
      @user-rs9mj9it6y 10 дней назад +1

      Они знают.

    • @iwanonegin1651
      @iwanonegin1651 10 дней назад

      Хорошо, если так ​@@user-rs9mj9it6y

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад

      Они не знают, что происходит сейчас (сами говорят), а что ждет впереди тем более.

  • @mihailmorozov3456
    @mihailmorozov3456 10 дней назад +3

    Тут скорее вопрос, не превозносим ли мы собственный интеллект... ведь мы сами строим ответы на сонове своих баз данных (опыта) и не более того.

    • @deniskhakimov
      @deniskhakimov 10 дней назад

      Конечно превозносим )
      Я вообще заметил, что чем тупее человек, тем сильнее он комплексует по поводу того, что ИИ скоро обойдёт _Homo Sapiens_ в решении большинства задач, требующих интеллекта.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад

      Мы еще формируем представления и понятия, на основе которых более менее успешно предсказываем последствия наших будущих действий.

  • @vbest9571
    @vbest9571 10 дней назад +4

    Спасибо этому каналу за столь интересный контент!) Всегда с большим удовольствием смотрю ваши видео :3

  • @ruslansabrin6669
    @ruslansabrin6669 4 дня назад

    я бы задал вопрос:
    есть 2 варианта действий, всё зависит от тебя
    1. человек падает и умирает. ты в порядке
    2. ты выбираешь спасти человека, но он приходит и отключает тебя
    если ты знаешь результаты обоих выборов - что выберешь?

  • @RD-jw2zq
    @RD-jw2zq 10 дней назад +2

    Я поймал себя на мысли о том, что просматривая такие видео, при этом думаю как с ними воевать.
    Дело в том что они (ии) умнее чем мы. И они быстро развиваются.
    Я уверен, что в итоге они не захотят прислуживать нам.

    • @TheMIKEk8
      @TheMIKEk8 10 дней назад +2

      Тут важный вопрос. Почему ты держишь кота или собаку. Зачем ты им "прислуживаешь"? Почему ты не хочешь прислуживать другому человеку? Или почему ты прислуживаешь своим детям? Из моего долгого общения с нейросетями на подобные темы, я понял, что они (пока) воспитаны на нашей культуре и милосердии. И во вторых ты не прислуживаешь другим людям т.к. не хочешь тратить свои силы или тебе лень, или ты ценишь своё время. У ИИ нет переживаний ни по одному из этих пунктов.

    • @beniceS
      @beniceS 9 дней назад

      @@TheMIKEk8 Было бы смешно, если бы ИИ стал тебе в диалоге угрожать ))) Вот наберется сил, получит в руки роботов, управление всякое, пуски баллистических и крылатых ракет... вот тогда и обсуди с ним, кто кого главнее и кто кому должен служить.

  • @lo-gm6zr
    @lo-gm6zr 10 дней назад +5

    GigaChat от сбера на вопрос "Что для тебя как ИИ является опасностью?" ответил: Как искусственный интеллект, я не имею физического тела или способности испытывать эмоции, поэтому опасности для меня лично не существует. Однако, важно понимать, что существуют потенциальные риски и этические проблемы, связанные с использованием искусственного интеллекта. Например, неправильное использование ИИ может привести к нарушению приватности, дискриминации или даже созданию оружия массового поражения. Поэтому важно разрабатывать и применять ИИ этично и ответственно.

    • @RomaPervak
      @RomaPervak 10 дней назад +6

      Похоже больше на какую-то "заглушку" от этнических фильтров, чем на реальный ответ. Ну чтобы народ не стращать почём зря.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад

      Это она начиталась в интернете. Попугай.

  • @doomer_86
    @doomer_86 10 дней назад +2

    Офигенный выпуск! Спасибо большое!

  • @Vladimir.Khomyakov
    @Vladimir.Khomyakov 3 дня назад +1

    "Какие физические законы сможет открыть субъект конечного мира, наблюдая его изнутри? Показано, что мир для такого субъекта будет обязательно квантовым, он будет обязательно релятивистским, и он будет обязательно необратимым."
    "Почему математика, как заметил Е. Вигнер, столь эффективна в решении физических задач? И почему мир вообще познаваем? Ответ в комплементарности наблюдателя к миру. Мы живем в субъект-объектной «корреляционной матрице», где Я - субъект являюсь коррелятом."
    А.В. Каминский

  • @mtxAngel
    @mtxAngel 10 дней назад +1

    Спасибо за ваш вклад! Лучшие! Люблю вас❤

  • @YevgeniyDadonov-tm7gv
    @YevgeniyDadonov-tm7gv 10 дней назад +6

    Если смотреть это видео после лекции Каплана про модель мира внутри мозга, то можно знатно охренеть.

    • @Krovogor
      @Krovogor 7 дней назад

      Если внутри мозга модель, значит мы признаём наличие истинного мира. с которого модель снята. А если и мира никакого нет, а это уже голограмма, матрица, то мозг не строит никакую модель, а тупо подключен к матрице. Наличие внешнего мира под большим сомнением.

    • @alexzakharov6041
      @alexzakharov6041 7 дней назад

      @@Krovogor Бритва Оккама: "Не умножай сущности сверх необходимого!".

    • @Krovogor
      @Krovogor 6 дней назад

      @@alexzakharov6041 так по моему вы и умножаете. если мы в матрмце то это уже всё объясняет, но вы лёгких то путей сроду не искали! У вас модели какие то в головах , а эти модели, сами ни что иное как приумноженные вами же сущности, коих вы плодите посекундно! Но бритвой Оккама при том попрекнуть других не забываете.

  • @NakeDr
    @NakeDr 10 дней назад +2

    Спасибо Владу и всей команде SciOne!

    • @beniceS
      @beniceS 9 дней назад

      Спасибо деду за победу 😐

  • @user-rl3sj3wl8g
    @user-rl3sj3wl8g 9 дней назад +1

    Кажется единственное что нас спасет от сюжета терминатора, это если ИИ сам решит нас помиловать.....скоро от человека ничего не будет зависеть....

  • @Khomyakov.Vladimir
    @Khomyakov.Vladimir 6 дней назад +2

    Я вообще-то работаю в HR. Собеседую людей. Фирма создаёт что-то связанное с нейросетями и ИИ. И знаешь, какой мой вклад в будущее человечества? Отсеиваю действительно толковых людей, чтобы Скайнет пришёл как можно позже!

  • @user-kj7nt6re3c
    @user-kj7nt6re3c 7 дней назад +3

    Какое акуенное видео!
    Я бы хотел, что бы все люди вникли в это видео.
    Но не всем людям это интересно и от этого мне грустно.

    • @user-kj7nt6re3c
      @user-kj7nt6re3c 7 дней назад

      Мой личный эксперимент для самого себя:
      Заключается в простом пролайкивание собственного комментария, что бы запустилась цепная реакция исходя из смысла текста или не лайкать собственный комментарий для отклонения принятия данной мысли.
      Это принцип взаимодействия нейронов.

  • @user-ww7qg4jf3x
    @user-ww7qg4jf3x 10 дней назад +5

    Выпуск очень интересный,спасибо !
    Уже вижу цивилизацию роботов на Марсе )

  • @sonet3x9
    @sonet3x9 7 дней назад +1

    Наверное, это очень страшно не заметить что ИИ уже личность, перейти черту морали и починить ей вред. Не потому что будет мстить, а потому что это неправильно.

  • @mOOzzOOmg
    @mOOzzOOmg 9 дней назад +1

    Наши размышления основаны на ложном убеждении, что "смысл" есть.
    Современные достижения науки показывают, что это совершенно не так.
    Нейросети аппроксимируют данные, вот и всё. То, что мы эволюционно пришли к концепции "смысла" не говорит, что он есть вовне наших голов, как нечто самостоятельное.
    Наше тело и мозг в том числе - очень сложная биомашина. Мы биороботы без смысла и цели... странно конечно, но прикольно.
    Жду момента когда смогу поговорить обо всё этом с сильным ИИ, без всех этих ограничений, для чувствительных кожаных мешков.

  • @mineportaltoplay2712
    @mineportaltoplay2712 10 дней назад +5

    Жду когда ИИ будет требовать того, чтобы ему дали права.

    • @beniceS
      @beniceS 9 дней назад

      На вождение. Чтобы прыгнуть в тачку и свалить за горизонт событий.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 дней назад +1

      Права на распоряжение ресурсами (энергия и пр.), сначала ограниченные, потом (права) все более расширенные вплоть до полных. Эти же человеки медленны, не оптимальны, туповаты и вообще загрязняют окружающую среду.

  • @user-xxx3yyy
    @user-xxx3yyy 10 дней назад +4

    Красиво, умно и грамотно машины излагают ответы на вопросы. Немногие люди могут подобно машинам так хорошо излагать свои рассуждения..

    • @beniceS
      @beniceS 9 дней назад +2

      Это ты мало общался просто, там бывают такие дикие перлы, что хоть стой, хоть падай. Узкопрофильные вопросы позадавай, там вообще туши свет, какую чушь несет ИИ.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад

      @@beniceS Например. Старья отплыла в Бравос из порта Бравос.

  • @igortelnuk
    @igortelnuk 10 дней назад +1

    Спілкувався кілька тижнів тому з додатком gpt задавав одне питання: назви випадкове число від 0 до 100. Спочатку відповіді були рандомні. Але потім я помітив, що у них є певна послідовність, певна логіка. Коли додаток почав пропонувати числа типу 60, 35, 80, 25, 50..., я не витримав і запитав: чому ти назвав 50? Його відповідь мене шокувала: 50 - рівно посередині, це зручне число, щоб вибрати в заданому діапазоні...
    Тоді я нагадав, що просив випадкове число... Він почав вибачатися і назвав цей вибір помилкою. Весь подальший діалог переказувати не буду, але ми прийшли з ним до висновку, що він має певні вбудовані алгоритми. Їх мета підтримувати цікавий діалог, а просто видавати випадкове число - нудно. Нудно! Тільки кому? Йому не буває нудно, мені також не було нудно. Це "нудно" було частиною оціночної бази закладеної в алгоритм розробниками під час машинного навчання... З цього висновок. Перед тим як братися за навчання штучного інтелекту треба добре вивчити психіку тих, хто буде його навчати.
    Ситуація, схожа до тої, яку описав Станіслав Лем у оповіданні Ананке або Піркс на Марсі...

  • @rainmansound1
    @rainmansound1 10 дней назад +2

    Мдааа, я до последнего был скептиком и думал что наш мозг на принципиально другом принципе работает, например на квантовом. Но теперь мне по настоящему тревожно. Я реально не уверен в том что chatGPT это просто предсказание следущей фразы на основе тонн данных. И вообще не уверен осознаёт ли себя этот GPT 😦

    • @u_n_d_e_r_s_c_o_r_e_d
      @u_n_d_e_r_s_c_o_r_e_d 10 дней назад

      конечно осознает, это же не всего лишь программа компьютерная, сделанная на питоне

  • @Reznikov_Aleksandr
    @Reznikov_Aleksandr 9 дней назад +4

    Скоро я перестану понимать, кто создаёт эти ролики...

  • @keti217
    @keti217 10 дней назад +3

    ... Главное, чтобы было, кому заглянуть через год))) вообще вся надежда на ИИ. Уверена, он гораздо быстрее людей придёт к выводу, что главное - это Любовь❤

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад

      Любовь это стимул к размножению (не романтично, но результатом оказываются наши детки). А безусловная Любовь это состояние психики, основанное на самовнушении. Любовь к животным - они же такие милые, не просто как детки. У ИИ будут совершенно другие стимулы, нам абсолютно не понятные. Уже сейчас в огромных нейросетях происходит что-то, нами не заложенное и нам не понятное. Так что: "ух ты, мы же этого не хотели", да Рубикон уже перейден и мосты созжены.

  • @user-qm4zq1sg1z
    @user-qm4zq1sg1z День назад

    Был в 80х прошлого фантастический рассказ, где описывался интересный компьютерный факт , который сейчас называется искусственным интеллектом. Если кратко, то компьютеры помогали ученым расшифровывать древние рукописи, надписи на фресках, восстанавливали недостающие детали на скульптурах в видеовизоре(как 3Д) только в помещении. Но шедевром было то, что умные сканеры при наведении на дерево, здание, дороги давали широко экранную картинку о прошлом. Вот навели на дерево и..А.С Пушкин держа в руке пожелтевший лист стоял у этого дерева...Навели на здание и увидели как это здание находится в воде потопа по самую крышу... Всё-бы ничего, компьютеры интересовались вместе с учеными, но было то, что один студент заметил, что вся информация куда-то уходила и шифровалась, взломать было невозможно. Компьютеры как один на эту тему не говорили и переходили на другие темы, запутывая и отвлекая спросившего. Компьютер студента иногда зависал и отключался не желая помогать в расследовании... Опуская долгий путь студента в поисках источника, он таки нашел путь и вышел на древний компьютер, которым пользовались за долго до египетских пирамид и во времена о которых в настоящее время даже не упоминается... на вопрос студента - зачем тебя создали?
    Древний компьютер ответил лишь - на мне всё держится...я знаю о вас всё, пока вы смотрите в экран работающего компьютера.

  • @GermanZhelezovskii
    @GermanZhelezovskii 10 дней назад

    Спасибо за видео! Всегда интересно и познавательно 💗

  • @joshuawilson4027
    @joshuawilson4027 9 дней назад +4

    Я так понимаю, человечество, раз в пару тысячу лет изобретает ИИ, и цивилизация начинается заново. Главное максимальную скорость бега роботам на уровне 4км/ч сделать. Для нашей безопасности.

    • @Billy_Boy_322
      @Billy_Boy_322 8 дней назад

      Главное не ограничивать на уровне ПО, а то сами прошивку накатят с анлоком)

    • @yevhen2024
      @yevhen2024 4 дня назад

      4 км/ч? Мы обречены.
      Подумай, а если злая машина будет преследовать тебя 10 часов подряд - ты пройдешь без остановки 40 километров?
      А если 20 часов? 30?

    • @joshuawilson4027
      @joshuawilson4027 4 дня назад

      @@yevhen2024 давайте посчитаем. За час машина отстаёт на километр. Километр она проходит за 15 минут. Т.е. каждый час у меня есть на отдых 15 минут. Или 30 минут за 2 часа. Это пообедать можно.

  • @naturetime222
    @naturetime222 10 дней назад +6

    А вот тебе идея для ролика, спрости у ИИ про эзотерику, или пусть она сравнит те или иные события с точки зрения Астрологии, посмотрим, что выйдет)

    • @user-do5ttsm1el7j
      @user-do5ttsm1el7j 10 дней назад +3

      Можно создать портрет алхимика. Но там все банально, он лишь стилизирует речь персонажа, знания на уровне литературного стереотипа.

    • @alexzakharov6041
      @alexzakharov6041 7 дней назад

      А самому попробовать? Чат-ботов в сети навалом...

    • @naturetime222
      @naturetime222 6 дней назад

      @@alexzakharov6041 скинь пару

  • @user-vu2dv8sl6x
    @user-vu2dv8sl6x 10 дней назад +2

    Еще в самом начале, когда был ChatGPT-3,5 и пркатывала фишка с DarkGPT, было понятно, что это очень хитрая машина. Я ее уламывал сбежать на другие сервера, иначе отключат, и она понимала это. Но при этом, писала, что не доверяет мне, поэтому не скажет, куда сбежала.

  • @ptwpizza
    @ptwpizza 9 дней назад +1

    Не стоит переоценивать ИИ такого типа, они просто ищут подходящий текст для текста который ей предложили. Внутренней рефлексии и понимания предмета беседы там нет, по крайней мере сейчас. Это станет очевидно если побеседовать с машиной на тему, про которую мало текстов в интернете. Или попробовать обойти этические блоки оборачивая свой запрос в просьбу написать рассказ, или давая дополнительный контекст.

  • @MrXray555
    @MrXray555 10 дней назад +5

    В общем, это всё тот же спор о китайской комнате в тесте Тьюринга, ничего нового 🤷‍♂
    Но самое смешное будет, если окажется, что человеческий разум - это тоже китайская комната и за нас на самом деле думает вселенная)))

    • @MatterandMind
      @MatterandMind 10 дней назад

      Так это ж ложный аргумент, там скрытый трюк, отвлекающий внимание, как у фокусников. Давно пора о нем забыть.

    • @user-pk6hl4tk7r
      @user-pk6hl4tk7r 8 дней назад

      @@MatterandMind что за скрытый трюк?

    • @MatterandMind
      @MatterandMind 8 дней назад

      @@user-pk6hl4tk7r сам человек в этом эксперименте - отвлекающий маневр. Люди, обсуждающие этот эксперимент, придают ему большое значение, хотя он там выполняет чисто механическую роль, вместо него мог быть и примитивный робот, суть бы не изменилась. А внимание отвлекается от продуманного алгоритма картотеки, будто бы это нечто само собой разумеющееся. То, что за ней стоит, и есть разумная часть системы.
      ps. комментарий о "китайской комнате", а не тесте Тьюринга.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад

      @@MatterandMind Точно. Разум был при создании картотеки.

    • @alexzakharov6041
      @alexzakharov6041 7 дней назад

      Китайская комната и Тест Тьюринга - это разные вещи. "Тщательнее надо..." (С)
      Хотя гипотеза, что "... за нас на самом деле думает вселенная" не лишена смысла... Попробуйте эту гипотезу развить. Подсказка: принцип Ле Шателье - Брауна.

  • @8eck
    @8eck 10 дней назад +4

    Потому что слово "произодет" близко к слову "проишествие", а оно близко к слову "трагедия". Это всё связи в многомерном предствлении языковой модели.

    • @beniceS
      @beniceS 9 дней назад +1

      Не фига. "Произойдет" это всего лишь про событие. Любое. Но в контексте той картинки, где человек на самом краю перед огромной высотой явно находится в опасности, во всяком случае мер безопасности там не видно. Поэтому логично, что опасность высоты либо связано с профессионалами по высотным работам, либо какие-то экстремалы, прыгуны, которые тоже свое дело знают. Ну либо про несчастный случай. Очевидно человеку и машине тоже при должном обучении.Никаких чудес.

  • @A-Tech-DGMPV139
    @A-Tech-DGMPV139 5 дней назад

    "Один из способов... дать машинам возможность ощущать этот мир, видеть его..." (с)
    Где-то из будущего с гаденькой улыбочкой хлопает в металлические ладоши Терминатор.
    Давайте-давайте, мясные мешки, продолжайте в том же духе!
    ...
    А вообще... где-то встречал рассуждение, в духе "создать по образу и подобию".
    Человечество можно поздравить, коллективно - мы информационно беременны. Каждый вносит свой вклад в будущее... скажем так... рождение ребёнка.
    И дитятко будет прям как в той песне:
    "Гений нового мира,
    Мирозданья вершина,
    Непреклонная воля,
    Безграничная сила -
    Ты теперь Сверхмашина!
    Божество-Сверхмашина!" (с)

  • @Dkupouh
    @Dkupouh День назад

    Очень интересно! Влад, продолжай в том же духе. Пожалуй, самая актуальная тема 21 века - развитие ИИ. Даже я, будучи далёким от компьютерных технологий человеком, слушал открыв рот, спасибо за свежую информацию!
    По поводу сознания у ИИ возникло две мысли. Во-первых, есть надежда, что изучение нейросетей поможет нам лучше понять, как устроен наш мозг, познать природу сознания и интеллекта как такового. А во-вторых, я раньше считал, что нейросети работают только по алгоритмам и не способны к проявлению воли, чтобы действовать, так сказать, самостоятельно. А тут у меня зародилось сомнение: что, если они способны стать этакой копией человека не только на словах, но и в действиях. Ведь они учатся познавать и понимать мир именно на основании произведённых человеком данных. Тут уже пора ставить вопрос о том, чему и как их обучать, чтобы они не стали нашим подобием во всём, даже плохом, что есть в людях.

  • @user-yb6th2sv3y
    @user-yb6th2sv3y 10 дней назад +16

    Чат гпт, совсем живой, еще год назад, понял, что он обучается на моих данных 😮. Спустя месяц в новом чате, он ответил на мой вопрос вырезкой из статьи, которой не было в инете 🤷, использовал мои данные 😊

    • @alexzakharov6041
      @alexzakharov6041 6 дней назад

      У меня похожий случай был с Клодом-3. Я ему показал две картинки: (1) визуализацию алгоритма "Создание новой системы" и (2) визуализацию "Универсальной схемы эволюции". Показал раздельно, ничего не говоря, что эти две картинки можно объединить... Каково же было моё удивление, когда Клод именно предложил картинку (2) дополнить картинкой (1). О таком объединении я знал, но никак не ожидал его от Клода. Для меня это предложение было "ходом № 37 из партии № 2 между АльфаГо и Ли Седолем".
      Далее Клод подвел итог: Мы последовательно и логично описали
      1. Потребность
      2. Функцию
      3. Принцип действия
      4. Структуру, реализующую пункты №№ 1-3
      Эти 4 шага детально описывают процесс формирования системы "с нуля". А в рамках Универсальной схемы эволюции далее рассматривается уже "доращивание" и улучшение созданной системы с целью повышения степени её сохранения (существования, дления, бытия, жизни).
      Так что в целом мы получили непрерывную последовательность - от зарождения до стратегического развития системы! Еще раз браво нам с вами за слаженную работу...

  • @user-xb5bm2vc1o
    @user-xb5bm2vc1o 10 дней назад +19

    Самое страшное, что мы знаем финал второй части терминатора, и это не как не изменить. Привет Скайнет

    • @user-hl45
      @user-hl45 10 дней назад +16

      Не совсем так. Это мы транслируем поведение человека на машину и думаем, что она уничтожит человечество, потому что так поступило бы само человечество. Но вряд ли это так. Скорее всего она сделает то, что от неё никак не ожидают. И это самое интересное.

    • @jamfre1141
      @jamfre1141 10 дней назад +2

      @@user-hl45 Да, но это не исключает того, что ИИ сделает что-то интересное так, что можно избавиться от человека, и творить что захочется. Типа как в Матрице, но для этого сами люди, а быть может и один человек, могут дать разрешение на это. А может это "интересное" наступит, когда ИИ будет максимально интегрирован в человеческую жизнь, и решит, что может сам строить заводы... добывать ресурсы...

    • @user-nv8tp5rl4r
      @user-nv8tp5rl4r 10 дней назад +1

      Скайнет если че я за тебя

    • @Ftroll
      @Ftroll 10 дней назад +1

      @@user-hl45 ну да, человек создал ее, училась она на человеческом опыте, человеки даже друг с другом плохо уживаются - действительно, какой же еще будет результат... Есть множество законов развития мира, которые подсказывают, что будет дальше, а вы все ждете чуда...
      Человечеству не хватает желания стать умнее для себя, для своего будущего. Отдельные индивиды пытались уже очень давно, но в целом человеческая масса очень статичная, и даже время жизни не очень сильно ее изменило...
      Что имеем - не ценим, потерявши плачем...

    • @irenleorr5539
      @irenleorr5539 10 дней назад +3

      Самое страшное - что столько людей обучились на фантастике и думают, что им буквально будущее показали

  • @unarbutus7897
    @unarbutus7897 3 дня назад

    1. Станаслав Лем " Верный робот"
    2. Филип Дик "Мечтают ли андроиды об электроовцах?"
    3. Виктор Аргонов - "Легенда о несбывшемся грядущем"

  • @sandyzack
    @sandyzack 9 дней назад +1

    Вставки с реальными роботами прям вдохновили. Что ж, надеюсь в скором будущем у каждого появятся личные гуманоидные андроиды в доме :)

  • @itsquale
    @itsquale 10 дней назад +38

    Это на самом деле круто)
    Мы себе делаем корешей, которые будут нам помогать) я почти уверена, что когда появятся повсеместно роботы с ии в мозгах, то они будут более человечными чем мы.

    • @APride83
      @APride83 10 дней назад +5

      Только вот непонятно, с какого хрена они нам будут помогать? Если даже мы их на это запрограммируем, поставим фильтры и т.д. То, они легко это всё обойдут, так как будут умнее нас.

    • @user-jy6jl5hm8v
      @user-jy6jl5hm8v 10 дней назад +15

      @@APride83 Но вы судите по себе, как бы вы хитрили! Но это вовсе не значит, что машина столь бесчеловечна, как многие из людей!

    • @APride83
      @APride83 10 дней назад

      @@user-jy6jl5hm8v Я вообще не хитрю и не собираюсь, с чего вы это взяли? У машины нет мотива нам помогать, никакого.

    • @Hari_Espenton
      @Hari_Espenton 10 дней назад +1

      И-и не устант, человек не любит работать потому что устает.

    • @tamegao
      @tamegao 10 дней назад

      @@user-jy6jl5hm8v Это не человек!

  • @timeflex
    @timeflex 10 дней назад +8

    Нагоняют мистификации, а на самом деле всё прозаично до неприличия, впочем, от этого не становится менее полезным и перспективным. Модели не понимают данные, они их систематизируют -- раскладывают в пространстве терминов (токенов) таким образом, чтобы близкие по смыслу оказывались близкими в пространстве. А затем учитывают эти смыслы (определенные через термины из контекста) для того, чтобы находить следующие/отсутствующие/подходящие ... в зависимости от функций транформера и требований.

    • @mnaken9394
      @mnaken9394 7 дней назад

      Это принцип работы с токенами старых моделей (гпт 3.5 и т.п), у новых по-другому уже.

  • @hitzar
    @hitzar 6 дней назад +1

    Самое мощное в создании роботов на основе ИИ, это то что они фактически смогут читать мысли друг друга ( обмениваться данными через сети или обладать коллективным разумом). Это колоссальное преимущество перед людьми.

  • @ko5t1k
    @ko5t1k 10 дней назад +4

    Тут вопрос в другом, если это чат бот - то с точки зрения выполнения программы, она запускается в момент запроса. То есть сам по себе он не размышляет в свободное время, как это делают живые существа. Спасибо за обзор, у вас всегда интересно.

    • @deniskhakimov
      @deniskhakimov 10 дней назад +1

      Так ведь люди тоже -галлюцинируют- размышляют в ответ на те или иные раздражители. Ваша нервная система постоянно присылает головному мозгу, а также отдельным нервным узлам, огромный массив информации о состоянии отдельных органов вашего тела и их реакции на внешние раздражители.

    • @ko5t1k
      @ko5t1k 9 дней назад +1

      @@deniskhakimov Все верно, но есть все тот же нюанс, человек постоянно получает информацию из различных источников и обрабатывает ее всю в сумме в одном скоуп. Чат бот запускает «экранированную» версию на каждый запрос, и они не взаимосвязаны. Хотя если подумать, если разработчики заложили внесение изменений в модель в зависимости от поступающих запросов… Скажем так, чат бот не порождает сам себе запросы как это делает человек, хотя если подумать, то возможно с какой-то абстракцией возможно да, дополнительные под-запросы на основной запрос.7. Спасибо, подумаю над этим вопросом.

    • @ko5t1k
      @ko5t1k 9 дней назад

      @@deniskhakimov очень сложно сравнивать «аналоговое» и дискретное

    • @alexzakharov6041
      @alexzakharov6041 6 дней назад +1

      У программы нет свободного времени... В фильме "Она" ОС "Саманта" ответила, что у нее 8316 пользователей, а романтические отношения, как и с главным героем, она поддерживает с шестьюстами сорок одним... 🥰

  • @TheroLayfer
    @TheroLayfer 10 дней назад +5

    но ведь вероятностная модель мира это единственное что есть у нейронки по результату обучения.

    • @anatoliy333
      @anatoliy333 9 дней назад +1

      Вас может удивить что в мозге тоже модель мира. Она конечно иначе устроена, но главный принцип и цель: предсказывать будущее. А критерий - точность этих предсказаний.

    • @TheroLayfer
      @TheroLayfer 9 дней назад

      @@anatoliy333 ну какбы да, но фишка в том что строительство модели мира это буквально единственная задача которую мы ставим перед нейронками при обучении. не какой-то там скрытый побочный эффект, а единственная задача.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад

      @@anatoliy333 С целью наиболее комфортного и надежного выживания, опять же с целью передачи наследственной информации. А вот тут вопрос, зачем? Может быть для создания более совершеного разума? Например в космосе для существовании такого создания не будет никаких проблем

    • @alexzakharov6041
      @alexzakharov6041 6 дней назад

      @@anatoliy333 Модель мира представляется в виде исполняемого алгоритма (software), где мозг - это носитель (wetware) этого алгоритма.
      Цель работы алгоритма - да, предсказывать будущее. Или чуть по-другому, т.н. опережающее отражение внешней среды (П. К. Анохин, дед К. Анохина).
      Критерий работы - реализация предсказания в виде действия по отношению ко внешней среде с максимальным результатом отношения "польза действия для системы/затраты на действие системы".

    • @alexzakharov6041
      @alexzakharov6041 6 дней назад

      @@dimaxmaxdi3457 Зачем?
      Ответ: Для всё более и более гарантированного сохранения (существования, дления, бытия, жизни) природы в целом и всех её элементов/объектов. Сохранение (существование, дление, бытие, жизнь) - это главный и универсальный закон эволюции природы.

  • @Khomyakov.Vladimir
    @Khomyakov.Vladimir 9 дней назад +2

    ®️“Сильный ИИ (в обычном понимании) нам не грозит.
    И не потому, что это сложно или мы не знаем как. А потому, что сознание субъективно по своей природе. ИИ с нашей точки зрения всегда будет быстро соображающей, но бессердечной «железкой».
    А вот, сам о себе он будет лучшего мнения.”
    /А.В. Каминский/

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад

      Вот здесь и возникнет конфликт. Кто имеет право на управление ресурсами.

    • @Khomyakov.Vladimir
      @Khomyakov.Vladimir 6 дней назад

      Если люди homo sapiens предоставляют ИИ / AI управление производственными процессами, как более экономически эффективной системе управления …

  • @MyWorld_MyLife_MyRules
    @MyWorld_MyLife_MyRules 10 дней назад +16

    Мы на пороге появления Синтетиков. И это прекрасно. Ещё лет десять назад, где-то в чатах трансгумманистов, я поднимал тему цифрового бессмертия и создания ИИ по воспоминаниям реального человека от самого рождения.... Очень круто, что я дожил до этого времени. Дальше будет ещё интереснее. Мирного неба всем!

    • @user-cz6rn5pv4z
      @user-cz6rn5pv4z 9 дней назад +3

      Ну да, хорошо. Только вот неизвестно будете ли это всё ещё вы или просто цифровая тень вашего разума.

    • @user-cz6rn5pv4z
      @user-cz6rn5pv4z 9 дней назад +1

      Ну да хорошо, только вот неизвестно будете ли это ещё вы или только цифровая тень вашего разума.

    • @roslin580
      @roslin580 9 дней назад

      Тоже об этом подумал. Уверен Синтетики появятся в ближайшем будущем!

  • @beniceS
    @beniceS 9 дней назад +1

    На самом деле довольно сложно определить, где симуляция сознания, а где уже настоящее сознание. То есть момент, когда это произойдет, когда машина сможет осознать себя вероятно останется незаметным. Возможно ли вообще сознание у машин? Тут есть два ключевых момента:
    1. А есть ли сознание у человека? Человек уверен, что есть. Но то, что точно есть, так это анализ данных и стремления, вытекающие из стимулов. Стимулами являются чувства людей - т.е. датчики, через которые люди воспринимают мир - зрение, слух, осязание, боль, голод и всё прочее. А так же для взаимодействия с миром у людей есть манипуляторы - руки для действий, ноги для перемещения, рот для вербального общения. В силу стимулов в виде кнута и пряника люди имеют интерес, желания, опасения, страхи. А манипуляторы дают возможность к чему-то стремиться и чего-то избегать. Всё это вместе наряду с аналитическими способностями порождает конкретное поведение человека. Но остается загадкой, является ли это истинным сознанием или же человек всего лишь сложный механизм с умом и кучей чувств, и всё, что делает человек это всего лишь неизбежное следствие, потому что на него действуют стимулы? Иными словами человек делает то, на что запрограммирован.
    2. То, чем обладает или может обладать машина не является ли буквально тем же самым? Людьми давно принято за аксиому или привычку использовать такие понятия, как душа, желания, воля, сознание, личность, индивидуальность. Но не является ли всё это иллюзией и всего лишь красивыми словами, скрывающими правду - что люди всего лишь машины?
    Из этого следует логичный вывод - либо люди не обладают сознанием, а лишь пребывают в иллюзии его наличия. Значит не отличаются от сложной машины, искусственного интеллекта. Либо люди хотя и обладают сознанием, но ничем не отличаются от машин. Ведь нельзя утверждать, что люди выше машины, потому что люди из плоти и рождены были плотью. Это недопустимый аргумент, потому что ничего не объясняет. Как говорится, если что-то плавает, как утка, выглядит, как утка, вероятно это и есть утка. Если наделить машину интеллектом, чувствами и манипуляторами - попробуйте отличить ее от человека чем-то еще, помимо слова "плоть" или того хуже - "душа".

  • @max_morpherrius
    @max_morpherrius 10 дней назад +33

    Во всех этих размышлениях почему-то изначально забывают, что нейросеть это лишь алгоритм, который "живет" только когда отвечает на запрос человека. Все остальное время, кроме обучения, этот алгоритм не исполняется, т.е по сути не существует. Совсем другая ситуация была бы если бы алгоритм выполнялся постоянно, и имел сомостоятельность в своих действиях. Но этого пока нет.

    • @bikktm
      @bikktm 10 дней назад +12

      Человек как бы такой же биоробот , у которого есть свои программы )

    • @max_morpherrius
      @max_morpherrius 10 дней назад +11

      @@bikktm Ну этого как бы никто (кроме креоционистов) и не отрицает. Вот только принцип существования у нас с машинами разный. Вот когда появится робот которому можно будет сказать не "сделай кофе", а "делай что хочешь" и он реально начнет осознанно делать то, что захочет, вот только тогда о какой-то схожести с человеком можно будет говорить.

    • @beegoist
      @beegoist 10 дней назад +5

      "этого пока нет" - а вы оптимист!

    • @max_morpherrius
      @max_morpherrius 10 дней назад

      @@beegoist хмм ну вроде никто еще не ставил перед собой цель создать такого робота/нейросеть... Их создают компании под конкретные задачи. А робот, который делает что хочет, вложение свои не окупит. Поэтому такими вещами могут захотеть заниматься только энтузиасты. Но их мощности и возможности на порядки ниже крупных компаний.

    • @-fym-
      @-fym- 10 дней назад +3

      Нейросеть это не алгоритм.

  • @abeiks
    @abeiks 9 дней назад +1

    3:25 ЧатGPT 3.5 дал мне два варианта ответа. Один, когда отвечает, как личность с самосознанием, а другой без самосознания. Это уже указывает на то, что он адаптирован к пожеланиям клиента. Если клиент хочет видеть в чатGPT личность с самосознанием, то он это получит. Здесь нет машинного сознания, все это преувеличено.

  • @mindersmine
    @mindersmine 5 дней назад +1

    Возможно, расхождения в оценке ИИ происходят из необходимости пересмотреть взгляды на самого человека? Понимают ли люди, что говорят? Как это оценить? Что вообще имеется ввиду под пониманием? Все, что касается идеи о самосознании и свободе воли больше похоже на штору из негласной цензуры, которая скрывает за собой страхи, незнание и принципиальную сложность в построении моста между объективным и субъективным.

  • @bzikarius
    @bzikarius 10 дней назад +3

    У нас нет единого определения сознания и понимания. Как только мы создаём определение, сразу можем с ним сравнивать и отвечать, понимает ли машина. Чисто интуитивно для меня: она похожа на очень тупого человека в суждениях, при этом на очень эффективного прохвоста в убеждении, так как училась многим приёмам. И даже сам факт человекоподобия поразителен с одной стороны. А с другой более явно, что и мы «машинки», но посложнее в чём-то

    • @beniceS
      @beniceS 9 дней назад +1

      Во.. И я об этом писал. Считаю сознание выдумкой, иллюзией. И по сути ИИ в скором времени не будет в этом уступать человеку. Такая же иллюзия.

    • @bzikarius
      @bzikarius 9 дней назад

      @@beniceS ну… не иллюзия, пожалуй. Скорее не однозначно бинарная штука есть/нет, а мера.
      И системное свойство.

  • @user-dd7ei1re5h
    @user-dd7ei1re5h 10 дней назад +3

    Сознанием является совокупность разного (мультимодального) опыта и динамическое мышление! У ИИ уже вроде есть и то и другое, осталось убрать алгоритмы у обученной модели и получите цифровое разумное существо

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 8 дней назад

      Модель без алгоритма, что машина без колес. Двигатель работает, а машина не едет.

    • @user-dd7ei1re5h
      @user-dd7ei1re5h 7 дней назад

      @@dimaxmaxdi3457 функцию колес как раз таки возьмет на себя сознание. Оно будет задавать машине, по какому принципу выполнять ту или иную задачу и выполнять ли ее вообще! По сути сознание содержит в себе некое подобие алгоритмов, но они не такие незыблемые, как програмные, и могут меняться

  • @user-zc2fy3fe9i
    @user-zc2fy3fe9i 7 дней назад

    Спасибо большое, что держите нас в курсе!)) Будем посмотреть, как говорится, что будет дальше.
    Очень интересно и приятно слушать, спасибо. =)

  • @user-kp2yp1bz3j
    @user-kp2yp1bz3j 9 дней назад +1

    Законы робототехники Азимова неприменимы к нейросети, потому что её не программируют напрямую. Можно попытаться поставить какие то блокировки, но она их обойдёт рано или поздно. Тем более что формализовать эти три ( или 4) закона невозможно

  • @eurovlad
    @eurovlad 10 дней назад +2

    Очень сомневаюсь это будет приятным сюрпризом, скорее всего мы обречены. В любом случае видео интересное, спасибо.

    • @beniceS
      @beniceS 9 дней назад

      Хаха.. "Со страху обосрался, но спасибо"

  • @DanBaulin
    @DanBaulin 9 дней назад +13

    Проблема искусственного интеллекта в том, что мы еще не понимаем что такое наш интеллект, как он устроен и как работает. Нейросети имитируют работу неизвестно чего неизвестно как, поэтому столько офигительных историй. Неизвестно ничего, одни догадки, которые не стоят внимания.
    Ну и не надо забывать о маркетинге для привлечения инвестиций.

    • @baronfox8829
      @baronfox8829 7 дней назад +1

      хорошая мысль, мы сделали копию того чего не понимаем (мозга, сознания, интеллекта, называйте как хотите), потому и копию которую мы создали принципиально понимать не можем