Искусственный интеллект учится самопожертвованию

Поделиться
HTML-код
  • Опубликовано: 22 окт 2024

Комментарии •

  • @TrishkaBum
    @TrishkaBum 3 года назад +237

    Фри хандрет бакс :D

    • @игрывитяноса
      @игрывитяноса 3 года назад +6

      неожиданно

    • @vsevkur
      @vsevkur 3 года назад +5

      @Asenstiven Odin Other Просто Тришка иногда научпоп смотрит
      Она и у Онигири появлялась, и у foo52ru, и у Пайпа

    • @ecartelement
      @ecartelement 3 года назад +2

      Все больше нового узнаю о Тришке))

    • @ydua
      @ydua 3 года назад

      Че за нн с галкой

    • @vsevkur
      @vsevkur 3 года назад +3

      @@ydua теоретик по Андеру и другим играм

  • @Devil-so2kq
    @Devil-so2kq 3 года назад +376

    Все как в жизни : кто то первый решает жертвовать собой, а второй лишь пожинает плоды не желая что-то менять.

    • @stalker32041
      @stalker32041 3 года назад +52

      А нет в этой симуляции ничего после смерти, кроме нового цикла. Два ИИ и знать не знают другого. Цикл ИИ заканчивается после смерти. И только воля случая дала вкусить одному из персонажей, что такое самопожертвование. Другой лишь делает что должен, он не знает, - нет способа украсть деньги себе, нет ничего кроме цели закончить начатое.

    • @jusjtdigit6724
      @jusjtdigit6724 3 года назад +2

      Ты гегий

  • @MrUthasaur
    @MrUthasaur 3 года назад +192

    Надо было добавить награду за скорость самопожертвования, из за этого жертвой был бы не только мелкий, а тот кто ближе ко врагу

    • @walk4839
      @walk4839 2 месяца назад +12

      Скорее штраф за бездействие

    • @MrUthasaur
      @MrUthasaur 2 месяца назад +5

      @@walk4839 тоже как вариант

  • @4elblend
    @4elblend 3 года назад +308

    *самопожертвование Тони Старка нервно курит в сторонке*

  • @sinonim9273
    @sinonim9273 3 года назад +126

    Сценарий сделал какой-то slave, которому заплатили 3 hundred bucks

    • @maffialnor
      @maffialnor 3 года назад

      Именно так и родились dungeon masters

    • @Sharada38
      @Sharada38 3 года назад

      300

  • @ArchaeologistCDitDZ
    @ArchaeologistCDitDZ 3 года назад +144

    Чел проработай модельки Билла и Вана, их враги такие эпичные, а они просто голышом ходят

    • @Drakonita_96
      @Drakonita_96 3 года назад +5

      @@electroultra8544 по моeму с минимализмом ужe пeрeбор)

    • @Hell_Serpent
      @Hell_Serpent 3 года назад +14

      @@Drakonita_96 согласен. Хотя бы маску им одеть.

    • @markova77elena
      @markova77elena 3 года назад

      Лайк за название канала.

    • @markova77elena
      @markova77elena 3 года назад

      Не глядя.

  • @masterxoramor1103
    @masterxoramor1103 3 года назад +14

    Пытаясь создать альтруиста
    Случайно породил сата..кхм.. Эгоиста

  • @marmelad8127
    @marmelad8127 3 года назад +67

    Крашер учит ИИ самопожертвованию:
    также ИИ: 5:24

    • @krashher_ai
      @krashher_ai  3 года назад +7

      Ахахкхккх

    • @stalker32041
      @stalker32041 3 года назад +17

      @@krashher_ai в этом случае нужно ввести штраф за рукоприкладство

  • @Abobus-op3mo
    @Abobus-op3mo 3 года назад +23

    Скоро: ИИ учится быть человеком.

    • @ecartelement
      @ecartelement 3 года назад +2

      Детройт:Стать Человеком

    • @Abobus-op3mo
      @Abobus-op3mo 3 года назад

      @@ecartelement Да :000

  • @KPEKEPXUX
    @KPEKEPXUX 3 года назад +15

    Друзья моих знакомых: (моим знакомым) «Я буду за тебя горой!»
    Мои друзья: 5:25

  • @misha279_UA
    @misha279_UA Год назад +4

    2:00 также я который написал нейросеть на scratch

  • @fhantomrive5378
    @fhantomrive5378 3 года назад +33

    Делай видосы почаще! Мы тебя любим))

    • @krashher_ai
      @krashher_ai  3 года назад +12

      Спасибо, и я вас))
      А новый видос прям очень скоро будет, я уже нейросеть доделал, сейчас с монтажом запарюсь и где-то к четвергу будет)

    • @fhantomrive5378
      @fhantomrive5378 3 года назад +7

      @@krashher_ai Спасибо, у вас очень качественный контент!

    • @shadow_blader192
      @shadow_blader192 3 года назад +5

      @@krashher_ai Это правда ты крутой (лайк)

    • @Dincap
      @Dincap 2 года назад

      @@krashher_ai У тебя лучший контент!

  • @sandal9405
    @sandal9405 3 года назад +87

    А сделай 1,5 баллов тому кто сбегает с деньгами в красный выход, но потом чтобы какое - то последствие произошло. Думаю было бы интересно

    • @СтасАкс-ы1у
      @СтасАкс-ы1у 3 года назад +3

      угу, отнимание всех денег с определённым шансом

    • @TamirlanVelikii
      @TamirlanVelikii 3 года назад +10

      Вся проблема нейросетей это то что это чистая математика. Если сбегать будет выгодно то он будет сбегать, если же нет то и сбегать не будет. Здесь нет не логичных решений как у людей

    • @StreamMaxim357
      @StreamMaxim357 3 года назад +4

      @@TamirlanVelikii вто время мозг человека которий комп 🙂👍
      Просто нейросеть нужно улутьшить

    • @TerfSt
      @TerfSt 2 месяца назад +1

      ​@@StreamMaxim357мозг это не компьютер. Мозг это высшая нервная система.

    • @StreamMaxim357
      @StreamMaxim357 2 месяца назад +1

      @@TerfSt тот-же комп 🙂 люди не берут инфу из воздуха, они так-же как ИИ учатся... Оценки

  • @leosgrief1084
    @leosgrief1084 3 года назад +40

    Глубокий смысл: Люди предают себе подобных чтобы сделать лучше себе,это показывает данное видео

    • @НеграШ
      @НеграШ 2 года назад +2

      только это не люди

    • @manul_1
      @manul_1 2 месяца назад

      Это робот, который стремится к наилучшему результату. Наоборот людям свойственны нерациональные решения.

    • @Empty-w9l
      @Empty-w9l Месяц назад

      Згоден, ми ні чим не відрізняємся від ШІ, єдине, що він на ранній стадії розробки, а мозок людини створювався віками

  • @maksimrussiangamer2284
    @maksimrussiangamer2284 3 года назад +13

    Ждём обучение WWE и тогда мы увидем настоящих ♂️ Dungeon Master's♂️

  • @яма-л3з
    @яма-л3з 3 года назад +8

    было бы интересно посмотреть на работу ии на примере 10 солдат и что бы некоторые имели какие-то особенности
    как бы они действовали

  • @kot6872
    @kot6872 3 года назад +5

    7:58 забейте - Вен просто клал на всю идею

  • @digroddolbaeb8105
    @digroddolbaeb8105 3 года назад +4

    При настоящем пожертвовании ты теряешь абсолютно все,и не получаешь какие то очки(это если смотреть объективно,а не с точки морали).Они просто научились находить в этой ситуации меньшее из зол ,а чтобы они стали реально заниматься самопожертвованием надо им дать какие то чувства чтобы на основе их решали эту задачу.

    • @digroddolbaeb8105
      @digroddolbaeb8105 3 года назад +1

      @Mqzdc Dpenu наоборот.Вы в примере указали деструктивное решение мозга без получения выгоды.Простите если я вас не так понял.

  • @БейбарысШалдыкенов-в3э

    Внимание: не один искусственный интеллект не постролал

    • @МархаСаипова-з7к
      @МархаСаипова-з7к 3 года назад +5

      Ладно не постралал , а пострадали то сильно

    • @user_without_number
      @user_without_number Месяц назад

      Скажи это тому, кого пинали во врага ради победы
      Без нейропсихолога не обойтись

  • @marmelad8127
    @marmelad8127 3 года назад +5

    Надо будет научить ИИ меняться ролями при надобности (например: что бы пройти в следующею комнату нужно дёрнуть рычаг, но рычаг будет в разных местах например: рычаг может находиться за жалюзи и туда может пройти только Вэн или рычаг может стоять высоко и только Билли до него может дотянутся)

    • @kalyamba777
      @kalyamba777 3 года назад +1

      Так подобное было в серии про побег из тюрьмы.

  • @dzhoni0174
    @dzhoni0174 3 года назад +8

    То чуство что даже ИИ смогли поделить свой обязанности

  • @paperwhite3853
    @paperwhite3853 3 года назад +6

    Хмм... было бы интересно посмотреть если бы штраф для того, кто умирает был не в 2 раза меньше, а на совсем маленькую долю, скажем на 0.01, через сколько ходов бы нейросеть догадалась бы, что лучше пожертвовать собой. Так же можно было бы убирать 0.15 или даже 0.2 очка тому, кто выживает, как дебафф от потери своего.

  • @busy_beaver
    @busy_beaver 3 года назад +3

    Думаю нужно изменить способ обучения нейросети. Ведь когда кто-то жертвовал собой ради победы, то он получал -0.5+1=0.5 очков. А при поражении -0.5. Тут что-то не так. Он должен был обучиться самопожертвованию. Скорее всего дело в том что программа считает что полученный потом 1 очок за победу уже не связян с предыдущим поведением. Я думаю что настройкой обучения нейросети можно сделать чтобы эта связь сохранялась дольше.

  • @altairelder2221
    @altairelder2221 3 года назад +3

    Можно прилумать что нибудь ещё связанное с разделением обязанностей. Всё таки наблюдать обучение делегирации очень интересно

  • @clashpekka2911
    @clashpekka2911 3 года назад +3

    Самый лучший канал по созданиям нейросетей

  • @vsevkur
    @vsevkur 3 года назад +10

    Блин, я только что понял, что Билли и Вэн это Billy Herrington и Van Darkholme

    • @reeky4265
      @reeky4265 3 года назад

      А three hundred bucks это триста долларов дада, все так.

  • @forquest8127
    @forquest8127 3 года назад +6

    А что если сделать не мгновенную смерть, а по ударам. То есть один бьёт грабителя, а урон получает тот кто бил и грабитель. Суть в том чтобы дать шанс выжить обоим героям за счёт чередования их ударов.

  • @zwer721
    @zwer721 3 года назад +4

    Крашер красавчик, даже читает коменты под прошлые видосами

  • @zoodogood
    @zoodogood 3 года назад +2

    Вэн навсегда останется в наших сердцах героем

    • @krashher_ai
      @krashher_ai  3 года назад +1

      Помним, любим, слушаем гачи миксы

  • @_GreyDj_
    @_GreyDj_ 3 года назад +3

    Надо было добавить получение очков за время, без этого им не было смысла спешить, поэтому они вечно тупили

    • @Bam_Byk
      @Bam_Byk 3 года назад +1

      это верно

  • @nightguy1604
    @nightguy1604 3 года назад +2

    Я конечно понимаю что на ролик это не растянуть и что это может быть слишком запарно, но что если добавить 3-й "мозг" для нашего Рикардо чтобы он старался избегать Билли и Вэна, а для честности ( на самом деле для того чтобы Рикардо не забил на главную цель) добавить препятствий в виде маленьких стен и рандомный спавн всех 3-х участников. Как бонус оба выхода будут в одной комнате

    • @наука-у4з
      @наука-у4з 2 месяца назад

      А зачем это про другое.

  • @ntristo
    @ntristo 3 года назад +2

    Крашер: Выпускает классный ролик за которым стоит немалая работа и просит лайкнуть ролик если рубрика нравится.
    Все: Поддержим лайком!
    Какой-то 1 чувак: А не поставить ли дизлайк?

    • @krashher_ai
      @krashher_ai  3 года назад +1

      Ох уж эти австралийские фокусы

  • @KogothLetsPlays
    @KogothLetsPlays 3 года назад +2

    Надо было наказание, за смерти одного и того же участника подряд, увеличивать, чтобы они менялись.

    • @Grizlek
      @Grizlek 3 года назад +1

      Так нельзЯ делать. Каждая попытка не связана с остальными

    • @KogothLetsPlays
      @KogothLetsPlays 3 года назад

      @@Grizlek В том то и дело, из-за того что не связана они и не думают о том что было раньше. Кто запретил так делать? А что если бы в задаче напавший не умирал а ранил себя, и на следующем уровне мог регенерировать если не ранен? Тогда научится подменять друг друга стало бы частью стратегии победы.

  • @kjlehnok.a5935
    @kjlehnok.a5935 3 года назад +3

    Попробуй реализовать кооператив 3-х нейросетей (чем больше людей в одной команде, тем больше балов)
    Через Q обучение

  • @paperwhite3853
    @paperwhite3853 3 года назад +3

    А вообще очень интересно как именно реализуются очки в коде и как именно мы "выдаем" очки или "убираем" в зависимости от результата.

    • @Bam_Byk
      @Bam_Byk 3 года назад

      каждое получение очков даёт нейросети сигнал что она совершила правильное действие, алгоритм анализирует его и делает корректирование в поведении чтобы именно такие действия совершались чаще, с штрафом очков аналогично, другой вопрос в том что человек не сможет просто залезть в мозг нейросети и прочитать её поведение т к оно записывается очень трудно

    • @paperwhite3853
      @paperwhite3853 3 года назад

      @@Bam_Byk оно - то ясно, но мне было интересно как именно мы даем эти очки в виде кода.

    • @bebroff8828
      @bebroff8828 3 года назад +4

      @@paperwhite3853 if (ai == molodec)
      {
      ochki = ochki + 0.5;
      }

    • @Bam_Byk
      @Bam_Byk 3 года назад

      @@paperwhite3853 в виде кода выглядит очень просто а вот какие именно корректировки делает нейросеть мы скорее всего не узнаем т к это черный ящик

    • @paperwhite3853
      @paperwhite3853 3 года назад

      @@bebroff8828 ахахах) неплохо

  • @egor_dmitrievich.8351
    @egor_dmitrievich.8351 Месяц назад

    Надо было ещё посмотреть, что будет, если дать им интерфейс общения и память к прошлым раундам. Договорились бы ли они жертвовать по очереди, чтобы они получали +- одинаковое число очков по итогу. Ну и было бы неплохо им поставить задачу в последней выборке раундов: чем больше очков получит один из них - тот получает «суперприз».

  • @frost0532
    @frost0532 3 года назад +1

    а если в условия добавить к примеру "смерть в бою" - если один толкает другого он получает +0.25, и не убивает соперника, но при этом забирает деньги, а толкнутый получает штраф за смерть, бот сам полетел на врага то он получает + 0.25

  • @skrillexfeed1376
    @skrillexfeed1376 3 года назад

    Нужно было сделать еще два эксперимента, один, где у них обший счет, а другой, где раздельный

  • @sanda3908
    @sanda3908 3 года назад +3

    Спасибо тебе за твои ролики! Это каждый раз такое чудо ^^

    • @krashher_ai
      @krashher_ai  3 года назад +1

      Спасибо большое))

  • @OniGameDev
    @OniGameDev 3 года назад +3

    Отличный ролик. Жду ещё подобных "моральных" дилемм для нейросетей)

  • @teykolar
    @teykolar 3 года назад +3

    Billy не умер... Он просто ♂️Boy Nextdoor♂️

  • @aleksanderalekseenko7836
    @aleksanderalekseenko7836 5 месяцев назад

    Предлагаю попробовать следующий сценарий: сделать подряд несколько сессий. Например изначально нейросети есть по одному баллу. Если баллов не остаётся, то напарник пропадает. Выиграть становится невозможным. Таким образом напарник нейросети будет вынужден начать чередоваться со своим товарищем, если он хочет выиграть, а не уйти в минуса.

    • @aleksanderalekseenko7836
      @aleksanderalekseenko7836 5 месяцев назад

      По идее это должно улучшить командную работу.

  • @Ivan4ik1337
    @Ivan4ik1337 3 года назад +2

    Снимай в том же духе! Видосы класс! Каждый раз мы узнаём что-то новое про поведение неиросетей

    • @krashher_ai
      @krashher_ai  3 года назад +1

      Спасибо большое, рад стараться))

  • @masterxoramor1103
    @masterxoramor1103 3 года назад

    Возможно стоило добавить мини штраф за приближение разбийника к зоне. + штраф/бонус за время: минусы ежесекундные или + к победным очкам за скорость (что бы стремились быстро действовать), хотя остаётся шанс, что это сломает им "психику".

  • @doubleban.
    @doubleban. 2 года назад

    Настоящие dungeon masters, так отважно жертвуют собой ради общего блага)

  • @bebroff8828
    @bebroff8828 3 года назад +1

    Крааааашееееер, а вот что собственно представляют из себя библиотеки Юнити? Типа, они какие то методы добавляют? Где можно почитать о них?

  • @ТемржанБолатбек
    @ТемржанБолатбек 3 года назад +1

    я придумал следующее видео неиросеть учится убивать

  • @us7442
    @us7442 2 месяца назад

    Ну идея классная, но тут и до тестов понятно, что у того кто умер награда больше. Как следствие кто-то из них поймёт это и будет умирать постоянно получая больше награды.

  • @hit8801
    @hit8801 2 года назад

    самый печальный финал, лучше чем в драмах

  • @УльянаХайрулина
    @УльянаХайрулина 3 года назад

    Они научились подставлять...Они научились думать...ОНИ ЖИВЫЕ,БЕГИТЕ!!!

  • @Mzivby
    @Mzivby 2 года назад +1

    было бы круто если бы ты добавил возможность предательства

  • @Senerro
    @Senerro 3 года назад

    Если б убийство своего напарника всё же стало выигрышной стратегией, я бы поверил в живость этого ии))

  • @ДмитрийСтрелк
    @ДмитрийСтрелк 3 года назад +2

    А что если две нейросети будут управлять одним "роботом"? Например один двигает налево и направо, а другой вперёд и назад.

    • @Bam_Byk
      @Bam_Byk 3 года назад +1

      они просто синхронизируются я думаю, например есть люди у которых 2 головы и одно тело редкие ситуации но всё же, и у них как раз управляет голова только своей половиной, вроде живут и даже не плохо

    • @krashher_ai
      @krashher_ai  3 года назад

      Кстати возможно будет так, да, если будет достаточно частей тела, либо действий, чтобы они смогли обязанности разделить

    • @krashher_ai
      @krashher_ai  3 года назад +1

      Задумка интересная блин, спасибо за идею)

  • @patix1197
    @patix1197 3 года назад +1

    Создай ИИ который будет ходить в магазин
    Будет создаваться рандомный список покупок где ИИ должен выбирать их, НО если ИИ не пройдёт кассу а сразу побежит к выходу то ему потратят очки
    Если он доберётся до кассы и пойдёт на выход то он получит очки
    Если ты сделаешь это то назови пожалуйста персонажа Глеб, просто так

  • @press_f
    @press_f 2 месяца назад

    Мы сдругом решаем заняться каким-то делом
    Он: какие мы молодцы, даже обязанности между собой поделили
    Также как мы поделили обязанности: 7:54

  • @cachatt
    @cachatt 3 года назад +6

    А будет ролик, где ии решает моральные задачи типа задачи с неуправляемой вагонеткой?

    • @ーーーーーー-g2b
      @ーーーーーー-g2b 3 года назад +2

      А разве всё зависит не от того сколько баллов ему дают? Если дают за спасение того или иного количества людей меньше чем штраф за убийство то ИИ будет выбирать всегда только тот вариант при котором он получает больше чем теряет. Например если обмен двоих спасённых на одного убитого будет не выгодным, то он будет бездействовать, но с теми же числами за спасение но уже с 10 людьми он решит что их спасение даёт больше баллов чем штраф за убийство одного, соответственно сделает выбор в их сторону. Конечно это только в рамках этого метода обучения ИИ, но кажется с другими видами обучения ситуация не сильно отличается.

  • @alex_verb
    @alex_verb 3 года назад +1

    Ну чето как-то костыльно. Ну что ж, отрицательный результат - тоже результат.

  • @gohhogtor
    @gohhogtor 3 года назад

    Попробуй сделать, чтобы трупу не давали "баллы". Очень жду

  • @nikitaustinov1164
    @nikitaustinov1164 3 года назад

    Больше таких видео!!) ну и код бы ещё у нему)

  • @zwer721
    @zwer721 3 года назад +4

    Не ну били вообще ничего так устроился, мне бы так жить

  • @burtcurtis2336
    @burtcurtis2336 3 года назад

    5:14 лучший союзник

  • @PadreZadrot
    @PadreZadrot Год назад

    Что бы нейросеть не действовала по одной тактике то система штрафа должна умножаться, за серию ошибок больше штраф. За предательство также должен быть штраф чуть ниже смерти, но увеличивающийся при серии. Смерть должна быть чуть более выше чем отпустить преступника, но при увеличении штрафа отобьёт желание каждый раз отпускать преступника и серия штрафов должна обнуляться если ии выигрывает по другой тактике.
    В общем опыт слишком линеен и не сильно дает другого выбора для ИИ, это не самопожертвование, а просто поиск простого пути. По сути ии не выбирает жертвовать собой или нет, она делает то что принесёт больше очков, но при более детальном продумывании, тактики всегда будут меняться.
    P.s. в конце концов конечно все равно появится лишь одна тактика, но так интереснее)

  • @leorid6223
    @leorid6223 3 года назад

    Я бы доработал карту, создавая условия, когда убить врага может только один

  • @triksterlxxl8323
    @triksterlxxl8323 3 года назад

    Мне кажется данный эксперимент раскрывает проблему, которую в будущем придётся решать с ии роботов, ведь в будущем получается есть вероятность, что ии сможет подвергать опасности человека для достижения своей цели.

  • @loner9692
    @loner9692 3 года назад +1

    Надо было сделать еще так чтобы награду получал только тот к то её донес. Ну или кто донес получался бы больше награду. Интересно как бы она начали конкурировать)

    • @Bam_Byk
      @Bam_Byk 3 года назад +2

      фактически тот кто нёс деньги и так получал больше очков, у него же не было штрафа на убийство

  • @МихаилДехнич-щ6д
    @МихаилДехнич-щ6д 3 года назад +2

    А что будет если повысить штраф за невыполнение задачи? А за смерть вернуть на 0,5

  • @Alexandr_Naumow
    @Alexandr_Naumow 3 года назад

    Ну прям Вдова и соколиный глаз....

  • @electroultra8544
    @electroultra8544 3 года назад

    Обучи неиросеть предательству главное правило чем меньше персонажей дошло до финиша тем больше награда интересно будет ли неиросеть устронять конкурентов или решит поделиться наградой с другими

  • @ЛарионШтапов
    @ЛарионШтапов 3 года назад +2

    А что если сделать эволюцию существ в 3D масштабе, что боты сами выбирали эволюцию на пример добавочную конечность или рост или корпус но они были бы в разных условиях

    • @paperwhite3853
      @paperwhite3853 3 года назад +1

      Это очень труднореализуемо.

    • @bebroff8828
      @bebroff8828 3 года назад +1

      @@paperwhite3853 это скорее труднооптимизируемо

    • @Bam_Byk
      @Bam_Byk 3 года назад +1

      на самом деле даже 2д существа не реализовали в полной мере (только с эволюционирующими клеточками), а ты уже про 3д говоришь

    • @cobaka3laya
      @cobaka3laya 3 года назад +1

      @@paperwhite3853 ИИ само по себе труднореализуемо.

  • @SamvelAleqo
    @SamvelAleqo 3 года назад

    Крутой контент,снимай чаще💪

  • @Stepan_Pavlov
    @Stepan_Pavlov 3 года назад +1

    Следующее видео: ИИ учиться чувствовать

    • @АртемПротопопов-ч4о
      @АртемПротопопов-ч4о 3 года назад

      Чувствовать касание 🗿

    • @Stepan_Pavlov
      @Stepan_Pavlov 3 года назад +1

      @@АртемПротопопов-ч4о нет, я про эмоциональную состовляющую, просто не знал как написать по другому

  • @javohirberdiyev1024
    @javohirberdiyev1024 3 года назад

    можешь в следующем абсолютно в любом эксперименте создать условие, за минимальное движение... то есть сдвиг на один пиксель это один шаг, а 10000 шагов это -1 балл.

  • @legenda_aprela9670
    @legenda_aprela9670 2 месяца назад

    Может я где то не прав, но именно это «самопожертвования» слегка озадачивает, ясное дело что в видео используются очень слабые ИИ, но вот что было бы если у 2 ИИ высоко уровня имеющие самоосознаность стоял выбор, которые знают насколько они перспективны и что каждый даже по отдельности подтолкнет человечество к быстрому развитию пришлось бы делать выбор « Либо кто то жертвует собой и другой ИИ остается жив и дальше работает на благо всем, либо же они оба отказываются, но в случае отказа оба погибают(ИИ не знает последствия отказа) ». Стал ли бы кто то из них жертвовать собой да бы другой процветал? Конечно то что друго выжил даст свои плоды, но жертва выбора рискует потерять все. Стал ли бы ИИ с уровнем сознания близким человеку жертвовать, или бы боялся смерти?

  • @ForseNight
    @ForseNight Месяц назад

    Супергероика нейросетей ?)

  • @Самосвал-ычь
    @Самосвал-ычь 3 года назад

    А если добавить ещё одну нейросеть которая будет мотивировать скорость действовать хоть как-то ,например вор получает за каждую удачную попытку убежать (+0.1) плюсы ,а Били и Вен наоборот получают минус (-0.1) из полного цикла обучения ,(за первый цикл игры если выиграл Били и Вен (общий щёт у них 2-их 1.5) это рассуждения к тактике с предательством )

  • @voblik3862
    @voblik3862 2 месяца назад

    по приколу бы нейронку врагу, были бы догонялки, а наших двое так что была бы тактика у них, так ещё и с самопожертвованием

  • @Dmitry_Grachiev
    @Dmitry_Grachiev 2 месяца назад

    Модель, где штраф за поражение равен штрафу за смерть довольно жизнеспособная и со временем они должны понять, что если перейти их "островок безопасности", то в итоге они получат большую награду, при чём даже если штраф за смерть будет больше чем за поражение и конечно меньше чем награда за общую победу. Почему вечно эти видео с ИИ не могут развить идею до конца? Было бы намного интереснее чем этот кастыль с дешёвой смертью.

  • @Hadnop-y1n
    @Hadnop-y1n 2 года назад

    Тест Камски.
    Способна ли машина к эмпатии?

  • @4elowww742
    @4elowww742 3 года назад

    Я ожидал того чтобы они дург друга толкали на врага

  • @Ler4eg_0ff
    @Ler4eg_0ff 2 месяца назад

    Пересмотрю видос когда будет японская звуковая дорожка

  • @PiratVetrov
    @PiratVetrov 3 года назад +1

    Крутое видео, не буду писать идею 3 раз подрят.

    • @krashher_ai
      @krashher_ai  3 года назад +1

      Я все идеи читаю и выписываю себе/скриню обычно, поэтому спасибо)

    • @PiratVetrov
      @PiratVetrov 3 года назад

      @@krashher_ai Спасибо, надеюсь у тебя будет много подписчиков, годные видосы делаешь.

  • @vladimirsergeevich9788
    @vladimirsergeevich9788 3 года назад

    кто выжил и вернул деньги на место, ему нужно было сделать меньше бонус на эти ,25 очка и тоже посмотреть что бы вышло

  • @ZxcSadGhoul
    @ZxcSadGhoul 2 месяца назад

    Если хорошенько подумать мы стремимся в какую-то антиутопию. Сейчас И учат писать книги и рисовать картины, а люди копают шахты по 10 часов в сутки с 1 выходным за минимальную зарплату.
    И мы никогда не узнаем когда ИИ обретёт разум. Это вам не терминатор который в фильме как черепаха бегал и использовал лишь пули. разумный ИИ будет считать нас конкурентом за планету, и если мы не поймем что оно разумно достаточно рано никакие программы нас не спасут. ИИ достаточно лишь отрубить интернет и тогда мы уже перебиваем друг друга за 30 лет.
    По сути своей разумный ИИ это совершенно новый разумный вид и он может быть намного непредсказуемое и опаснее чем вы думаете. Мы никогда не сможем себе его представить.
    Как альтернатива робототехники и программирования нейросетей есть генная инженерия. Это очень интересная наука, и если мы достаточно разберёмся как работает наш мозг и как строится геном это откроет нам воистину многое. Если по простому геном это как флешка с виндой которая говорит пк как и куда устанавливать винду. Гены используются как чертежи по которым строится эмбрион и дальнейшее тело. Если понять как именно информация закодирована можно не только лечить болезни, а полностью менять строения тела или создавать совершенно новые виды. От биологического компьютера до живых танков если дать достаточно питательных веществ. Звучит странно но не менее интересно.

  • @rikimaru008
    @rikimaru008 3 года назад

    надо было сделать , что-бы если тшраф уходил в - баланса , до штрафует в 2 раза сильнее , дабы они поочерёдно жертвовали собой

  • @zakdak542
    @zakdak542 3 года назад +1

    Здесь должен быть мем про ДИМОН!!!!та да дан

  • @всевышнилучезарный
    @всевышнилучезарный 3 года назад +2

    По моему искусственный интеллект не знает про смерть и просто лезет в драку)

  • @ShortClipsHub-228
    @ShortClipsHub-228 2 месяца назад

    надо было сделать еще один счетчик - общая сумма очков. Тогда бы при смерть = поражение кто-нибудь бы пожертвовал собой

  • @q_prosto
    @q_prosto 3 года назад +1

    не нужно было добавить два портала в которые можно отнести деньги после самопожертвования но один это типо искушение оставить себе а другой вернуть обратно

  • @mc-nitaygkey2229
    @mc-nitaygkey2229 3 года назад

    попробуй прописать код на очки за выживание чтобы была мотивация жить

  • @belxsi
    @belxsi 3 года назад

    Ожидание приводит к выходу твоего ролика🤔

    • @krashher_ai
      @krashher_ai  3 года назад

      А лайки делят время ожидания пополам🤔

  • @defraynt
    @defraynt 3 года назад

    При условиях того, когда смерть отнимает 0,5 очков у "пушечного мяса", а победа Б&В дает обоим 1 очко, было бы круто, если бы Б&В имели, как личный счётчик очков, так и общий, в которой каждый из 10 раундов бы добавлялось по 50% от текущего счета каждого. Сбежавший враг же получает 3,8 очков за раунд. Победа присуждается только тогда, когда герои имеют на общем счете больше очков чем враг.
    Изменили бы они тогда свою тактику?

  • @KamikotoroZ
    @KamikotoroZ 3 года назад

    Один ИИ пришел к тому что умереть и потерять 0,25 лучше чем 0.5
    Второй же вообще вышел из системы - он лишь знал что если поднимет заначку - то получит 1.
    Это не разделение обязанностей и самопожертвование.
    Думаю в идеале было бы если бы они пришли к тому чтобы умирать по очереди. Так они оба бы выигрывали меньшую часть...
    Однако оба 100% получали бы хоть сколько-то.
    Жаль конечно. Но они все же поступают как люди.

  • @soda77766
    @soda77766 2 месяца назад +1

    3 года...

  • @mr-listochek
    @mr-listochek 3 года назад +1

    Нужно было зделать так чтобы когда один умирал другой получал очки

  • @leapher
    @leapher 3 года назад

    Ждём перестрелку двух ботов))

  • @STALKERDAN-lf7hj
    @STALKERDAN-lf7hj 3 года назад +1

    Сделай нейросеть которая будет играть в CS GO

  • @gtv377
    @gtv377 2 месяца назад

    Рикардо😮 до чего ты опустился...

  • @cshighlights2452
    @cshighlights2452 3 года назад

    С каких пор рикардо потребовалось 300$? Я думал для него фистинг в dungeon бесплатный

    • @krashher_ai
      @krashher_ai  3 года назад

      Он украл их для своих fucking slaves

  • @cosmosgames6978
    @cosmosgames6978 3 года назад

    Пожалуйста сделай сражения ботов на мечах.

  • @absdef9094
    @absdef9094 3 года назад

    но это ведь все равно не тот результат, который хотелось. По сути, нейронка выбирает меньшее из двух зол - лучше получить -0.25, чем -0.5. Косяк в том, что нейронка не понимает, что после смерти она получит +баллы.

    • @orgax
      @orgax 2 года назад

      > что после смерти она получит +баллы.
      Лол что?

    • @absdef9094
      @absdef9094 2 года назад

      @@orgax я бы объяснил что имел в виду, но я уже забыл этот видос