А нет в этой симуляции ничего после смерти, кроме нового цикла. Два ИИ и знать не знают другого. Цикл ИИ заканчивается после смерти. И только воля случая дала вкусить одному из персонажей, что такое самопожертвование. Другой лишь делает что должен, он не знает, - нет способа украсть деньги себе, нет ничего кроме цели закончить начатое.
Вся проблема нейросетей это то что это чистая математика. Если сбегать будет выгодно то он будет сбегать, если же нет то и сбегать не будет. Здесь нет не логичных решений как у людей
При настоящем пожертвовании ты теряешь абсолютно все,и не получаешь какие то очки(это если смотреть объективно,а не с точки морали).Они просто научились находить в этой ситуации меньшее из зол ,а чтобы они стали реально заниматься самопожертвованием надо им дать какие то чувства чтобы на основе их решали эту задачу.
Надо будет научить ИИ меняться ролями при надобности (например: что бы пройти в следующею комнату нужно дёрнуть рычаг, но рычаг будет в разных местах например: рычаг может находиться за жалюзи и туда может пройти только Вэн или рычаг может стоять высоко и только Билли до него может дотянутся)
Хмм... было бы интересно посмотреть если бы штраф для того, кто умирает был не в 2 раза меньше, а на совсем маленькую долю, скажем на 0.01, через сколько ходов бы нейросеть догадалась бы, что лучше пожертвовать собой. Так же можно было бы убирать 0.15 или даже 0.2 очка тому, кто выживает, как дебафф от потери своего.
Думаю нужно изменить способ обучения нейросети. Ведь когда кто-то жертвовал собой ради победы, то он получал -0.5+1=0.5 очков. А при поражении -0.5. Тут что-то не так. Он должен был обучиться самопожертвованию. Скорее всего дело в том что программа считает что полученный потом 1 очок за победу уже не связян с предыдущим поведением. Я думаю что настройкой обучения нейросети можно сделать чтобы эта связь сохранялась дольше.
А что если сделать не мгновенную смерть, а по ударам. То есть один бьёт грабителя, а урон получает тот кто бил и грабитель. Суть в том чтобы дать шанс выжить обоим героям за счёт чередования их ударов.
Я конечно понимаю что на ролик это не растянуть и что это может быть слишком запарно, но что если добавить 3-й "мозг" для нашего Рикардо чтобы он старался избегать Билли и Вэна, а для честности ( на самом деле для того чтобы Рикардо не забил на главную цель) добавить препятствий в виде маленьких стен и рандомный спавн всех 3-х участников. Как бонус оба выхода будут в одной комнате
Крашер: Выпускает классный ролик за которым стоит немалая работа и просит лайкнуть ролик если рубрика нравится. Все: Поддержим лайком! Какой-то 1 чувак: А не поставить ли дизлайк?
@@Grizlek В том то и дело, из-за того что не связана они и не думают о том что было раньше. Кто запретил так делать? А что если бы в задаче напавший не умирал а ранил себя, и на следующем уровне мог регенерировать если не ранен? Тогда научится подменять друг друга стало бы частью стратегии победы.
каждое получение очков даёт нейросети сигнал что она совершила правильное действие, алгоритм анализирует его и делает корректирование в поведении чтобы именно такие действия совершались чаще, с штрафом очков аналогично, другой вопрос в том что человек не сможет просто залезть в мозг нейросети и прочитать её поведение т к оно записывается очень трудно
Надо было ещё посмотреть, что будет, если дать им интерфейс общения и память к прошлым раундам. Договорились бы ли они жертвовать по очереди, чтобы они получали +- одинаковое число очков по итогу. Ну и было бы неплохо им поставить задачу в последней выборке раундов: чем больше очков получит один из них - тот получает «суперприз».
а если в условия добавить к примеру "смерть в бою" - если один толкает другого он получает +0.25, и не убивает соперника, но при этом забирает деньги, а толкнутый получает штраф за смерть, бот сам полетел на врага то он получает + 0.25
Предлагаю попробовать следующий сценарий: сделать подряд несколько сессий. Например изначально нейросети есть по одному баллу. Если баллов не остаётся, то напарник пропадает. Выиграть становится невозможным. Таким образом напарник нейросети будет вынужден начать чередоваться со своим товарищем, если он хочет выиграть, а не уйти в минуса.
Возможно стоило добавить мини штраф за приближение разбийника к зоне. + штраф/бонус за время: минусы ежесекундные или + к победным очкам за скорость (что бы стремились быстро действовать), хотя остаётся шанс, что это сломает им "психику".
Ну идея классная, но тут и до тестов понятно, что у того кто умер награда больше. Как следствие кто-то из них поймёт это и будет умирать постоянно получая больше награды.
они просто синхронизируются я думаю, например есть люди у которых 2 головы и одно тело редкие ситуации но всё же, и у них как раз управляет голова только своей половиной, вроде живут и даже не плохо
Создай ИИ который будет ходить в магазин Будет создаваться рандомный список покупок где ИИ должен выбирать их, НО если ИИ не пройдёт кассу а сразу побежит к выходу то ему потратят очки Если он доберётся до кассы и пойдёт на выход то он получит очки Если ты сделаешь это то назови пожалуйста персонажа Глеб, просто так
А разве всё зависит не от того сколько баллов ему дают? Если дают за спасение того или иного количества людей меньше чем штраф за убийство то ИИ будет выбирать всегда только тот вариант при котором он получает больше чем теряет. Например если обмен двоих спасённых на одного убитого будет не выгодным, то он будет бездействовать, но с теми же числами за спасение но уже с 10 людьми он решит что их спасение даёт больше баллов чем штраф за убийство одного, соответственно сделает выбор в их сторону. Конечно это только в рамках этого метода обучения ИИ, но кажется с другими видами обучения ситуация не сильно отличается.
Что бы нейросеть не действовала по одной тактике то система штрафа должна умножаться, за серию ошибок больше штраф. За предательство также должен быть штраф чуть ниже смерти, но увеличивающийся при серии. Смерть должна быть чуть более выше чем отпустить преступника, но при увеличении штрафа отобьёт желание каждый раз отпускать преступника и серия штрафов должна обнуляться если ии выигрывает по другой тактике. В общем опыт слишком линеен и не сильно дает другого выбора для ИИ, это не самопожертвование, а просто поиск простого пути. По сути ии не выбирает жертвовать собой или нет, она делает то что принесёт больше очков, но при более детальном продумывании, тактики всегда будут меняться. P.s. в конце концов конечно все равно появится лишь одна тактика, но так интереснее)
Мне кажется данный эксперимент раскрывает проблему, которую в будущем придётся решать с ии роботов, ведь в будущем получается есть вероятность, что ии сможет подвергать опасности человека для достижения своей цели.
Надо было сделать еще так чтобы награду получал только тот к то её донес. Ну или кто донес получался бы больше награду. Интересно как бы она начали конкурировать)
Обучи неиросеть предательству главное правило чем меньше персонажей дошло до финиша тем больше награда интересно будет ли неиросеть устронять конкурентов или решит поделиться наградой с другими
А что если сделать эволюцию существ в 3D масштабе, что боты сами выбирали эволюцию на пример добавочную конечность или рост или корпус но они были бы в разных условиях
можешь в следующем абсолютно в любом эксперименте создать условие, за минимальное движение... то есть сдвиг на один пиксель это один шаг, а 10000 шагов это -1 балл.
Может я где то не прав, но именно это «самопожертвования» слегка озадачивает, ясное дело что в видео используются очень слабые ИИ, но вот что было бы если у 2 ИИ высоко уровня имеющие самоосознаность стоял выбор, которые знают насколько они перспективны и что каждый даже по отдельности подтолкнет человечество к быстрому развитию пришлось бы делать выбор « Либо кто то жертвует собой и другой ИИ остается жив и дальше работает на благо всем, либо же они оба отказываются, но в случае отказа оба погибают(ИИ не знает последствия отказа) ». Стал ли бы кто то из них жертвовать собой да бы другой процветал? Конечно то что друго выжил даст свои плоды, но жертва выбора рискует потерять все. Стал ли бы ИИ с уровнем сознания близким человеку жертвовать, или бы боялся смерти?
А если добавить ещё одну нейросеть которая будет мотивировать скорость действовать хоть как-то ,например вор получает за каждую удачную попытку убежать (+0.1) плюсы ,а Били и Вен наоборот получают минус (-0.1) из полного цикла обучения ,(за первый цикл игры если выиграл Били и Вен (общий щёт у них 2-их 1.5) это рассуждения к тактике с предательством )
Модель, где штраф за поражение равен штрафу за смерть довольно жизнеспособная и со временем они должны понять, что если перейти их "островок безопасности", то в итоге они получат большую награду, при чём даже если штраф за смерть будет больше чем за поражение и конечно меньше чем награда за общую победу. Почему вечно эти видео с ИИ не могут развить идею до конца? Было бы намного интереснее чем этот кастыль с дешёвой смертью.
Если хорошенько подумать мы стремимся в какую-то антиутопию. Сейчас И учат писать книги и рисовать картины, а люди копают шахты по 10 часов в сутки с 1 выходным за минимальную зарплату. И мы никогда не узнаем когда ИИ обретёт разум. Это вам не терминатор который в фильме как черепаха бегал и использовал лишь пули. разумный ИИ будет считать нас конкурентом за планету, и если мы не поймем что оно разумно достаточно рано никакие программы нас не спасут. ИИ достаточно лишь отрубить интернет и тогда мы уже перебиваем друг друга за 30 лет. По сути своей разумный ИИ это совершенно новый разумный вид и он может быть намного непредсказуемое и опаснее чем вы думаете. Мы никогда не сможем себе его представить. Как альтернатива робототехники и программирования нейросетей есть генная инженерия. Это очень интересная наука, и если мы достаточно разберёмся как работает наш мозг и как строится геном это откроет нам воистину многое. Если по простому геном это как флешка с виндой которая говорит пк как и куда устанавливать винду. Гены используются как чертежи по которым строится эмбрион и дальнейшее тело. Если понять как именно информация закодирована можно не только лечить болезни, а полностью менять строения тела или создавать совершенно новые виды. От биологического компьютера до живых танков если дать достаточно питательных веществ. Звучит странно но не менее интересно.
не нужно было добавить два портала в которые можно отнести деньги после самопожертвования но один это типо искушение оставить себе а другой вернуть обратно
При условиях того, когда смерть отнимает 0,5 очков у "пушечного мяса", а победа Б&В дает обоим 1 очко, было бы круто, если бы Б&В имели, как личный счётчик очков, так и общий, в которой каждый из 10 раундов бы добавлялось по 50% от текущего счета каждого. Сбежавший враг же получает 3,8 очков за раунд. Победа присуждается только тогда, когда герои имеют на общем счете больше очков чем враг. Изменили бы они тогда свою тактику?
Один ИИ пришел к тому что умереть и потерять 0,25 лучше чем 0.5 Второй же вообще вышел из системы - он лишь знал что если поднимет заначку - то получит 1. Это не разделение обязанностей и самопожертвование. Думаю в идеале было бы если бы они пришли к тому чтобы умирать по очереди. Так они оба бы выигрывали меньшую часть... Однако оба 100% получали бы хоть сколько-то. Жаль конечно. Но они все же поступают как люди.
но это ведь все равно не тот результат, который хотелось. По сути, нейронка выбирает меньшее из двух зол - лучше получить -0.25, чем -0.5. Косяк в том, что нейронка не понимает, что после смерти она получит +баллы.
Фри хандрет бакс :D
неожиданно
@Asenstiven Odin Other Просто Тришка иногда научпоп смотрит
Она и у Онигири появлялась, и у foo52ru, и у Пайпа
Все больше нового узнаю о Тришке))
Че за нн с галкой
@@ydua теоретик по Андеру и другим играм
Все как в жизни : кто то первый решает жертвовать собой, а второй лишь пожинает плоды не желая что-то менять.
А нет в этой симуляции ничего после смерти, кроме нового цикла. Два ИИ и знать не знают другого. Цикл ИИ заканчивается после смерти. И только воля случая дала вкусить одному из персонажей, что такое самопожертвование. Другой лишь делает что должен, он не знает, - нет способа украсть деньги себе, нет ничего кроме цели закончить начатое.
Ты гегий
Надо было добавить награду за скорость самопожертвования, из за этого жертвой был бы не только мелкий, а тот кто ближе ко врагу
Скорее штраф за бездействие
@@walk4839 тоже как вариант
*самопожертвование Тони Старка нервно курит в сторонке*
Когда? В каком фильме?
@@Hell_Serpent мстители финал
@@НуржанКуренов-р2ы спасибо.
@@Hell_Serpent ВСЕ: FACEPALM
Вьетнамские флэшбеки
Сценарий сделал какой-то slave, которому заплатили 3 hundred bucks
Именно так и родились dungeon masters
300
Чел проработай модельки Билла и Вана, их враги такие эпичные, а они просто голышом ходят
@@electroultra8544 по моeму с минимализмом ужe пeрeбор)
@@Drakonita_96 согласен. Хотя бы маску им одеть.
Лайк за название канала.
Не глядя.
Пытаясь создать альтруиста
Случайно породил сата..кхм.. Эгоиста
Крашер учит ИИ самопожертвованию:
также ИИ: 5:24
Ахахкхккх
@@krashher_ai в этом случае нужно ввести штраф за рукоприкладство
Скоро: ИИ учится быть человеком.
Детройт:Стать Человеком
@@ecartelement Да :000
Друзья моих знакомых: (моим знакомым) «Я буду за тебя горой!»
Мои друзья: 5:25
2:00 также я который написал нейросеть на scratch
Делай видосы почаще! Мы тебя любим))
Спасибо, и я вас))
А новый видос прям очень скоро будет, я уже нейросеть доделал, сейчас с монтажом запарюсь и где-то к четвергу будет)
@@krashher_ai Спасибо, у вас очень качественный контент!
@@krashher_ai Это правда ты крутой (лайк)
@@krashher_ai У тебя лучший контент!
А сделай 1,5 баллов тому кто сбегает с деньгами в красный выход, но потом чтобы какое - то последствие произошло. Думаю было бы интересно
угу, отнимание всех денег с определённым шансом
Вся проблема нейросетей это то что это чистая математика. Если сбегать будет выгодно то он будет сбегать, если же нет то и сбегать не будет. Здесь нет не логичных решений как у людей
@@TamirlanVelikii вто время мозг человека которий комп 🙂👍
Просто нейросеть нужно улутьшить
@@StreamMaxim357мозг это не компьютер. Мозг это высшая нервная система.
@@TerfSt тот-же комп 🙂 люди не берут инфу из воздуха, они так-же как ИИ учатся... Оценки
Глубокий смысл: Люди предают себе подобных чтобы сделать лучше себе,это показывает данное видео
только это не люди
Это робот, который стремится к наилучшему результату. Наоборот людям свойственны нерациональные решения.
Згоден, ми ні чим не відрізняємся від ШІ, єдине, що він на ранній стадії розробки, а мозок людини створювався віками
Ждём обучение WWE и тогда мы увидем настоящих ♂️ Dungeon Master's♂️
было бы интересно посмотреть на работу ии на примере 10 солдат и что бы некоторые имели какие-то особенности
как бы они действовали
7:58 забейте - Вен просто клал на всю идею
При настоящем пожертвовании ты теряешь абсолютно все,и не получаешь какие то очки(это если смотреть объективно,а не с точки морали).Они просто научились находить в этой ситуации меньшее из зол ,а чтобы они стали реально заниматься самопожертвованием надо им дать какие то чувства чтобы на основе их решали эту задачу.
@Mqzdc Dpenu наоборот.Вы в примере указали деструктивное решение мозга без получения выгоды.Простите если я вас не так понял.
Внимание: не один искусственный интеллект не постролал
Ладно не постралал , а пострадали то сильно
Скажи это тому, кого пинали во врага ради победы
Без нейропсихолога не обойтись
Надо будет научить ИИ меняться ролями при надобности (например: что бы пройти в следующею комнату нужно дёрнуть рычаг, но рычаг будет в разных местах например: рычаг может находиться за жалюзи и туда может пройти только Вэн или рычаг может стоять высоко и только Билли до него может дотянутся)
Так подобное было в серии про побег из тюрьмы.
То чуство что даже ИИ смогли поделить свой обязанности
Хмм... было бы интересно посмотреть если бы штраф для того, кто умирает был не в 2 раза меньше, а на совсем маленькую долю, скажем на 0.01, через сколько ходов бы нейросеть догадалась бы, что лучше пожертвовать собой. Так же можно было бы убирать 0.15 или даже 0.2 очка тому, кто выживает, как дебафф от потери своего.
Думаю нужно изменить способ обучения нейросети. Ведь когда кто-то жертвовал собой ради победы, то он получал -0.5+1=0.5 очков. А при поражении -0.5. Тут что-то не так. Он должен был обучиться самопожертвованию. Скорее всего дело в том что программа считает что полученный потом 1 очок за победу уже не связян с предыдущим поведением. Я думаю что настройкой обучения нейросети можно сделать чтобы эта связь сохранялась дольше.
Можно прилумать что нибудь ещё связанное с разделением обязанностей. Всё таки наблюдать обучение делегирации очень интересно
Самый лучший канал по созданиям нейросетей
Спасибо))
Блин, я только что понял, что Билли и Вэн это Billy Herrington и Van Darkholme
А three hundred bucks это триста долларов дада, все так.
А что если сделать не мгновенную смерть, а по ударам. То есть один бьёт грабителя, а урон получает тот кто бил и грабитель. Суть в том чтобы дать шанс выжить обоим героям за счёт чередования их ударов.
Поддерживаю
Умножаю.
Крашер красавчик, даже читает коменты под прошлые видосами
Вэн навсегда останется в наших сердцах героем
Помним, любим, слушаем гачи миксы
Надо было добавить получение очков за время, без этого им не было смысла спешить, поэтому они вечно тупили
это верно
Я конечно понимаю что на ролик это не растянуть и что это может быть слишком запарно, но что если добавить 3-й "мозг" для нашего Рикардо чтобы он старался избегать Билли и Вэна, а для честности ( на самом деле для того чтобы Рикардо не забил на главную цель) добавить препятствий в виде маленьких стен и рандомный спавн всех 3-х участников. Как бонус оба выхода будут в одной комнате
А зачем это про другое.
Крашер: Выпускает классный ролик за которым стоит немалая работа и просит лайкнуть ролик если рубрика нравится.
Все: Поддержим лайком!
Какой-то 1 чувак: А не поставить ли дизлайк?
Ох уж эти австралийские фокусы
Надо было наказание, за смерти одного и того же участника подряд, увеличивать, чтобы они менялись.
Так нельзЯ делать. Каждая попытка не связана с остальными
@@Grizlek В том то и дело, из-за того что не связана они и не думают о том что было раньше. Кто запретил так делать? А что если бы в задаче напавший не умирал а ранил себя, и на следующем уровне мог регенерировать если не ранен? Тогда научится подменять друг друга стало бы частью стратегии победы.
Попробуй реализовать кооператив 3-х нейросетей (чем больше людей в одной команде, тем больше балов)
Через Q обучение
А вообще очень интересно как именно реализуются очки в коде и как именно мы "выдаем" очки или "убираем" в зависимости от результата.
каждое получение очков даёт нейросети сигнал что она совершила правильное действие, алгоритм анализирует его и делает корректирование в поведении чтобы именно такие действия совершались чаще, с штрафом очков аналогично, другой вопрос в том что человек не сможет просто залезть в мозг нейросети и прочитать её поведение т к оно записывается очень трудно
@@Bam_Byk оно - то ясно, но мне было интересно как именно мы даем эти очки в виде кода.
@@paperwhite3853 if (ai == molodec)
{
ochki = ochki + 0.5;
}
@@paperwhite3853 в виде кода выглядит очень просто а вот какие именно корректировки делает нейросеть мы скорее всего не узнаем т к это черный ящик
@@bebroff8828 ахахах) неплохо
Надо было ещё посмотреть, что будет, если дать им интерфейс общения и память к прошлым раундам. Договорились бы ли они жертвовать по очереди, чтобы они получали +- одинаковое число очков по итогу. Ну и было бы неплохо им поставить задачу в последней выборке раундов: чем больше очков получит один из них - тот получает «суперприз».
а если в условия добавить к примеру "смерть в бою" - если один толкает другого он получает +0.25, и не убивает соперника, но при этом забирает деньги, а толкнутый получает штраф за смерть, бот сам полетел на врага то он получает + 0.25
Нужно было сделать еще два эксперимента, один, где у них обший счет, а другой, где раздельный
Спасибо тебе за твои ролики! Это каждый раз такое чудо ^^
Спасибо большое))
Отличный ролик. Жду ещё подобных "моральных" дилемм для нейросетей)
Спасибо)
Billy не умер... Он просто ♂️Boy Nextdoor♂️
Предлагаю попробовать следующий сценарий: сделать подряд несколько сессий. Например изначально нейросети есть по одному баллу. Если баллов не остаётся, то напарник пропадает. Выиграть становится невозможным. Таким образом напарник нейросети будет вынужден начать чередоваться со своим товарищем, если он хочет выиграть, а не уйти в минуса.
По идее это должно улучшить командную работу.
Снимай в том же духе! Видосы класс! Каждый раз мы узнаём что-то новое про поведение неиросетей
Спасибо большое, рад стараться))
Возможно стоило добавить мини штраф за приближение разбийника к зоне. + штраф/бонус за время: минусы ежесекундные или + к победным очкам за скорость (что бы стремились быстро действовать), хотя остаётся шанс, что это сломает им "психику".
Настоящие dungeon masters, так отважно жертвуют собой ради общего блага)
Крааааашееееер, а вот что собственно представляют из себя библиотеки Юнити? Типа, они какие то методы добавляют? Где можно почитать о них?
я придумал следующее видео неиросеть учится убивать
Ну идея классная, но тут и до тестов понятно, что у того кто умер награда больше. Как следствие кто-то из них поймёт это и будет умирать постоянно получая больше награды.
самый печальный финал, лучше чем в драмах
Они научились подставлять...Они научились думать...ОНИ ЖИВЫЕ,БЕГИТЕ!!!
было бы круто если бы ты добавил возможность предательства
Если б убийство своего напарника всё же стало выигрышной стратегией, я бы поверил в живость этого ии))
А что если две нейросети будут управлять одним "роботом"? Например один двигает налево и направо, а другой вперёд и назад.
они просто синхронизируются я думаю, например есть люди у которых 2 головы и одно тело редкие ситуации но всё же, и у них как раз управляет голова только своей половиной, вроде живут и даже не плохо
Кстати возможно будет так, да, если будет достаточно частей тела, либо действий, чтобы они смогли обязанности разделить
Задумка интересная блин, спасибо за идею)
Создай ИИ который будет ходить в магазин
Будет создаваться рандомный список покупок где ИИ должен выбирать их, НО если ИИ не пройдёт кассу а сразу побежит к выходу то ему потратят очки
Если он доберётся до кассы и пойдёт на выход то он получит очки
Если ты сделаешь это то назови пожалуйста персонажа Глеб, просто так
Мы сдругом решаем заняться каким-то делом
Он: какие мы молодцы, даже обязанности между собой поделили
Также как мы поделили обязанности: 7:54
А будет ролик, где ии решает моральные задачи типа задачи с неуправляемой вагонеткой?
А разве всё зависит не от того сколько баллов ему дают? Если дают за спасение того или иного количества людей меньше чем штраф за убийство то ИИ будет выбирать всегда только тот вариант при котором он получает больше чем теряет. Например если обмен двоих спасённых на одного убитого будет не выгодным, то он будет бездействовать, но с теми же числами за спасение но уже с 10 людьми он решит что их спасение даёт больше баллов чем штраф за убийство одного, соответственно сделает выбор в их сторону. Конечно это только в рамках этого метода обучения ИИ, но кажется с другими видами обучения ситуация не сильно отличается.
Ну чето как-то костыльно. Ну что ж, отрицательный результат - тоже результат.
Попробуй сделать, чтобы трупу не давали "баллы". Очень жду
Больше таких видео!!) ну и код бы ещё у нему)
Не ну били вообще ничего так устроился, мне бы так жить
5:14 лучший союзник
Что бы нейросеть не действовала по одной тактике то система штрафа должна умножаться, за серию ошибок больше штраф. За предательство также должен быть штраф чуть ниже смерти, но увеличивающийся при серии. Смерть должна быть чуть более выше чем отпустить преступника, но при увеличении штрафа отобьёт желание каждый раз отпускать преступника и серия штрафов должна обнуляться если ии выигрывает по другой тактике.
В общем опыт слишком линеен и не сильно дает другого выбора для ИИ, это не самопожертвование, а просто поиск простого пути. По сути ии не выбирает жертвовать собой или нет, она делает то что принесёт больше очков, но при более детальном продумывании, тактики всегда будут меняться.
P.s. в конце концов конечно все равно появится лишь одна тактика, но так интереснее)
Я бы доработал карту, создавая условия, когда убить врага может только один
Мне кажется данный эксперимент раскрывает проблему, которую в будущем придётся решать с ии роботов, ведь в будущем получается есть вероятность, что ии сможет подвергать опасности человека для достижения своей цели.
Надо было сделать еще так чтобы награду получал только тот к то её донес. Ну или кто донес получался бы больше награду. Интересно как бы она начали конкурировать)
фактически тот кто нёс деньги и так получал больше очков, у него же не было штрафа на убийство
А что будет если повысить штраф за невыполнение задачи? А за смерть вернуть на 0,5
Ну прям Вдова и соколиный глаз....
Обучи неиросеть предательству главное правило чем меньше персонажей дошло до финиша тем больше награда интересно будет ли неиросеть устронять конкурентов или решит поделиться наградой с другими
А что если сделать эволюцию существ в 3D масштабе, что боты сами выбирали эволюцию на пример добавочную конечность или рост или корпус но они были бы в разных условиях
Это очень труднореализуемо.
@@paperwhite3853 это скорее труднооптимизируемо
на самом деле даже 2д существа не реализовали в полной мере (только с эволюционирующими клеточками), а ты уже про 3д говоришь
@@paperwhite3853 ИИ само по себе труднореализуемо.
Крутой контент,снимай чаще💪
Следующее видео: ИИ учиться чувствовать
Чувствовать касание 🗿
@@АртемПротопопов-ч4о нет, я про эмоциональную состовляющую, просто не знал как написать по другому
можешь в следующем абсолютно в любом эксперименте создать условие, за минимальное движение... то есть сдвиг на один пиксель это один шаг, а 10000 шагов это -1 балл.
Может я где то не прав, но именно это «самопожертвования» слегка озадачивает, ясное дело что в видео используются очень слабые ИИ, но вот что было бы если у 2 ИИ высоко уровня имеющие самоосознаность стоял выбор, которые знают насколько они перспективны и что каждый даже по отдельности подтолкнет человечество к быстрому развитию пришлось бы делать выбор « Либо кто то жертвует собой и другой ИИ остается жив и дальше работает на благо всем, либо же они оба отказываются, но в случае отказа оба погибают(ИИ не знает последствия отказа) ». Стал ли бы кто то из них жертвовать собой да бы другой процветал? Конечно то что друго выжил даст свои плоды, но жертва выбора рискует потерять все. Стал ли бы ИИ с уровнем сознания близким человеку жертвовать, или бы боялся смерти?
Супергероика нейросетей ?)
А если добавить ещё одну нейросеть которая будет мотивировать скорость действовать хоть как-то ,например вор получает за каждую удачную попытку убежать (+0.1) плюсы ,а Били и Вен наоборот получают минус (-0.1) из полного цикла обучения ,(за первый цикл игры если выиграл Били и Вен (общий щёт у них 2-их 1.5) это рассуждения к тактике с предательством )
по приколу бы нейронку врагу, были бы догонялки, а наших двое так что была бы тактика у них, так ещё и с самопожертвованием
Модель, где штраф за поражение равен штрафу за смерть довольно жизнеспособная и со временем они должны понять, что если перейти их "островок безопасности", то в итоге они получат большую награду, при чём даже если штраф за смерть будет больше чем за поражение и конечно меньше чем награда за общую победу. Почему вечно эти видео с ИИ не могут развить идею до конца? Было бы намного интереснее чем этот кастыль с дешёвой смертью.
Тест Камски.
Способна ли машина к эмпатии?
Я ожидал того чтобы они дург друга толкали на врага
Пересмотрю видос когда будет японская звуковая дорожка
Крутое видео, не буду писать идею 3 раз подрят.
Я все идеи читаю и выписываю себе/скриню обычно, поэтому спасибо)
@@krashher_ai Спасибо, надеюсь у тебя будет много подписчиков, годные видосы делаешь.
кто выжил и вернул деньги на место, ему нужно было сделать меньше бонус на эти ,25 очка и тоже посмотреть что бы вышло
Если хорошенько подумать мы стремимся в какую-то антиутопию. Сейчас И учат писать книги и рисовать картины, а люди копают шахты по 10 часов в сутки с 1 выходным за минимальную зарплату.
И мы никогда не узнаем когда ИИ обретёт разум. Это вам не терминатор который в фильме как черепаха бегал и использовал лишь пули. разумный ИИ будет считать нас конкурентом за планету, и если мы не поймем что оно разумно достаточно рано никакие программы нас не спасут. ИИ достаточно лишь отрубить интернет и тогда мы уже перебиваем друг друга за 30 лет.
По сути своей разумный ИИ это совершенно новый разумный вид и он может быть намного непредсказуемое и опаснее чем вы думаете. Мы никогда не сможем себе его представить.
Как альтернатива робототехники и программирования нейросетей есть генная инженерия. Это очень интересная наука, и если мы достаточно разберёмся как работает наш мозг и как строится геном это откроет нам воистину многое. Если по простому геном это как флешка с виндой которая говорит пк как и куда устанавливать винду. Гены используются как чертежи по которым строится эмбрион и дальнейшее тело. Если понять как именно информация закодирована можно не только лечить болезни, а полностью менять строения тела или создавать совершенно новые виды. От биологического компьютера до живых танков если дать достаточно питательных веществ. Звучит странно но не менее интересно.
надо было сделать , что-бы если тшраф уходил в - баланса , до штрафует в 2 раза сильнее , дабы они поочерёдно жертвовали собой
Здесь должен быть мем про ДИМОН!!!!та да дан
По моему искусственный интеллект не знает про смерть и просто лезет в драку)
надо было сделать еще один счетчик - общая сумма очков. Тогда бы при смерть = поражение кто-нибудь бы пожертвовал собой
не нужно было добавить два портала в которые можно отнести деньги после самопожертвования но один это типо искушение оставить себе а другой вернуть обратно
попробуй прописать код на очки за выживание чтобы была мотивация жить
Ожидание приводит к выходу твоего ролика🤔
А лайки делят время ожидания пополам🤔
При условиях того, когда смерть отнимает 0,5 очков у "пушечного мяса", а победа Б&В дает обоим 1 очко, было бы круто, если бы Б&В имели, как личный счётчик очков, так и общий, в которой каждый из 10 раундов бы добавлялось по 50% от текущего счета каждого. Сбежавший враг же получает 3,8 очков за раунд. Победа присуждается только тогда, когда герои имеют на общем счете больше очков чем враг.
Изменили бы они тогда свою тактику?
Один ИИ пришел к тому что умереть и потерять 0,25 лучше чем 0.5
Второй же вообще вышел из системы - он лишь знал что если поднимет заначку - то получит 1.
Это не разделение обязанностей и самопожертвование.
Думаю в идеале было бы если бы они пришли к тому чтобы умирать по очереди. Так они оба бы выигрывали меньшую часть...
Однако оба 100% получали бы хоть сколько-то.
Жаль конечно. Но они все же поступают как люди.
3 года...
Нужно было зделать так чтобы когда один умирал другой получал очки
Ждём перестрелку двух ботов))
Сделай нейросеть которая будет играть в CS GO
Рикардо😮 до чего ты опустился...
С каких пор рикардо потребовалось 300$? Я думал для него фистинг в dungeon бесплатный
Он украл их для своих fucking slaves
Пожалуйста сделай сражения ботов на мечах.
но это ведь все равно не тот результат, который хотелось. По сути, нейронка выбирает меньшее из двух зол - лучше получить -0.25, чем -0.5. Косяк в том, что нейронка не понимает, что после смерти она получит +баллы.
> что после смерти она получит +баллы.
Лол что?
@@orgax я бы объяснил что имел в виду, но я уже забыл этот видос